Frage
von Flashdragon am 23.08.2017, 15.01 Uhr
Muss man in Deutschland versichert sein?
Meine Frage: Muss man in Deutschland versichert sein? Welche Versicherungen benötige ich? Welche sind vorgeschrieben und welche Versicherungen kann ich mir sparen?
Normalerweise muss man doch krankenversichert sein. Ich habe aber auch schon von Leuten gehört, dass sie keine Krankenversicherung haben. Wie kommt das?
Wie sieht es mit anderen Versicherungsarten aus? Wer kann mir das erklären? Welche Versicherungen brauche ich, für welche kann ich mir den Versicherungsbeitrag sparen?
Antwort
von maikschaefer42 am 03.09.2018, 14.26 Uhr
Es ist sinnvoll versichert zu sein. Die einzigen Versicherungen, die man wirklich gut gebrauchen kann sind zum einen die Krankenversicherung und zum anderen die Kfz-Versicherung für das Auto (falls du eins besitzt). Alle anderen Versicherungen machen nur von Person zu Person mehr oder weniger Sinn.
Antwort hilfreich?
Weitere Themen ...
Die im Versicherungsforum veröffentlichten Beiträge sind Meinungsäußerungen der jeweiligen User.
Da die Aussagen nicht geprüft werden, kann die Richtigkeit der Inhalte nicht gewährleistet werden.