Glaubt ihr, dass es uns deutsch macht, dass wir die Nachfahren des Volkes sind, das den 2. Weltkrieg begann oder spielt diese Vergangenheit für unser Leben keine Rolle mehr?
Wären wir anders, wenn es kein Naziregime gegeben hätte?
Ich denke, dass wir davon unbewusst geprägt sind.
Wie seht ihr das so?