Eine Frage die mich schon seit geraumer Zeit Beschäftigt.....
Der Grund warum ich diese Frage stelle ist folgender:
ich besuche zurzeit eine Höhere Handelsschule in Hamburg, die einen erheblichen Ausländeranteil (ca 75 %) hat.
In Klassendiskussionen und bei politischen Fragen, z.B der Karikaturenstreit oder der EU-Beitritt der Türkei, ist mir aufgefallen, dass sich die Deutschen nicht trauen etwas Positives über ihr Land zu sagen bzw. ihre Ansichten nicht vertreten, aus Angst in irgendeine "Ecke" gestellt oder einfach Ziel gewalttätiger Handlungen zu werden (das ist mir übrigens auch bei meinen Lehrern aufgefallen).
Nun... da ich selbst Wert auf freihe Meinung lege und dachte, dass andere auch so denken, habe ich mal das Wort "für mein Land" ergriffen und etwas Islamkritisches gesagt, was weder rassistischer noch deutschverherrlichender Natur war.
Seitdem werde ich als Nazi angesehen.
Ich möchte einfach mal fragen warum das so ist und was ihr davon haltet?