Hier im Forum sind ja viele Nationalisten vertreten (auch wenn nur wenige so weit rechts stehen wie ich als völkischer Nationalist).
Wo seht ihr eure Präferenzen? Was ist euch wichtiger? Der deutsche Nationalismus oder eine Zusammenarbeit mit allen Weißen dieser Welt?
Ich selber habe lange überlegt und habe mich für den letztgenannten Weg entschieden.
Es stimmt natürlich, daß wir Deutschen ungerecht behandelt wurden. Wir wurden in 2 Weltkriege gehetzt, beide Male unter Führung der Briten. Außerdem haben die Polen und Tschechen uns unendlich viel Leid angetan, von den geraubten Gebieten mal ganz zu schweigen. Praktisch alle weißen Völker haben sich an Deutschland vergangen.
Trotzdem: Ich denke, wir sollten in die Zukunft schauen und keine alten Grabenkämpfe mehr ausführen. Das heißt nicht, daß wir vergessen sollten, aber vielleicht vergeben.
Die weiße Rasse ist weltweit bedroht.
Deswegen finde ich, sollten wir global denken.
Was bringt es uns, wenn wir das Sudetenland und die Ostgebiete wieder bekommen, aber dabei total vernegert und vermuselt sind?
Die Kriegsgewinner USA, GB und Frankreich sind noch schlimmer dran als wir. Das entbehrt natürlich nicht einer gewissen Ironie, aber was bringt das uns?
Ein völkisches Deutschland in einem vermuselten und vernegerten Europa kann sich nicht lange behaupten. Deswegen plädiere ich für die weltweite panarische Zusammenarbeit.
Nur wenn wir zusammen kämfen, haben wir noch eine Chance zu überleben.
Wie seht ihr das?