Der Westen und der Faschismus
Es gibt bekanntlich die Theorie, dass der Westen, insbesondere die USA, Interesse daran gehabt haben sollen Hitler und die NSDAP - aber auch Mussolini, Franco und andere faschistische Diktatoren - finanziell wie organisatorisch zu unterstützen, damit sie ein kapitalistischfreundliches Regime mit totalitären Charakter etablieren, von dem der Westen dann Profit schlagen kann. Nicht zu vergessen ist hierzu der Buchtitel "Das schwarze Reich." Was ist an dieser These richtig?
Der anzuzweifelnde amerikanische Bürgerrechtler LaRouche geht davon aus, dass die USA von "britisch-holländischen Kapitalisten " unterwandert wurden, die den NS zum Aufstieg verhalfen und nur die Politik des amerikanischen Präsidenten Roosevelt Europa vor den Endsieg des Faschismus rettete, was ist hiervon zu halten?
Ich denke es gibt noch mehrere solcher Konspirationstheorien, aber welche davon liegt am nähesten bzw. spiegelt einen Teil der Wahrheit wider, oder ist alles bloße Verschwörungstheorie von demagogischen Spinnern? Was sagt ihr dazu? Wäre froh, wenn ihr zu euren Ansichten und Theorien auch eventuell Quellen hinzufügen könntet.