https://s1.directupload.eu/images/251113/bjowec86.jpg
Bankmacht 1938 auch in der Ostmark gebrochen.
Die Deutschen schöpften ihr eigenes Geld und das ohne Zinsen bei ...
Was das akzeptabel??
Druckbare Version
https://s1.directupload.eu/images/251113/bjowec86.jpg
Bankmacht 1938 auch in der Ostmark gebrochen.
Die Deutschen schöpften ihr eigenes Geld und das ohne Zinsen bei ...
Was das akzeptabel??
sehr gute Abhandlung :dg: .... fehlt eigentlich nur noch das grandiose Scheitern von KI. Gründe : Kein Strom, Abschreibung auf 10-15 Jahren wobei Chips nach 3 Jahren veraltet sind, fehlende Anwendungen die einen produktiven Nutzen bringen. Nachdem sich die ganze KI Mafia gegenseitig stützt genügt schon ein Windhauch und alle fallen um.
ABT 5
Die KI Blase wird genauso platzen wie es bei der dotcom Blase der Fall war.
Zitat:
Techzeitgeist / 25. Juni 2025 von Artisan Baumeister
Agentische KI: Gartner sieht Scheitern als Weckruf für Entscheider
Agentische KI boomt – doch laut Gartner droht über 40% bis 2027 das Aus. Erfahren Sie, was Entscheider jetzt wissen und tun müssen! Lesen Sie mehr.
Einleitung
Agentische KI-Lösungen gelten als Hoffnungsträger der Digitalisierung. Doch eine aktuelle Gartner-Prognose sorgt für Ernüchterung: Mehr als 40 Prozent dieser Projekte werden bis Ende 2027 eingestellt.
Hauptursachen sind explodierende Kosten und fehlender Geschäftsnutzen.
Für Technologieführer und Architekten wird diese Entwicklung zum Prüfstein: Wie gelingt nachhaltige Wertschöpfung in dynamischen KI-Projekten? In diesem Beitrag beleuchten wir zunächst den Status Quo und die Hintergründe aktueller Fehlschläge. Es folgt ein technischer Deep Dive in Architektur und Fallstricke agentisch arbeitender KI. Im dritten Kapitel analysieren wir die konkreten Auswirkungen für Wirtschaft, IT und Arbeitsmärkte. Abschließend bieten wir einen Ausblick auf tragfähige Erfolgsstrategien sowie die Schlüsselfrage: Was bedeuten Scheitern und Wandel für das KI-Ökosystem von morgen?
Agentische KI am Scheideweg: Status und Ursachen der Krise
Agentische KI galt als Hoffnungsträger, doch nach dem Hype folgt Ernüchterung: Laut Gartner und Reuters werden bis 2027 über 40 Prozent der KI-Projekte mit agentischen Elementen eingestellt. Diese Prognose basiert auf Marktanalysen, die steigende Kosten, fehlenden geschäftlichen Mehrwert und technische Unreife als Hauptursachen benennen. Unternehmen erkennen zunehmend, dass viele Pilotprojekte den Praxistest nicht bestehen – eine Entwicklung, die Entscheider zum Handeln zwingt.
Projektabbrüche und Kostenexplosionen
Statistiken aus 2024/25 zeigen: Während 19 Prozent der Unternehmen substanzielle Mittel in KI-Implementierung stecken, agieren 42 Prozent vorsichtig. Die Betriebskosten agentischer KI – von Infrastruktur bis Lizenzgebühren – steigen rapide. Gleichzeitig bleibt der Return-on-Investment (ROI) oft aus:
Viele Lösungen erzielen keinen klar messbaren Mehrwert, insbesondere wenn sie nicht in bestehende Systeme integriert werden können. Dieses Muster erinnert an frühere KI-Hypes, denen nach anfänglicher Euphorie eine Phase kritischer Neubewertung folgte.
Strukturelle Herausforderungen und Governance-Defizite
Neben gescheiterten Pilotprojekten rücken strukturelle Hürden in den Fokus. Analysten betonen Defizite im Datenmanagement, Datenschutz und der KI Governance. “Agent Washing” – das Labeln konventioneller Automatisierung als agentische KI – führt zu überzogenen Erwartungen und Frustration. Der Fachkräftemangel und unzureichende Schulungen verschärfen die Lage, ebenso wie regulatorische Unsicherheit und die Notwendigkeit transparenter, ethischer Rahmenwerke. OECD und BCG mahnen zur Entwicklung robuster Investitionsentscheidungen und klar definierter Governance-Modelle.
Die aktuelle Krise ist ein Weckruf:
Unternehmen müssen agentische KI gezielter, mit klarem Nutzenversprechen und starker Governance einsetzen. Im nächsten Kapitel beleuchten wir die technischen Chancen und Grenzen agentischer KI im Detail – und wie nachhaltige Innovation gelingen kann.
Technik hinter agentischer KI: Chancen und Grenzen im Detail
Agentische KI steht für eine neue Klasse autonomer Systeme, die selbstständig Entscheidungen treffen und sich flexibel an wechselnde Umgebungen anpassen – weit mehr als klassische Machine-Learning-Modelle oder traditionelle Automatisierungslösungen. Während klassische KI-Projekte meist auf vordefinierten Trainingsdaten basieren und starr auf spezifische Aufgaben reagieren, agieren agentische KI-Systeme wie digitale Mitarbeitende: Sie beobachten, planen, handeln aktiv und lernen aus Feedback.
Aufbau und Architektur: Single- und Multi-Agent-Systeme
Ein agentisches KI-System besteht aus mehreren Kernkomponenten: Wahrnehmung (Sensorik, Datenerfassung), Entscheidungsfindung (regelbasiert oder lernend), und Aktorik (Ausführung). Single-Agenten lösen fokussierte Aufgaben mit geringem Koordinationsbedarf – etwa ein autonomer Chatbot im Kundenservice. Multi-Agenten-Systeme hingegen arbeiten als kooperatives Team: Sie teilen Aufgaben, kommunizieren und lösen gemeinsam komplexe Probleme, zum Beispiel in der Logistik, im Finanzwesen oder in der Cybersicherheit. Die Herausforderung wächst mit der Anzahl der Agenten, da Koordination, Kommunikation und Fehlertoleranz steigen müssen.
Anwendungsfelder, Integrationshürden und Limitationen
Agentische KI findet Anwendung in Kundenservice, Supply-Chain-Management, Gesundheitswesen und IoT – überall dort, wo Aufgaben dynamisch und adaptiv gelöst werden müssen. Doch Skalierung und Schnittstellenintegration bleiben herausfordernd: Systeme müssen sicher in bestehende IT-Landschaften eingebettet werden und Compliance-/Governance-Anforderungen erfüllen. Neben dem Fachkräftemangel bremsen insbesondere Halluzinationen (falsche oder erfundene KI-Antworten), hoher Wartungsaufwand und beträchtlicher Energiebedarf den breiten Einsatz. Studien prognostizieren, dass bis 2026 über 80 Prozent der Unternehmen agentische KI zumindest pilotieren, doch nur robuste Governance und gezielte Investitionsentscheidungen sichern nachhaltigen Erfolg.
Im nächsten Kapitel analysieren wir, wie das Scheitern vieler KI-Projekte Wirtschaft und IT transformiert und welche Lehren Entscheider daraus ziehen sollten.
Das Scheitern der KI-Projekte: Auswirkungen auf Wirtschaft und IT
Das Scheitern vieler agentischer KI-Projekte prägt den Wirtschaftsstandort 2024/25: Laut Gartner und Roland Berger werden bis Ende 2027 über 40 Prozent aller KI-Projekte mit agentischen Komponenten eingestellt. Die Folge sind erhebliche Verwerfungen bei Investitionsentscheidungen, in der IT-Landschaft und auf dem Arbeitsmarkt. Während Unternehmen ihre Budgets zurückfahren, müssen Dienstleister und Partner mit sinkenden Aufträgen rechnen. Fachkräfte erleben Unsicherheiten hinsichtlich Zukunft und benötigter Kompetenzen.
Rückzug bei Investitionen und Transformation der IT-Landschaft
Roland Berger berichtet, dass trotz einer Verfünffachung der KI-Investitionen nur 27 Prozent der Unternehmen agentische KI-Lösungen vollständig in ihre Prozesse integrieren. Gründe für das Scheitern liegen in explodierenden Betriebskosten, mangelhafter Datenqualität und fehlender KI-Governance. Unternehmen unterschätzen häufig die Komplexität der technischen Integration. Kosten für Fehlinvestitionen und notwendige Systemanpassungen summieren sich, während IT-Abteilungen gezwungen sind, Architektur und Security-Richtlinien neu zu definieren.
Arbeitsmarkt, Governance und positive Ausnahmen
Der Mangel an qualifizierten Fachkräften verschärft die Lage. Gleichzeitig droht ein Kompetenzvakuum, da viele Projekte abgebrochen werden, bevor Know-how nachhaltig aufgebaut werden kann. Unsicherheiten betreffen nicht nur Inhouse-Teams, sondern auch externe IT-Dienstleister. Unternehmen mit klaren KI-Governance-Modellen, gezielter Ausbildung und methodisch begleiteten Pilotprojekten (z.B. in Medien oder Finanzen) erzielen jedoch messbaren Mehrwert. Best-Practice-Beispiele zeigen: Produktivitätsgewinne bis zu 74 Prozent in der Softwareentwicklung sind realistisch, wenn Strategie und Umsetzung stimmen.
Im nächsten Kapitel analysieren wir, wie Unternehmen aus den Fehlern der Vergangenheit lernen und welche Erfolgsfaktoren für nachhaltige KI-Implementierung entscheidend sind.
Blick nach vorn: Erfolgsfaktoren für die Zukunft agentischer KI
Trotz einer hohen Misserfolgsquote bleibt agentische KI laut Gartner einer der wichtigsten Digitalisierungstreiber bis 2028. Prognosen sehen bis dahin 15 Prozent aller Geschäftsentscheidungen als autonom durch KI-Agenten getroffen und ein Drittel aller Unternehmenssoftware mit agentischen Modulen ausgestattet. Entscheider stehen daher vor der Herausforderung, aus dem aktuellen Tal der Enttäuschung strategische Chancen zu entwickeln.
Strategische Weichenstellungen: Von Investitionsmodellen bis Governance
Gartner und Brancheninsider empfehlen einen graduellen Ansatz: Unternehmen sollten zunächst gezielt KI-Projekte mit niedrigem Automatisierungsgrad und klarem, messbarem Mehrwert starten.
Best Practices zeigen, dass eine Kombination aus menschlicher Aufsicht (“Human-in-the-Loop”), transparenter KI Governance und iterativer Skalierung das Risiko von Fehlinvestitionen minimiert. Moderne Investitionsentscheidungen setzen auf pragmatische, schrittweise Erweiterung – etwa durch den Start mit Informations- oder Analyseagenten, bevor komplexere autonome Lösungen implementiert werden.
Chancen, Risiken und Umsetzungsempfehlungen
Die Chancen liegen in messbaren Effizienzgewinnen, der Automatisierung komplexer Abläufe und neuen Geschäftsmodellen. Allerdings bestehen weiterhin Risiken: Regulatorische Unsicherheiten – etwa durch den EU AI Act – und Fachkräftemangel können Fortschritt ausbremsen. Um nachhaltig zu wachsen, sollten Unternehmen folgende Erfolgsfaktoren priorisieren:
• Klares Use-Case-Design mit definierten KPIs und ROI-Zielen
• Transparente Daten- und Agenten-Governance sowie ethische Leitplanken
• Interdisziplinäre Teams und gezielte Weiterbildungsprogramme
• “Fail-Fast”-Kultur: Scheitern früh akzeptieren, daraus lernen und nachjustieren
Unternehmen, die diese Prinzipien kombinieren, profitieren nicht nur von innovativen KI-Implementierungen, sondern sichern sich Resilienz gegenüber Marktverwerfungen. Im nächsten Kapitel analysieren wir, wie erfolgreiche Organisationen ihre agentischen KI-Projekte skalieren und welche Branchen Vorreiter sind.
Fazit
Die aktuelle Gartner-Prognose markiert für agentische KI-Projekte eine Wegscheide: Scheitern wird zum Regelfall, wenn Kosten und Mehrwert aus dem Gleichgewicht geraten. Für Entscheider und Tech-Verantwortliche heißt das: Weg von blindem Aktionismus, hin zu strategischer Fokussierung, robusten Investitions- und Governance-Modellen und transparenten Erfolgskriterien. Wer das KI-Portfolio jetzt absichert und Fehlschläge als Lernchance begreift, bleibt auch im nächsten Innovationszyklus wettbewerbsfähig.
...
https://www.techzeitgeist.de/agentis...r-entscheider/
abt 6
Zitat:
srf 4 news aktuell 19.08.2025
gefährlicher hype
was, wenn die ki-blase platzt?
an den märkten herrscht grenzenlose ki-euphorie. Nun warnen insider vor einer spekulationswut, die böse enden könnte. Die aktien von nvidia und microsoft erreichen derzeit historische höchstwerte. Beide us-techfirmen sind aktuell über vier billionen dollar wert – das ist mehr als das zweieinhalbfache aller firmen im schweizer leitindex smi zusammen, wie der «tagesanzeiger» ausgerechnet hat.
Gleichzeitig erhalten ki-start-ups wie open ai oder anthropic schwindelerregende milliardenbewertungen – ohne klares geschäftsmodell. Nun warnen namhafte finanzanalysten und börsenexpertinnen vor einer möglichen blase, so etwa der chefstratege der bank of america, michael hartnett.
sogar der ki-guru warnt
gegenüber «the verge» wählt auch sam altman bemerkenswerte worte:
«sind wir in einer phase, in der investoren überbegeistert von ki sind?»,
fragte der ceo von open ai. Und gab die antwort gleich selbst.
«ja, wir stecken in einer blase.»
in dem interview zieht altman eine parallele zur dotcom-euphorie der 1990er-jahre. Damals wurden unternehmen im internet (dotcoms), die zwar haufenweise klicks generierten, aber kaum umsätze machten, massiv überbewertet. Die blase platzte, der crash löschte eine marktkapitalisierung von fünf billionen dollar aus.
Legende: Für «ein paar leute und eine idee» würden ki-start-ups heute milliardenschwere finanzspritzen bekommen, kritisiert altman – und bezeichnet das investitionsverhalten als «wahnsinnig».
Aber warum kommen die warnrufe gerade jetzt? Und erleben wir nun, wie sich die dotcom-tragödie wiederholt?
«es gibt gewisse parallelen, aber auch unterschiede zu damals»,
sagt die finanzexpertin luba schönig.
Ein wesentlicher unterschied sei die geldpolitik der us-notenbank fed: Das makroökonomische umfeld sei heute anders ausgelegt als damals.
kaufen die menschen diese neuen produkte tatsächlich und spiegelt sich das enorme potenzial in höheren gewinnen wider?
eine ki-blase könnte sich aber durchaus bilden, so die expertin. «wenn wir davon sprechen, wie mächtig ki ist, geht es meist um kostensenkungen und effizienzsteigerungen für firmen, vor allem im personalbereich.» diese debatte fokussiere allerdings auf die angebots- und nicht auf die nachfrageseite.
Die «frage aller fragen» beim ki-boom wird laut schönig sein:
«kaufen die menschen diese neuen produkte tatsächlich und spiegelt sich das enorme potenzial in höheren gewinnen wider?»
darauf gebe es derzeit noch keine klare antwort.
Legende: Schönig spricht von «exorbitanten bewertungen» für die «magnificent seven» der tech-giganten. «auch start-up-firmen werden im milliardenbereich bewertet – und das, ohne dass sie gewinne erzielen.»
die ökonomin relativiert allerdings: Nur weil hochbewertete unternehmen (noch) keine gewinne abwerfen, sind sie nicht zum scheitern verdammt. Das beste beispiel: Amazon, dessen gründer jeff bezos heute zu den reichsten menschen der welt gehört.
«fomo» heizt spekulative euphorie an
das unternehmen, einstiger onlineshop für bücher, ist seit seiner gründung 1994 zum grössten onlinehändler der welt aufgestiegen. «amazon brauchte damals sieben jahre, bis es erste gewinne geschrieben hat», erinnert schönig.
Legende: Der aktienkurs von amazon stürzte während des dotcom-crashs zu beginn der nullerjahre dramatisch ab. Das unternehmen überstand die krise – und legte eine gigantische erfolgsgeschichte hin.
Ein weiterer grund für die derzeitige goldgräberstimmung:
die investoren spekulieren darauf, dass die «eigene» firma standards setzt oder sich gar zum marktführer aufschwingt.
«die hohen bewertungen der techfirmen und start-ups werden stark von fantasien beflügelt»,
erklärt schönig.
«zudem nehmen die anwendungsbereiche von ki derzeit exponentiell zu. Es gibt kaum eine industrie, in der sie nicht verwendet wird.»
der glaube daran, gerade in das nächste amazon zu investieren, birgt gefahren:
«wir sehen derzeit eine typische lotteriementalität»,
sagt die expertin.
«anleger überschätzen systematisch die chancen, einen grossen treffer zu landen.»
viele seien getrieben von hypes und der «fear of missing out», kurz fomo. Also der angst, nicht dabei zu sein. «das ist der wichtigste treiber für eine spekulative euphorie», schliesst schönig.
https://www.srf.ch/news/wirtschaft/g...i-blase-platzt
ABT 1
Aufstieg und Niedergang der Wissensarbeit Teil A
Zitat:
JACOBIN MAGAZIN 16. Juli 2025 von Mostafa Abdou und Vinit Ravishankar
Der Aufstieg und Niedergang der Wissensarbeiter
Coder, Grafikerinnen oder Texter – also sogenannte Wissensarbeiter – waren die Gewinner der Globalisierung. Jetzt sorgt KI dafür, dass ihnen ein ähnliches Schicksal droht wie der Industriearbeiterschaft.
Wissensarbeit galt lange als automatisierungsresistent – doch generative KI bringt nun auch diese Berufsgruppen unter Druck.
Bei einem kürzlich von der Risikokapitalgesellschaft Andreessen Horowitz veranstalteten Treffen mit Firmenvorständen und US-Regierungsvertretern präsentierte Vizepräsident J. D. Vance eine bemerkenswert ehrliche Analyse der US-Wirtschaftspolitik der vergangenen 50 Jahre.
»Die Idee«, so Vance, »war, dass die reichen Länder in der Wertschöpfungskette aufsteigen würden, während die ärmeren Länder die einfacheren Aufgaben übernehmen.«
Tatsächlich gingen Befürworter der Globalisierung seit den 1970er Jahren davon aus, dass zwar einige Menschen in Ländern wie den USA ihre Arbeitsplätze in der Fertigung verlieren, sich die meisten jedoch anpassen und andere Jobs finden würden. Für sie gelte dann: »learn to code«. Die
Arbeiterschaft der USA würde sich vom Kohleruß an den Händen verabschieden und stattdessen schicke Laptops für ihre Tätigkeiten nutzen. Die Arbeiterschaft in Staaten, in denen sich diese hochwertigen Arbeitsplätze konzentrierten, würde eine höhere Position in der globalen Wertschöpfungskette einnehmen als ihre Kolleginnen und Kollegen im Globalen Süden. Stattdessen, so beklagt Vance, sei es aber dazu gekommen, dass
»die am unteren Ende besser wurden und auch in den höheren [Arbeitsfeldern] aufzuholen begannen«.
Vances Beschreibung dieser Entwicklung ist ehrlicher als das, was man bislang an Statements von Politikern zu erwarten hatte. Tatsächlich wurde seit den Zeiten des Kalten Krieges die Globalisierung mit glattgebügelten Phrasen wie Fortschritt, Integration und Modernisierung beworben. Es entstehe eine vermeintliche Trickle-Down-Ökonomie für Nationalstaaten, die sowohl die Reichen weiter bereichern als auch die »Unterentwickelten« stärken würde.
Und während der Lebensstandard in bestimmten Teilen der Welt tatsächlich gestiegen ist – am deutlichsten in Ostasien –, war die Realität für den Rest ein bestenfalls mäßiges Wachstum. Hinzu kam der katastrophale Zusammenbruch staatlicher Institutionen und Sozialleistungen.
Vance prangert heute die Übel der Globalisierung an und postuliert stattdessen eine Welt, die von einem Nullsummenwettlauf der Nationalstaaten um die globale Vorherrschaft geprägt ist. Was in dieser Darstellung jedoch fehlt (oder bequemerweise ausgelassen wird), ist eine ernsthafte Klassenanalyse. Dabei ist Klasse doch der primäre Aspekt, der bestimmt, wer von der Globalisierung profitiert. Stattdessen landen bei Vance Ausbeuter und Ausgebeutete unter dem vermeintlich einigenden Begriff der Nation in einem Topf:
Diejenigen, die rücksichtslos versuchen, ihre Gewinne über Branchen und Regionen hinweg zu maximieren, und diejenigen, die die Hauptlast dieses unersättlichen Strebens nach Akkumulation tragen, werden als Einheit dargestellt.
Vance und seine Mitstreiter gerieren sich als Fürsprecher der amerikanischen Arbeiterklasse, lenken dabei aber Aufmerksamkeit und Wut von ihren milliardenschweren Geldgebern ab und hin zu ausländischen Arbeitern sowie einer vage definierte »liberalen, urbanen Elite«. Damit forcieren sie die Spaltung der Arbeiterschaft in Fabrikarbeiter und Büroangestellte.
Fordismus und Post-Fordismus
Das Wirtschaftssystem, dem Vance und andere Mitglieder der populistischen Rechten nachtrauern, wird oft als »fordistische Ära des Kapitalismus« bezeichnet. Während dieses »goldenen Zeitalters« des Kapitalismus war in etwa jeder sechste amerikanische Arbeiter direkt oder indirekt in der Automobilindustrie beschäftigt. Heute sind es knapp 3 Prozent.
Der Fordismus war geprägt von Massenkonsum in der Gesellschaft und Massenproduktion in den Fabriken. Letztere war nach tayloristischen Prinzipien der Hyper-Standardisierung von Arbeitsmethoden, Werkzeugen und Ausrüstung organisiert, um die Effizienz zu maximieren. Es war eine besonders erfolgreiche Phase des kapitalistischen Wachstums. In den Vereinigten Staaten beispielsweise stiegen zwischen 1947 und 1979 die Durchschnittslöhne für Personen in nicht leitenden Positionen um 2 Prozent pro Jahr, während das reale BIP um 7,3 Prozent wuchs. Im Vergleich dazu nahmen die Löhne ab 1979 nur noch um 0,3 Prozent pro Jahr zu, das reale BIP um 4,9 Prozent.
Der Niedergang des Fordismus ab den 1970er Jahren wurde durch den sich verschärfenden internationalen Wettbewerb ausgelöst:
Andere fortgeschrittene kapitalistische Länder wie Westdeutschland und Japan begannen, ähnliche Waren wie die USA zu produzieren. Niedrigere Löhne in diesen Ländern führten in Verbindung mit der Verdopplung der Produktionskapazitäten letztlich zu einem erheblichen Druck auf die Preise – und schließlich auch auf die Gewinne.
Die Auswirkungen zeigten sich in den USA sowohl in Veränderungen bei der Produktion von Gütern als auch in den Konsumgewohnheiten der Bürgerinnen und Bürger. Optimierte Fabriken und immer komplexere globalisierte Lieferketten ersetzten die heimische Massenproduktion standardisierter Güter.
Fortschritte in der Automatisierung, Computertechnik und Kommunikationstechnologie erleichterten diesen Übergang: Sie ermöglichten es, eine flexiblere und geografisch weit verstreute Belegschaft besser zu managen. Ebenso veränderten sich die Konsumgewohnheiten der Menschen. Die Durchschnittsbevölkerung hatte nun Zugriff auf eine immer breitere Palette zunehmend individualisierter Konsumgüter zu günstigeren Preisen. Diese Art des Konsums entwickelte sich schnell zur erstrebenswerten Norm für die Mittelschichten der ganzen Welt.
Die Krise des Fordismus führte jedoch auch zum Zerfall der Arbeiterbewegung in den meisten Ländern des Globalen Nordens. Unmittelbare Ursache dafür war, dass Produktionsstätten ins Ausland verlagert und organisierte Arbeiterinnen und Arbeiter entlassen wurden. Die Arbeiterschaft wurde nun verlegt in kleinere sowie räumlich weiter verstreute Arbeitsbereiche, die der Dienstleistungssektor benötigte. Das schränkte ihre Fähigkeit zur Organisierung ein.
»Technologische Fortschritte trugen zur Entstehung einer neuen Klasse bei: Softwareentwickler, Systemdesignerinnen, Finanzanalysten. Sie fungierten als Vermittler für die zunehmend fragmentierten Kapital- und Warenströme.«
Dies führte schließlich zu vernichtenden Niederlagen für die Gewerkschaften. Ehemalige Industriehochburgen (der amerikanische Rust Belt, der Norden Englands, Nordfrankreich, das deutsche Ruhrgebiet) erlebten eine rapide Deindustrialisierung; die Produktion wurde verstärkt ins Ausland umgesiedelt. Begünstigt wurde dies durch standardisierte Schiffscontainer, computergestützte Lagerlogistik, schnellere Kommunikationsnetze und zahlreiche weitere technologische Innovationen.
Dies führte zu einer Spaltung der Weltwirtschaft in das »Hirn« im Norden, das intellektuelle, kreative und leitende Tätigkeiten ausübte, und der »Hand« im Süden, die für die Produktion physischer Güter zuständig war. Das 1994 unterzeichnete Freihandelsabkommen NAFTA zwischen den USA, Kanada und Mexiko sowie der Beitritt Chinas zur Welthandelsorganisation 2001 verstärkten diese Trends. Die Produktion wurde nun größtenteils nach Asien verlagert, zunächst nach Südkorea und Taiwan, schließlich nach China.
Dortige Staaten mit einer großen bäuerlichen Bevölkerung und neuen Formen der direkten, effektiven Regierungsführung konnten sowohl ein ständiges Angebot an Arbeitskräften als auch strenge Arbeitsdisziplin »anbieten«. China führte ein besonders striktes Arbeitsregime ein: Die Arbeiterinnen und Arbeiter wurden in vollgestopften Unterkünften direkt an ihrem Arbeitsort untergebracht, was der Fabrikleitung eine beispiellose Kontrolle über den Tagesablauf ihrer Beschäftigten ermöglichte.
Während eine kleine Gruppe ostasiatischer Länder tatsächlich von der Globalisierung profitieren konnte, erlebte die überwiegende Mehrheit der Staaten, die sich global integrierten – von Ägypten über Südafrika bis Indonesien – unter dem Druck des Finanzkapitals vor allem einen Abbau staatlicher Kapazitäten und Sozialleistungen. Diese Länder bieten heute meist geringwertige Dienstleistungen an oder produzieren billige Kleinwaren.
Der Wissensarbeiter
Gleichzeitig trugen rasante Fortschritte in der Computer- und Kommunikationstechnologie zur Entstehung einer neuen Klasse der sogenannten Wissensarbeiter bei: Datenmodelliererinnen, Softwareentwickler, Systemdesignerinnen, Finanzanalysten und Netzwerktechnikerinnen.
Diese neue Klasse fungierte als Ermöglicher und Vermittler für die zunehmend fragmentierten Kapital-, Ressourcen-, Informations- und Warenströme. Die Angehörigen dieser Klasse genossen relative finanzielle Stabilität: Sie konnten einen recht großen Anteil an den Firmengewinnen für sich beanspruchen, entweder direkt durch hohe Löhne oder indirekt durch Beteiligungen am Unternehmen. Diese Untergruppe der Arbeiterklasse wurde zu den Managern und Vermarktern des postfordistischen Kapitalismus; ihr Lebensstandard und ihre Konsumfähigkeit stiegen deutlich an.
In der Vorstellung der Globalisierungsfans würden diese neuen Arbeitsplätze die Einbußen aus der Deindustrialisierung ausgleichen. Doch die Einkommen aus diesen Arbeitsplätzen waren sehr ungleich verteilt: Nur ein kleiner Teil der Haushalte profitierte tatsächlich.
Der Gini-Index zur Einkommensungleichheit in den Vereinigten Staaten stieg beispielsweise von 0,45 im Jahr 1971 auf 0,59 im Jahr 2023. Ein solches Niveau war zuletzt vor dem Zweiten Weltkrieg erreicht worden.
»Das nordamerikanische und das europäische Modell war weitgehend losgelöst von den Orten, an denen ein großer Teil der Gewinne erarbeitet wurde – nämlich den Fabriken in China oder den Textilbetrieben in Bangladesch.«
In Nordamerika profitierte somit die oberste Schicht der Arbeiterschaft am meisten von der Globalisierung. In Europa wurde die entstehende Kluft durch eine höhere Besteuerung etwas abgefedert; ein Teil der Gewinne der neuen Mittelschicht wurde über die Überreste des Sozialstaates an eine breitere Schicht unter ihnen umverteilt. Davon abgesehen waren jedoch sowohl das nordamerikanische als auch das europäische Modell weitgehend losgelöst von den Orten, an denen ein großer Teil der Gewinne tatsächlich erarbeitet wurde – nämlich in den Fabriken Chinas und Mexikos oder den Textilbetrieben Bangladeschs und Vietnams.
...
https://jacobin.de/artikel/wissensar...strialisierung
ABT 2
Aufstieg und Niedergang der Wissensarbeit Teil B
Zitat:
Der Aufstieg der KI
In den letzten Jahren jedoch verspüren selbst die wenigen Arbeiterinnen und Arbeiter, die von der globalisierten Wirtschaft profitieren konnten, zunehmend Druck. Der Aufstieg der generativen KI und die weit verbreitete Angst vor ihren Auswirkungen lassen sich vor diesem Hintergrund verstehen. Seit der Einführung von ChatGPT im November 2022 wird immer deutlicher, dass unzählige Formen derartiger Arbeit – Grafikdesign, Texterstellung, Programmierung – schnell derselben Logik von Disziplinierung und Austauschbarkeit unterworfen werden könnten, die einst in Fabriken vorherrschte.
Generative KI wurde von viel ungerechtfertigtem Hype begleitet (und die Technologie ist in der Tat noch weit davon entfernt, perfekt zu sein). Dennoch verbessert sich ihre Fähigkeit, Computercode zu schreiben oder Produktdesigns und Marketingbilder zu generieren, rasant. Es ist daher nicht (mehr) völlig abwegig, zu dem Schluss zu kommen, dass ein Prozess der Proletarisierung allmählich auch Formen der Informations- und Kreativarbeit erreichen könnte, die bisher von solchen Veränderungen verschont geblieben waren.
»In Bereichen wie Marketing, Content-Erstellung und Werbung sind KI-Modelle in der Lage, einen großen Teil der Aufgaben zu übernehmen. Ob sie dies ›gut‹ tun, ist dabei vollkommen nebensächlich.«
Wir mögen futuristische Vorstellungen von einer künstlichen allgemeinen Intelligenz (einer KI, die die menschliche Intelligenz übertreffen könnte) oder großspurige Ankündigungen einer vierten industriellen Revolution für nicht realistisch halten. Doch selbst in ihrer derzeitigen Form sind generative KI-Modelle zumindest in der Lage, Kapitalisten dabei zu unterstützen, einer breiten Schicht von Wissensarbeitern eine gewisse Lohndisziplin aufzuerlegen.
Ihre Fähigkeit, große Textmengen effizient zu durchsuchen und zu verarbeiten, stellt eine besondere Bedrohung für Berufe dar, die sich mit der Suche nach sowie dem Kuratieren und Organisieren/Zugänglichmachen von Wissen befassen. Diese Modelle wurden auch eingesetzt, um bestimmte Aspekte der Softwareentwicklung und Computerprogrammierung zu automatisieren. Dies führt zu einem »De-Skilling« von Programmierern und zu einer Verringerung ihres einstigen Einflusses. Ein generatives Sprachmodell kann beispielsweise innerhalb von ein bis zwei Stunden den größten Teil des Code-Gerüsts erstellen, das für einen brauchbaren Prototyp einer Website oder mobilen App erforderlich ist – eine Arbeit, für die eine durchschnittliche Softwareentwicklerin normalerweise mehrere Tage benötigen würde. In Bereichen wie Marketing, Content-Erstellung und Werbung sind generative KI-Modelle in der Lage, einen großen Teil der Aufgaben von Menschen zu übernehmen. Ob sie dies »gut« tun, ist dabei vollkommen nebensächlich: Marktakteure dürften nicht davor zurückschrecken, minderwertigen »KI-Slop« als neuen Standard zu akzeptieren.
Die Tech-Aristokratie verschwindet
Das Buch Empire der Philosophen Michael Hardt und Antonio Negri löste zur Jahrtausendwende ein erneutes Interesse an einer Strömung der Arbeitsanalyse aus, die seit den 1970er Jahren vor allem unter italienischen Marxisten populär war. Diese sogenannten post-operaistischen Denker – darunter Maurizio Lazzarato, Paolo Virno und Negri selbst – argumentierten, die informativen, kulturellen und kommunikativen Formen der neuen, vernetzten Arbeit seien weniger messbar und daher weniger anfällig für die Einbindung in Disziplinierungs- und Kommodifizierungskreisläufe.
In sogenannter immaterieller und kognitiver Arbeit sahen sie daher einen Keim für Autonomie, Kooperation und Potenzial für postkapitalistische Produktionsformen. Mit anderen Worten: eine Art Befreiung von ausbeuterischer Arbeit an sich.
Rückblickend betrachtet war diese Vorstellung letztlich eher realitätsfern, wenn man bedenkt, wie sich derartige »immaterielle« Arbeitsweisen letztendlich gestaltet haben. Wie bei anderen aktuellen Entwicklungen in diversen Bereichen der Wissensarbeit – beispielsweise der agilen Softwareentwicklung oder der datenbasierten Erstellung von Inhalten – dient generative KI dazu, die alte Logik der Fabrik auf eben diese scheinbar autonomen Arbeitsformen auszuweiten:
Sie standardisiert sie und erleichtert so die Disziplinierung der Arbeiterinnen und Arbeiter.
Ein Grafikdesigner kann heute beispielsweise von seiner Chefin angewiesen werden, ein 3D-Modell innerhalb einer Stunde statt innerhalb eines Tages zu liefern. Schließlich könne er doch Midjourney oder ein ähnliches KI-Assistenztool nutzen. Heute schrumpft das kapitalistische Netzwerk in gewisser Weise zusammen:
Das Geflecht, das die Mikrochip-Produzenten in den Fabriken von Shenzhen mit den Genius-Bar-Angestellten in Berlin und den Tech-Arbeitern in den Apple-Büros in Kalifornien verbindet, wird immer einheitlicher.
Zwar ist die Position der Low-End- und High-End-Arbeiterschaft gegenüber dem Kapital sehr unterschiedlich, doch teilen sie eine Gemeinsamkeit: Es geht für sie zunehmend abwärts.
Es ist bezeichnend für den heutigen Tech-Sektor, dass die Beschäftigungsquote von Computerprogrammierern in den USA auf den niedrigsten Stand seit den 1980er Jahren gesunken ist. Das erzeugt Druck und hat die Verhandlungsmacht der Arbeiter sichtbar geschwächt. Und das nicht nur in Bezug auf Löhne: 2018 gelang es Google-Angestellten noch, die Zusammenarbeit des Unternehmens mit dem US-Militär im Rahmen von Project Maven zu stoppen. Im vergangenen Jahr hingegen erhielten mehr als fünfzig Personen Kündigungen, nachdem sie gegen die Beteiligung von Google am Völkermord in Gaza protestiert hatten. Die Aristokratie der Wissensgesellschaft, die einst ihre Arbeitsbedingungen geradezu frei aushandeln konnte, verliert langsam an Macht und Spielraum.
Es ist heute wichtiger denn je, dass wir gegen die Zersplitterung der Arbeiterschaft in den globalen Lieferketten kämpfen. Angesichts der zunehmenden Abschottung des Kapitalismus im Globalen Norden und seiner Wende nach innen wird es noch wichtiger, den Blick nach außen zu richten. Es gilt, Allianzen und Solidarität mit Angestellten in Rechenzentren, Textilfabriken, Plattformbüros, Kobaltminen und generell mit all jenen zu pflegen, die in die niederen Gefilde, in die Schattenwelt des globalen Kapitalismus, abgedrängt werden. Das Kapital ist heute ein weitaus mächtigerer Gegner als noch vor einem halben Jahrhundert. Wenn wir eine erfolgreiche Arbeiterbewegung schaffen wollen, ist es entscheidend, dass wir bewusst und entschlossen Solidarität aufbauen und uns an jedem Knotenpunkt des kapitalistischen Netzes organisieren.
Mostafa Abdou
ist Postdoktorand an der Princeton University. Er beschäftigt sich mit Sprache, kognitiven Prozessen und den soziokulturellen Auswirkungen der Algorithmisierung. Er ist Teil der Redaktion des Magazins »Disjunctions«.
Vinit Ravishankar
ist Forscher und Redakteur. Er beschäftigt sich mit der politischen Ökonomie von KI und ist Teil der Redaktion von »Left Berlin« sowie des Magazins »Disjunctions«.
https://jacobin.de/artikel/wissensar...strialisierung
abt 3
Zitat:
absatzwirtschaft / 01.08.2024 / ki im marketing / nachhaltigkeit im marketing / transformation von thomas riedel
das ende ist nah! Warum der ki-hype enden muss
“einen hype zu verpassen ist schlimmer, als von einem hype verarscht zu werden.” so spitzte ki-forscher gary marcus unseren umgang mit hypes jüngst zu. Er sieht den ki-hype bald zerbröseln. Und da ist er nicht der einzige.
ungewisse bewertungen und uneindeutige prognosen sind genau das material, aus denen gute hypes bestehen. So verhält es sich auch aktuell mit den chancen und gefahren generativer ki. Dieser moment sei so wichtig wie der, als der mensch lernte, das feuer zu zähmen. Oder: Die vernichtung der menschheit steht kurz bevor.
Während stimmungsbarometer wie google trends noch keine schwäche des ki-hypes erkennen lassen – was wir aktuell sehen, sei ein rückgang der anfragen aufgrund der ferienzeit – sehen medien und experten das ende nahen. So titelt das “wall street journal”:
„die ai-revolution verliert bereits an fahrt“.
und im guardian faste john naughton, professor der open university, die ökonomische lage so zusammen:
„vom boom zum platzen: Die ki-blase kennt nur eine richtung.“
google, ein fall für den internetfriedhof?
beide artikel stehen mittlerweile für eine vielzahl an artikeln, die den aufmerksamen lesern nicht entgangen sein dürften. In ihnen werden unter anderem vorhersagen, die zum anfang der ki-rallye getroffen wurden, widerlegt. Googles suchmaschine geht es, obwohl es mittlerweile chatgpt 4.0 gibt, so prächtig wie noch nie zuvor. Das googeln wurde zu beginn des hypes schon auf den internetfriedhof gelegt. Zu unrecht. Zur keynote auf der hauseigenen entwicklermesse benutzten die google-verantwortlichen das wort „ai“ gleich 140 mal. Nach der vorstellung dessen, wie google ki in seine produkte integriert, ist der aktienkurs des unternehmens um 8 prozentpunkte gestiegen.
Microsoft hingegen, der mutmaßliche nutznießer und größte investor der chatgpt-firma openai, hat zu knabbern. Ihre suchmaschine bing konnte keinen boden gegenüber google gutmachen. Zudem haben microsofts ki-produkte probleme, sich durchzusetzen:
nach nur drei monaten stellte das unternehmen sein tool gpt builder ein.
und die neuen surface-pcs, die mit dem recall-feature ausgeliefert werden sollten, erlebten ein pr-desaster. Denn eben dieses feature entpuppte sich als datenschutz-supergau: Screenshots, die das programm während des arbeitstages auf die festplatte ablegt, um sie später analysieren zu können, sind frei für alle lesbar, sobald sich jemand zugang zur festplatte verschafft hat. Das passt zu den aussagen des openai-ceos sam altman, der jüngst in einem podcast behauptete, eine allgemeine künstliche intelligenz zu entwickeln, sei ohne datenschutzverletzungen nicht möglich.
Es war nur das sahnehäubchen rund um das gebaren und zanken im aufsichtsrat von openai. Da wünscht man sich schon fast das ende des hypes herbei. Während microsoft-ceo satya nadella noch die ruhe bewahrt, haben manche senior ai developer schon die nase gestrichen voll. Wie der wirtschaftspublizist gunnar sohn zusammengetragen hat, gebe es einen erheblichen brain-drain. bekanntestes beispiel: Johannes brandstetter, der von microsoft research an die universität linz wechselte, um dort ki-basierte simulationen zu lehren.
programmieren mit chatgpt braucht immer noch menschen
um zu verstehen, wie es um den ki-hype steht, lohnt es sich, auf die „revolutionären“ produkte zu schauen, die mithilfe von ki entwickelt wurden. Als eine der stärken gilt dabei der einsatz von chatgpt beim programmieren. Etwas, dass auch gerne gegenstand wissenschaftlicher untersuchungen ist. Der berufsverband der entwickler, eine gruppe schwedischer forscher und die purdue university haben unabhängig voneinander den einsatz von sprachassistenten für den entwicklungsprozess untersucht. Als gemischte ergebnisse könnte man die schlüsse ihrer arbeiten zusammenfassen. Vor allem aber meilenweit von der revolution entfernt, die proklamiert wurde. Denn auch wenn der einsatz von chatgpt durchweg nützliche ergebnisse lieferte, schwankte diese leistung je nach programmiersprache erheblich.
die größte schwäche:
es fehlt die übersicht, was dazu führt, dass zwar schneller code geschrieben werden kann. Das drückt sich allerdings später in technischen schulden aus, für die die entwickler dann wieder mehr zeit benötigen, um sie zu beseitigen. Am ende also beinahe ein nullsummenspiel. Der richtige einsatz, so kommen die forschenden zum schluss, benötigt vor allem einen erfahrenen programmierer. Der beruf ist also weit davon entfernt, obsolet zu werden.
Ein wenig begeisterter sieht es susan anderson, die trotz gemischter ergebnisse hoffnungsvoll bleibt. Die human-ressources-expertin aus dem silicon valley hat in einem experiment versucht, menschliche aufgaben im recruiting komplett durch chatgpt zu ersetzen. Ihre anfängliche skepsis gegenüber der ki konnte sie damit zwar abbauen. Aber auch sie sieht den menschen als essenzielle arbeitskraft in der personalabteilung erhalten.
die argumente der kritiker von ki
ein anderer ansatz, den ki-hype zu verstehen, ist der, auf die argumente jener zu schauen, die den hype kritisieren. Da spricht der us-tech-journalist brian in anlehnung an den scharlatan georg schröpfer von „smoke and mirrors“. Für den professor der neurowissenschaften und psychologie gary marcus sei der aktuelle ki-hype wie alchemie vor der entdeckung des periodensystems.
Man mixe die elemente zusammen und verspreche, dass dabei gold herauskommt.
Der technologiestratege und ehemaliger leiter des mixed reality labs bei microsoft dirk songür bescheinigt der ki-industrie einen schwerwiegenden mangel an situationsbewusstsein und macht folgende rechnung dafür auf: Um gpt-3 zu berechnen, brauche es etwa 1300 megawattstunden, was in etwa dem jahresverbrauch von 130 us-haushalten entspricht. Um gpt-4 zu berechnen, benötigte openai bereits 50-mal mehr, nämlich gute 55.000 megawattstunden.
das problem dabei:
die qualitative verbesserung entspricht nicht dem aufwand an energie, wasser und grafikkarten, die dafür investiert werden müssen. Für die entwicklung einer allgemeinen künstlichen intelligenz (agi), wie sie openai zum beispiel anstrebt, wäre eine unfassbare menge an energie nötig. Abgesehen davon führen einige ki-experten an, dass eine agi mit der aktuellen technik der large language models sowieso nicht möglich sei.
Die ki-industrie besorgt sich aufgrund des drastisch gestiegenen energieverbrauchs den strom mittlerweile direkt bei den atomkraftwerken. Bill gates geht sogar so weit, die entwicklung eines mini-akws zu finanzieren. Um seine ki weiter entwickeln zu können, kündigt google sogar sein versprechen auf, co2-neutral zu arbeiten. Googles energiehunger ist in den vergangenen jahren um 48 prozent gestiegen. Microsofts plan, bis 2030 co2-negativ zu sein, wurde aufgrund seines gesteigerten energiehungers um 30 prozent ebenso fallengelassen. Zur wiedergutmachung werden umweltzertifikate gekauft, gerne auch von 1pointfive, das zum öl- und gaskonzern occidental petroleum gehört.
Dieser gewaltige energiehunger will finanziert werden.
david cahn, analyst bei der risikokapitalgesellschaft sequoia capital, berechnet die einnahmen, die benötigt werden, auf 600 milliarden us-dollar.
goldman sachs stellt die wirtschaftlichkeit insgesamt infrage. Diese “energie-bulimie“, wie es der physiker und naturphilosoph harald lesch nennen würde, stößt also auch an seine grenzen. Selbst wenn wir mehr daten und mehr energie hätten, käme keine allgemeine künstliche intelligenz dabei heraus. Die konsequenzen für die umwelt wären indes drastisch.
immense wirtschaftliche und ökologische kosten
technisch gesehen haben wir den scheitelpunkt also bereits erreicht. Was heute generative ki kann, verursacht bereits immense wirtschaftliche als auch ökologische kosten, die noch nicht auf die produkte umgelegt wurden, die wir heute nutzen.
was also bleibt vom ki-hype, würde er heute enden?
eine gesteigerte produktivität von 0,5 bis 1 prozent, so schätzt es mit-professor daron acemoglu für die usa und produkte, die einigermaßen hilfreich sind, wenn man sie einzusetzen weiß. aber, und das wird gerne unterschätzt, die in zukunft aufgrund der drastischen kosten bedeutend teurer werden müssen, wenn sie sich für google, microsoft & co. Lohnen sollen. Und eigentlich müssten die ökologischen kosten da noch mit drauf gerechnet werden.
Eine bedeutende aufgabe bleibt den regulatoren aus dem ki-hype:
wie kann man den raum für ökonomische und technologische innovation öffnen, ohne dabei unendlich viel energie zu benötigen?
https://www.absatzwirtschaft.de/das-...n-muss-260130/
Dax bastelt weiter an einem großen rounding top. Jahresendrallye, so sie denn kommt, sollte man für den ein oder anderen Put nutzen...
ABT 4
Wer sich ueber die Bruttokreditaufnahme, Tilgung und Zinsen der BRD im Zeitraum von 1995-2024 informieren will, kann das ueber die nachfolgende Infografik und Statistik der Deutschen Finanzagentur machen:
https://politikforen-hpf.net/fotos/u...m 06.50.32.png
https://politikforen-hpf.net/fotos/u...m 06.57.24.png
Die Schuldenstatistik inkl. Bruttokreditaufnahme, Tilgungen und Zinsen als Download
DOWNLOAD (XLSX)
ABT 5
Die Macht der (juedischen) Finanzkonzerne
Nach einer Studie von James Glattfelder, Stefano Battiston und Stefania Vitali der Eidgenoessischen Technischen Hochschule (ETH) in Zuerich aus dem Jahr 2011 beherrschten 1318 Konzerne von 43.060 international taetigen Unternehmen 80% der Weltwirtschaft.
Jedes der 1318 Unternehmen haelt durch Aktien an mindestens 20 anderen Großkonzernen Anteile. Die ersten 147 Topkonzerne beherrschen 40% der Weltwirtschaft, weil es ihnen auch gegen den Widerstand anderer gelingt, ihren Willen durchzusetzen.
Die maechtigsten 35 Konzerne haben bereits eine Kontrolle ueber 35% der Weltwirtschaft. Darunter sind:
• Barclays (Großbritannien)
• Capital Group (USA)
• Fidelity (USA)
• Axa (Frankreich)
• Legal & General (USA)
• JP Morgan Case (USA)
• State Street (USA)
• Vanguard (USA)
• Merill Lnych (USA)
• Deutsche Bank (Deutschland)
• Natixis (Frankreich)
• Goldman Sachs (USA)
• Allianz (Deutschland)
Die besonders reichbachgierige juedische Investmentbank Goldman Sachs nimmt dabei eine Sonderstellung ein und kann auf Basis eines alten Vertrages noch bis zum Jahr 2036 von der deutschen Bad Bank FMS Wertmanagement (FMSW) bis zu fuenf Milliarden Dollar leihen – zu extrem guenstigen Konditionen. Goldman-Sachs zahlt dafuer einen Minimalzins von 0,1 Prozentpunkten ueber dem Referenzzinssatz Libor – derzeit also insgesamt rund 0,3 Prozent. Allein durch das Weiterverleihen zu Marktbedingungen kann Goldman-Sachs ueber die Kreditlinie derzeit rund 150 Millionen Dollar Zinsreichbach pro Jahr erwirtschaften.
Das Risiko traegt der deutsche Steuerzahler, der fuer moegliche Verluste aufkommen muss. Die FMSW wickelt die Altlasten der verstaatlichten Hypo Real Estate und deren irischer Tochter Depfa ab. Die Finanzierungslinie wurde 2006 von der Depfa vereinbart und laeuft ueber einen sogenannten Total Return Swap.
Zitat:
WELT / 25.10.2011 von Florian Hasel
MACHT DER GROSSKONZERNE
Diese Firmen bestimmen Schicksal der Weltwirtschaft
1300 Unternehmen kontrollieren vier Fünftel der Weltwirtschaft. Noch dominieren privatwirtschaftliche Konzerne, doch staatlich gelenkte Firmen gewinnen an Einfluss. Es war keine triviale Aufgabe, die sich James Glattfelder, Stefano Battiston und Stefania Vitali von der Eidgenössischen Technischen Hochschule (ETH) in Zürich stellten. Die Forscher wollten konkrete Zahlen für eine weit verbreitete Annahme liefern:
Dass transnationale, also nationale Grenzen überschreitende Konzerne eng miteinander verflochten sind und die Weltwirtschaft dominieren.
Zu diesem Zweck nutzten der gelernte Physiker Glattfelder und seine Kollegen die Datenbank Orbis: In der sammeln Statistiker der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) Daten von 44 Mio. Firmen und Unternehmern weltweit. Die Schweizer Forscher nutzten die Datenbank vom Stand 2007, mit Daten zu damals 37 Mio. Akteuren.
Anders als etwa die am Umsatz orientierte Global-500-Rangliste des US-Wirtschaftsmagazins Fortune untersuchten die Züricher Forscher, welchen Großunternehmen wie viele Anteile an anderen Firmen gehören.
Dabei gingen sie von der Definition des Soziologen Max Weber aus, was Macht bedeutet:
die Wahrscheinlichkeit, dass ein Individuum – in der Wirtschaft ein Unternehmen – seinen Willen auch gegen den Widerstand anderer Beteiligter durchsetzen kann.
Das in einem ersten Aufsatz („The Network of Global Corporate Control“) präsentierte Ergebnis der Zürcher Forscher: Von 43.060 Konzernen dominieren 1318 Firmen vier Fünftel der am Umsatz gemessenen Weltwirtschaft: mit ihrem eigenem Umsatz und über von ihnen gehaltene Aktienpakete an durchschnittlich 20 anderen Großkonzernen. Die Elite der Elite besteht aus 147 Firmen, die nicht nur über ihr eigenes Schicksal entscheiden, sondern über rund 40 Prozent der Weltwirtschaft.
Die Top 50 werden vom britischen Finanzkonzern Barclays angeführt. Auch sonst finden sich hier viele Finanzfirmen: der französische Axa-Konzern, die Schweizer Großbank UBS, die Wall Street-Giganten Merrill Lynch und Goldman Sachs oder die Deutsche Bank (Platz 12) und der Allianz-Konzern (Platz 28), aber auch öffentlich weithin Unbekannte wie die US-Beteiligungsgesellschaft Capital Group (Platz 2).
Die Konzerne sind nicht nur durch Beteiligungen verbunden, sondern oft auch durch Kredite, Kreditausfallversicherungen (CDS) und andere, oft hoch spekulative Finanzinstrumente. Enge Verbindungen und Absprachen und Kartelle behindern nicht nur Konkurrenz und Innovation. Die engen Maschen des Konzern-Netzwerkes steigern auch weltweit das Ansteckungsrisiko im wirtschaftlichen Krisenfall, weil Firmen „in schlechten Zeiten gleichzeitig Probleme bekommen“, so die ETH-Forscher.
Schon hat die Realität die Forscher bestätigt. Unter den von ihnen für 2007 festgestellten Top 50 der vernetzten Konzerne taucht auch die Investmentbank Lehmann Brothers (auf Platz 34) auf, deren Zusammenbruch im Herbst 2008 zum offiziellen Startschuss der weltweiten Wirtschaftskrise wurde. Von der Schweizer UBS über Société Générale aus Frankreich und die Lloyds-Gruppe oder Ranglistenführer Barclays aus England wimmelt es vor Firmen, die von ihrer Regierungen übernommen oder garantiert wurden, dank Kapitalspritzen ausländischer Investoren überlebten (Barclays durch Geld der Herrscherfamilien des Golfemirats Abu Dhabi) oder immer noch wegen ihrer Milliardenengagements in verschuldeten Ländern zittern – etwa Societé Générale wegen milliardenschweren Griechenland-Engagements.
Die Macht der Finanzkonzerne ist ungebrochen
Die weitergehende Frage, wie verbundene Großkonzerne sich durch Abstimmungen, Personalentscheidungen und Geschäfte konkret kontrollieren, könnte ein ganzes Heer von Forschern beschäftigen. Fest steht, dass die Macht der Finanzkonzerne – im Kontrollranking weit über ihren Umsatz und volkswirtschaftliche Leistung hinaus vertreten – ungebrochen ist. Dies liegt vor allem auch an ihrer in der Rangliste nicht erfassten Verflechtung mit der Politik.
In den USA schafften es vor allem ehemalige Mitarbeiter von Goldman Sachs in der US-Regierung und Parlament und Wall Street-Lobbyisten, eine echte Kontrolle des Finanzsektors zu verhindern: etwa eine von Reformern wie Ex-Notenbankchef Paul Volcker geforderte Zwangstrennung von normalem Bankgeschäft und hoch spekulativem und risikoreichem Investmentbanking oder ein Verbot unregulierten Derivate-Handels. Auch in England, der Schweiz oder Deutschland ist hier bisher wenig geschehen.
Konzerne entziehen sich durch Verlagerung der Steuerpflicht
Ungebrochen ist auch die Macht der Konzerne, sich der Steuerpflicht in ihrer Heimat durch trickreiche Verlagerung oder Verrechnung von Gewinnen im Ausland zu entziehen. Trauriger Spitzenreiter sind die USA:
Dort sorgten Unternehmen in den 50er Jahren noch für 30 Prozent der Staatseinnahmen – 2009 waren es nur noch 6,6 Prozent. 2010 schaffte es der New York Times zufolge das größte Unternehmen des Landes, der Konzern General Electric, auf einen US-Gewinn von gut fünf Milliarden Dollar keinerlei Steuern zu zahlen, sondern durch Vergünstigungen noch gut drei Milliarden Dollar gutgeschrieben zu bekommen – das Ergebnis umfangreicher Lobbyarbeit der firmeneigenen Steuerabteilung: In der sitzen Ex-Beamte des Finanzministeriums ebenso wie der Steuerbehörde und aller wichtigen Parlamentsausschüsse.
In der Schweizer-Macht-Rangliste kommen mit einer Ausnahme (der China Petrochemical Group auf Platz 50) alle Top 50-Konzerne aus den USA, Europa und Japan. Sollte das Zürcher Autorentrio ihre Rangliste aktualisieren, dürfte das Ergebnis deutlich anders ausfallen. Schon haben sich auf der aktuellen Global 500-Liste die chinesischen Staatskonzerne Sinopec und China National Petroleum auf Platz 5 und 6 der weltweit umsatzstärksten Firmen vorgeschoben.
Chinas Firmen kaufen weltweit ebenso Beteiligungen wie aufstrebende Unternehmen aus Brasilien oder Indien, Russland oder Saudi-Arabien. Das Kriterium staatlicher Kontrolle über eine Firma spielt in der Schweizer Rangliste keine Rolle. Schon in einigen Jahren dürften die Top 50, die heute aus privatwirtschaftlichen Großkonzernen und Finanzfirmen bestehen, von Staatsfirmen Konkurrenz bekommen.
https://www.welt.de/wirtschaft/artic...irtschaft.html
Zitat:
Markt Einblicke / 08.08.2022
Das sind die 25 grössten Banken
https://politikforen-hpf.net/fotos/u...enBanken-1.jpg
https://markteinblicke.de/89560/2022...essten-banken/