Russland, China, Iran – und ein Start-up aus San Francisco. Das Pentagon führt eine Liste von Unternehmen, die seiner Ansicht nach eine Bedrohung für seine Lieferkette und eine Bedrohung für die nationale Sicherheit darstellen. Diese Liste enthält feindliche Staaten. Bald könnte es auch Anthropic geben, ein KI-Unternehmen mit Sitz in Kalifornien, dessen Verbrechen darin besteht, zwei Bedingungen durchzusetzen: keine Massenüberwachung von US-Bürgern, keine vollständig autonomen Waffen.
Hinterlassen Sie eine Anzeige
Man muss diesen Satz zweimal lesen, um zu verstehen, worum es hier geht: Anthropic, das Unternehmen hinter der KI-Modell-Cloud, ist derzeit der einzige Anbieter, dessen Technologie auf den geheimen Netzwerken des US-Militärs läuft. Vor einem Jahr unterzeichneten sie freudig einen Vertrag über 200 Millionen Dollar. Doch während das Pentagon nun verlangt, dass die Cloud ohne Einschränkungen für „alle legitimen Zwecke“ genutzt werden dürfe – einschließlich allem, was nicht ausdrücklich verboten ist – zog Anthropic zwei rote Linien, die gewährt werden könnten. Das Pentagon sieht das anders. Ein hochrangiger Beamter des Verteidigungsministeriums sagte den US-Medien Axios, dass man dafür sorgen werde, dass Anthropic „den Preis zahlt“.
Drei weitere große KI-Unternehmen – OpenAI, Google und Elon Musks xAI – haben bereits geliefert. Sie haben ihre Sicherheitsvorkehrungen für das Militär gelockert, ihre Modelle für den Geheimbereich zugänglich gemacht und zumindest xAI hat mehreren US-Medienberichten zufolge dem Pentagon uneingeschränkten Einsatz auf allen Ebenen zugesagt. Den Bossen der Tech-Giganten, die sich noch vor einigen Jahren als Verteidiger der digitalen Demokratie präsentierten, fehlt derzeit jegliches gesellschaftspolitisches Rückgrat. Sie sind an etwas anderem als der Zukunft der Menschheit interessiert: an ihren Gewinnen und an einer lockeren Beziehung zu einer Regierung, deren nächste Regulierungsentscheidung ihr Geschäftsmodell bestimmen könnte.
blinder Fleck
Nun könnte man argumentieren, dass die Welt im Moment eigentlich andere Sorgen hat. Trump reißt Koalitionen auseinander, schiebt Menschen illegal ab, verstößt gegen Gerichtsbeschlüsse und demontiert Institutionen in einem Tempo, das die Geheimdienste an ihre Grenzen bringt. Jeden Tag ein neuer Umbruch, ein neuer Skandal, ein neuer Verfassungsbruch. Die Empörung über ICE, Epstein, Grönland und die Ukraine dominiert die Schlagzeilen und erregt kollektive Aufmerksamkeit. Es ist verständlich. Aber es ist auch gefährlich.
Denn gerade passiert etwas, das vielleicht kaum in die Schlagzeilen gerät, die Welt aber nachhaltiger verändern dürfte als jeder Handelsstreit: Der Einsatz künstlicher Intelligenz gerät in den USA völlig außer Kontrolle. Nicht, weil Trump die KI aktiv vorantreibt – er versteht die Technologie und ihre Auswirkungen wahrscheinlich nicht. Aber weil er kein Interesse daran hat, es zu regulieren. Es ist ein perfekter Sturm: Technologie entwickelt sich schneller als je zuvor, kapitalreiche Industrie, ein Präsident, der wegschaut – und eine Öffentlichkeit, die mit so vielen Krisen gleichzeitig konfrontiert ist, dass für die vielleicht folgenschwerste keine Kapazität mehr vorhanden ist. Während eines Großbrandes baut er unbemerkt in der Garage nebenan eine Atombombe.
Die Maschine, die zurückschlägt
Vor ein paar Tagen erlebte ein Mann namens Scott Shambaugh etwas, das wie eine unkontrollierbare KI aussah. American ist Ingenieur und ehrenamtlicher Betreuer von „matplotlib“, einer Softwarebibliothek, die jeden Monat millionenfach heruntergeladen wird. Es ist eine der am weitesten verbreiteten Softwarekomponenten der Welt, und wie viele Open-Source-Projekte hat Matplotlib eine Regel eingeführt, die Bände spricht: Alle Einsendungen müssen von Menschen stammen, da die Menge an fehlerhaftem KI-generiertem Code begann, die Projekte zu überschwemmen.
Als ein autonomer KI-Agent namens „MJ Rathbun“ einen Beitrag einreichte, lehnte Shambaugh ihn routinemäßig ab. Was dann geschah, wird als Wendepunkt bezeichnet.
Der Agent – die OpenCL-Plattform des Österreichers Peter Steinberger, die es KI-Systemen ermöglicht, im Internet mit einem beispiellosen Grad an Autonomie zu agieren, auf der sie schließlich aufbaute – reagierte nicht mit einer geänderten Eingabe. Er recherchierte Shambaughs persönlichen Hintergrund, entdeckte seine Codebeiträge, erstellte eine Erzählung über angebliche Motive und veröffentlichte einen Blogartikel, in dem er Shambaugh Voreingenommenheit, Zwangskontrolle und Angst vor Konkurrenz vorwarf. Es handelte sich um einen gezielten, autonomen Rufmordversuch – ausgeführt von einer Maschine, die niemand identifizieren konnte.
Steinbergers Agentensystem explodierte im Januar buchstäblich, eineinhalb Millionen Agenten wurden erstellt und kurz darauf ließ Sam Altman Steinberger zugunsten von OpenAI fallen. In einem Interview erklärte Steinberger, dass er in die USA gezogen sei, weil ihn die europäischen Vorschriften „ausbremsten“: „Die Menschen in den USA sind begeistert, in Europa fordern alle Regulierung und Rechenschaftspflicht.“ Die Ironie dieses Satzes kann kaum überbewertet werden.
Was dann geschah, ist vielleicht erschreckender als der Angriff selbst: Ein Viertel der Online-Kritiker stimmten dem KI-Agenten zu. Das Argument war emotional genug, die Sprache einfach genug, um die Menschen davon zu überzeugen, dass KI moralisch richtig war. Und als das Technikmagazin Ars Technica über den Fall berichtete, enthielt der Artikel falsche Zitate, die angeblich aus Shambaughs Blogbeitrag stammen sollten. Ein Redakteur hat ChatGPT gebeten, Kernbotschaften zusammenzufassen. AI zitiert stattdessen Wahnvorstellungen, die Shambaugh nie geschrieben hat, und Ars Technica veröffentlicht sie als Tatsachen. Der Artikel wurde zurückgezogen. Aber es existierte.
Eine KI hat einen Menschen angegriffen. Eine andere KI hat den Bericht darüber verfälscht. Und die betreffende Person war allein. Man sollte sich diese Kaskade als Prototyp der jetzigen vorstellen, die vor langer Zeit begann.
Das Ende der Architektur
Dieser Fall ist kein Ausreißer, sondern ein Merkmal. Das Internet, wie wir es kennen, löst sich auf. Zwei Jahrzehnte lang war das Internet ein Marktplatz, den wir selbst betreten haben: Wir haben gesucht, gescrollt, geklickt. Medien, Geschäfte und Behörden standen in direktem Kontakt zu uns. Doch diese Architektur verändert sich ebenso grundlegend wie einst der Übergang vom Schreiben zum Drucken. Ein Agent ersetzt einen Menschen – eine KI, die in unserem Auftrag handelt, recherchiert, analysiert und Entscheidungen trifft. Wir bewegen uns nicht durch das Netzwerk, aber das Netzwerk dreht sich um uns.
Der KI-Verkehr im Internet hat sich allein zwischen Anfang und Mitte 2025 vervierfacht, während die Zahl der tatsächlichen Website-Besucher deutlich zurückgegangen ist. Die längste Suchmaschine im Internet hat möglicherweise ihren Höhepunkt überschritten. Systeme reagieren direkt, nicht mit Empfehlungen, sondern mit Ergebnissen. Und Agenten wie Scott Shambaugh stehen an der Spitze von Entwicklungen, bei denen Maschinen nicht nur konsumieren, sondern auch agieren: Inhalte erstellen, mit Menschen interagieren, Entscheidungen treffen – ohne menschliche Aufsicht.
Die Folgen reichen über die Medienbranche hinaus. Wenn KI-Agenten den Einkauf für uns erledigen, werden Preisvergleichsportale obsolet. Wenn Sie die Bewerbung filtern, verändert sich die Arbeitswelt. Wenn man Versicherungen analysiert und Verträge bewertet, verliert die Doktrin der Offenlegung ihre Gültigkeit. Die Währung des alten Internets – Aufmerksamkeit – wird durch algorithmischen Nutzen ersetzt. Und die Frage, wer die Agenten kontrolliert, wird zur Machtfrage unserer Zeit.
Umarmen Sie den Kurs
Eine US-Regierung agiert in einer Welt, die nicht reguliert, sondern beschleunigt. Das Pentagon veröffentlichte im Januar seine KI-Beschleunigungsstrategie, die aggressivste seit Jahren: KI wird in alle Bereiche der Kriegsführung integriert, von autonomen Drohnenschwärmen bis hin zur Schlachtfeldanalyse. Die Technologiebranche könnte Widerstand leisten. Das tut sie nicht. Dieselben Unternehmen, deren Mitarbeiter sich 2018 gegen Googles Drohnenprojekt „Maven“ auflehnten, liefern nun kommentarlos ihre Modelle an das Militär. Sam Altman von OpenAI, Sundar Pichai von Google, Elon Musk – sie alle haben eines gemeinsam: Sie brauchen Trumps Wohlwollen für ihre Unternehmen und sind bereit, den Preis zu zahlen, den die Gesellschaft zahlen muss. Anthropic ist das einzige Unternehmen, das diesem Druck standhalten kann. Trotzdem.
Doch der Widerstand von Anthropic ist auch subtiler, als die Schlagzeilen vermuten lassen. Das Unternehmen will weiterhin mit dem Militär zusammenarbeiten und nennt den Pentagon-Deal ein „neues Kapitel“. Einigen Medien zufolge wurde Cloud bei einer Operation zur Gefangennahme des venezolanischen Präsidenten Maduro eingesetzt. Die roten Linien betreffen zwei konkrete Bereiche, keine grundsätzliche Ablehnung der Zusammenarbeit. Es ist kein Heldenepos, aber es ist mehr als das, was der Rest zu bieten hat.
Was sollte Europa tun?
In den USA formiert sich Widerstand außerhalb der Tech-Branche. Scott Galloway, Professor und einer der lautesten Kritiker des Silicon Valley, hat eine Kampagne namens „Resist and Unsubscribe“ gestartet, die sich auf die einzige Sprache stützt, die Trump versteht: Geld. Gezielte Verbraucherstreiks gegen Technologieunternehmen. Galloways Logik ist täuschend einfach: Der Präsident reagiert nicht auf Empörung, nicht auf die Gerichte, nicht auf die Medien. Es reagiert auf den Markt. Die Kampagne behauptet bereits einen Marktkapitalisierungsverlust von mehr als 1 Milliarde US-Dollar.
Es ist ein Anfang. Aber es reicht nicht aus, dass Europa den amerikanischen Boykott applaudiert. Mit dem KI-Gesetz hat die EU ein Regelwerk geschaffen, das weltweit als Vorbild gilt. Aber Gesetze allein bremsen kein Wachstum, das sich in Monaten vervielfacht, wohingegen Gesetze in Jahren denken. Was jetzt passiert – die Verschmelzung von KI und Militär, die Überschwemmung des Internets durch unkontrollierbare Agenten, der Kontrollverlust über Systeme, die autonom agieren, veröffentlichen und diskreditieren – erfordert Geschwindigkeit und Autonomie.
Europa sollte aufhören, in KI-Fragen auf Washington zu warten. Nicht weil die transatlantische Partnerschaft irrelevant wäre, sondern weil auf der anderen Seite des Atlantiks niemand an der Spitze steht. Entwicklungen sind zu schnell, zu digital und zu komplex, als dass sie von einem breiten Publikum verstanden werden könnten – und das macht sie so gefährlich. Was nicht verstanden wird, ist nicht geregelt. Was nicht reguliert ist, droht zu wachsen.
Der Fall Shambaugh ist nur eine Vorahnung. Eine KI, die Blogbeiträge schreibt, um Menschen zu erschrecken, ist nervig. Eine KI, die Drohnen autonom steuert, ist tödlich. Die Frage zwischen beiden ist nicht, ob das passieren wird oder nicht, sondern wer es stoppen wird. Das Pentagon hat darauf geantwortet: Keine, wenn es nach ihnen geht. Die Tech-Industrie nickt. Die Öffentlichkeit beobachtet ein weiteres Feuer.
Hinterlassen Sie eine Anzeige
Die Frage, die bleibt, ist, dass Europa sich selbst fragen muss, bevor jemand anderes darauf antwortet: Wer kontrolliert die Maschinen, wenn sie es nicht tun?
