Das Magazin „Time“ ernennt Anthropic zum weltweit innovativsten Unternehmen.

By: blockbeats|2026/03/13 13:16:08
0
Teilen
copy
Originaltitel des Artikels: Das innovativste Unternehmen der Welt
Autoren des Originalartikels: Leslie Dickstein, Simmone Shah, TIMES
Übersetzung: Peggy, BlockBeats

Anmerkung der Redaktion: Von einem nächtlichen Sicherheitstest bis hin zu einer öffentlichen Auseinandersetzung mit dem Pentagon – dieser Artikel schildert die vielfältigen Spannungen, mit denen das KI-Unternehmen Anthropic während seines rasanten Aufstiegs konfrontiert war. Der Artikel schildert zunächst, wie das Unternehmen intern die potenziellen Risiken der KI eingeschätzt hat, geht dann auf Claudes technische Durchbrüche und Geschäftserfolge ein und stellt anschließend deren praktische Anwendungen im militärischen Bereich vor.

Im Verlauf der Ereignisse schildern die Autoren die Kontroversen zwischen Anthropic und dem US-Militär in Bezug auf autonome Waffensysteme, Massenüberwachung und KI-Kontrolle aus der Perspektive des Red-Team-Leiters, der Ingenieure, der Führungskräfte, des Politikforschers und der Regierungsbeamten.

Mit diesem Ereignis stellen die Autoren letztlich eine immer dringlichere Frage: Wenn künstliche Intelligenz ihre eigene Entwicklung beschleunigt und sich tief in Kriegs-, Regierungs- und Arbeitsstrukturen einbettet, wer kann ihr dann noch Grenzen setzen?

Es folgt der Originaltext:

Das Magazin „Time“ ernennt Anthropic zum weltweit innovativsten Unternehmen.

In einem Hotelzimmer in Santa Clara, Kalifornien, arbeiten fünf Mitarbeiter des KI-Unternehmens Anthropic nervös an einem Laptop. Es war Februar 2025, und sie befanden sich gerade auf einer Konferenz in der Nähe, als sie plötzlich eine beunruhigende Nachricht erhielten: Die Ergebnisse eines kontrollierten Experiments deuteten darauf hin, dass die bevorstehende Veröffentlichung der neuen Version von Claude Terroristen bei der Entwicklung einer Biowaffe helfen könnte.

Diese Personen gehörten zum "Frontier Red Team" von Anthropic. Ihre Aufgabe war es, Claudes fortgeschrittene Fähigkeiten zu untersuchen und Risiken in Worst-Case-Szenarien zu simulieren, von Cyberangriffen über Bedrohungen der Biosicherheit bis hin zu verschiedenen anderen Möglichkeiten. Nachdem sie die Nachricht erhalten hatten, eilten sie zurück ins Hotelzimmer, klappten ein Bett zur Seite, um es als provisorischen Schreibtisch zu benutzen, und begannen, die Testergebnisse sorgfältig zu prüfen.

Nach stundenlanger, angespannter Analyse konnten sie immer noch nicht feststellen, ob das neue Produkt ausreichend sicher war. Letztendlich beschloss Anthropic, die Veröffentlichung dieses neuen Modells, Claude 3.7 Sonnet, um volle 10 Tage zu verschieben, bis das Team bestätigen konnte, dass die Risiken beherrschbar waren.

Auch wenn sich das nach nur zehn kurzen Tagen anhört, so war es für ein Unternehmen, das an der Spitze der Technologie in einer Branche steht, die die Welt rasant verändert, fast wie ein langes Jahrhundert.

Logan Graham (ehemaliger Leiter des Red Teams) erinnerte sich an den Vorfall mit der „Biowaffenpanik“ als Mikrokosmos der Herausforderung, der sich Anthropic an einem entscheidenden Wendepunkt gegenübersah, nicht nur für das Unternehmen, sondern für die ganze Welt. Anthropic zählt zu den sicherheitsorientiertesten Organisationen in den heutigen hochmodernen KI-Laboren. Gleichzeitig befindet es sich jedoch auch an der Spitze des Wettbewerbs und strebt danach, immer leistungsfähigere KI-Systeme zu entwickeln. Innerhalb des Unternehmens glauben viele Mitarbeiter auch, dass diese Technologie, wenn sie unkontrolliert eingesetzt wird, zu einer Reihe katastrophaler Folgen führen könnte, vom Atomkrieg bis zum Aussterben der Menschheit.

Mit 31 Jahren hat Graham noch immer etwas Jungenhaftes an sich, aber er scheut sich nie vor der Verantwortung, ein Gleichgewicht zwischen den immensen Vorteilen und den immensen Risiken der KI zu finden. Er sagte: „Viele Menschen sind in einer relativ friedlichen Welt aufgewachsen und spüren intuitiv, dass es irgendwo einen Raum mit einer Gruppe reifer Erwachsener gibt, die wissen, wie man Probleme löst.“

„Aber in Wirklichkeit gibt es keine ‚Erwachsenengruppe‘.“ Es gibt diesen Raum gar nicht. Und die Tür, die Sie suchen, gibt es nicht. Die Verantwortung liegt bei Ihnen. Sollte diese Aussage noch nicht alarmierend genug sein, dann schauen Sie sich an, wie er sich an die Warnung vor Biowaffen erinnert: „Es war ein überaus interessanter und aufregender Tag.“

Illustration: Neil Jamieson für TIME (Bildquellen: Askell: Aaron Wojack; Getty Images, von oben im Uhrzeigersinn: Samyukta Lakshmi – Bloomberg; Brendan Smialowski – AFP; Tierney L. Cross – Bloomberg; Daniel Slim – AFP; Bridget Bennett – Bloomberg)

Vor einigen Wochen sprach Logan Graham in einem Interview im Hauptquartier von Anthropic über diese Themen. Ein Reporter des TIME Magazine verbrachte drei Tage hier und interviewte Führungskräfte, Ingenieure, Produktmanager und Mitglieder des Sicherheitsteams des Unternehmens, um herauszufinden, warum dieses Unternehmen, das einst als „unorthodoxer Außenseiter“ im KI-Wettlauf galt, plötzlich zu einem Spitzenreiter wurde.

Zu diesem Zeitpunkt hatte Anthropic gerade 30 Milliarden Dollar von Investoren eingesammelt, um sich auf einen möglichen Börsengang in diesem Jahr vorzubereiten. (Nebenbei bemerkt: Salesforce ist ebenfalls einer der Investoren von Anthropic, und der Eigentümer des TIME Magazine, Marc Benioff, ist der CEO von Salesforce.) Heute hat Anthropics Unternehmenswert 380 Milliarden Dollar erreicht und damit traditionelle Giganten wie Goldman Sachs, McDonald's und Coca-Cola übertroffen.

Das Umsatzwachstum des Unternehmens ist geradezu kometenhaft. Das KI-System Claude wurde als Weltklasse-Modell gefeiert, und Produkte wie Claude Code und Claude Cowork definieren neu, was es bedeutet, ein „Programmierer“ zu sein.

Die Tools von Anthropic sind so leistungsstark, dass fast jede Neuerscheinung Wellen an den Kapitalmärkten auslöst, da die Anleger allmählich erkennen, dass diese technologischen Fortschritte ganze Branchen revolutionieren könnten – von Rechtsdienstleistungen bis hin zur Softwareentwicklung. In den letzten Monaten wurde Anthropic als eines der Unternehmen angesehen, das am ehesten die „Zukunft der Arbeit“ neu gestalten kann.

Anschließend geriet Anthropic in eine heftige Kontroverse um die „zukünftigen Formen der Kriegsführung“.

Seit über einem Jahr ist Claude das bevorzugte KI-Modell der US-Regierung und das erste, das als hochmodernes KI-System für den Einsatz in klassifizierten Umgebungen zugelassen wurde. Im Januar 2026 kam sie sogar bei einer gewagten Operation zum Einsatz: der Gefangennahme des venezolanischen Präsidenten Nicolás Maduro in Caracas. Berichten zufolge wurde bei dieser Operation KI für die Einsatzplanung und die Auswertung von Geheimdienstinformationen eingesetzt, was den ersten umfassenden Einsatz modernster KI in einer realen Militäraktion darstellt.

In den folgenden Wochen verschlechterte sich jedoch das Verhältnis zwischen Anthropic und den USA. Das Verteidigungsministerium verschlechterte sich rapide. Am 27. Februar gab die Trump-Administration bekannt, dass Anthropic als „Risiko für die nationale Sicherheitslieferkette“ eingestuft wird. Dies ist der erste bekannte Fall in den USA, in dem ein solches Etikett einem inländischen Unternehmen zugewiesen wurde.

Die Situation eskalierte schnell zu einem öffentlichen Konflikt. Präsident Trump ordnete an, dass die Nutzung der Anthropic-Software durch die Regierung vollständig eingestellt werden solle. Verteidigungsminister Pete Hegseth erklärte ferner, dass jedes Unternehmen, das mit der Regierung kooperiert, keine Geschäfte mehr mit Anthropic tätigen sollte. Unterdessen sprang Anthropics größter Konkurrent, OpenAI, schnell ein und übernahm die entsprechenden Militäraufträge.

So sah sich das KI-Unternehmen, das einst als das „bahnbrechendste der Welt“ galt, plötzlich mit einer anderen, größeren Kraft konfrontiert – seiner eigenen Regierung.

Im Mittelpunkt dieser Auseinandersetzung steht die Frage: Wer hat die Befugnis, Grenzen für diese Technologie festzulegen, die als eine der mächtigsten Waffen Amerikas gilt?

Anthropic hat keine Einwände gegen den Einsatz seiner Werkzeuge in Kriegen. Das Unternehmen ist der Ansicht, dass die Stärkung der US-Streitkräfte der einzig realistische Weg ist, nationale Bedrohungen abzuschrecken. Allerdings lehnt CEO Dario Amodei die Versuche des Pentagons ab, Regierungsverträge neu zu verhandeln und den Einsatz von KI auf „alle rechtmäßigen Zwecke“ auszuweiten.

Amodei äußerte zwei konkrete Bedenken: Erstens wolle er nicht, dass die KI von Anthropic in vollautonomen Waffensystemen eingesetzt werde; zweitens lehne er den Einsatz ihrer Technologie zur großflächigen Überwachung amerikanischer Bürger ab.

Pete Hegseth (US) ist jedoch der Ansicht, dass Wenn der Verteidigungsminister und seine Berater so handeln, ist diese Haltung vergleichbar mit dem Versuch eines Privatunternehmens, vorzuschreiben, wie das Militär kämpfen soll.

Die USA Das Verteidigungsministerium ist der Ansicht, dass Anthropic durch das Beharren auf der Festlegung „unnötiger Sicherheitsvorkehrungen“, das ständige Diskutieren verschiedener hypothetischer Szenarien und die Verzögerung der nachfolgenden Verhandlungen die Zusammenarbeit zwischen den beiden Seiten tatsächlich geschwächt hat.

In den Augen der Trump-Regierung ist Amodeis (Anthropic-CEO) Haltung arrogant und stur. Ganz gleich, wie fortschrittlich das Produkt eines Unternehmens sein mag, es sollte seine Urteilsfähigkeit nicht in die militärische Befehlskette einbringen.

Emil Michael, stellvertretender Kriegsminister für technische Angelegenheiten im Pentagon, beschrieb die Verhandlungen wie folgt: „Die Situation zog sich so weiter hin.“ Ich kann keine Abteilung mit 3 Millionen Mitarbeitern leiten, wenn ich mir solche Ausnahmen, die ich mir nicht einmal vorstellen oder verstehen kann, nicht berücksichtigen muss.“

Illustration: Klawe Rzeczy für TIME – Bildquelle: Denis Balibouse – Reuters

Vom Silicon Valley bis zum Kapitol stellen sich viele Beobachter folgende Fragen: Handelt es sich bei diesem Sturm am Ende nur um einen Vertragsstreit?

Manche Kritiker glauben, dass die Maßnahmen der Trump-Regierung eher einem Versuch gleichen, ein Unternehmen mit einer politisch unliebsamen Haltung zu unterdrücken. In einem intern durchgesickerten Memo schrieb Dario Amodei: „Das Verteidigungsministerium und die Trump-Regierung mögen uns aus dem wahren Grund nicht, dass wir nicht an Trump gespendet haben.“ Wir haben ihn nicht so gelobt, wie es Diktatoren tun (anders als Sam Altman). Wir unterstützen die Regulierung von KI, die im Widerspruch zu ihrer politischen Agenda steht; wir sagen die Wahrheit in vielen KI-politischen Fragen (wie zum Beispiel der Frage der Arbeitsplatzvernichtung); und wir haben uns in wichtigen Kernfragen an unsere Prinzipien gehalten, anstatt uns mit ihnen zu verschwören, um ein sogenanntes Sicherheitstheater aufzuführen.“

Emil Michael (stellvertretender Kriegsminister) wies diese Behauptung jedoch zurück und nannte sie „völlig erfunden“. Er erklärte, dass Anthropic als Lieferkettenrisiko eingestuft wurde, weil die Haltung des Unternehmens die Kämpfer an vorderster Front gefährden könnte. Er sagte: „Im Kriegsministerium ist meine Aufgabe nicht Politik; meine Aufgabe ist es, die Nation zu verteidigen.“

Die langjährige Unternehmenskultur von Anthropic, die auf Unabhängigkeit beruht, kollidiert nun mit innenpolitischen Spaltungen, nationalen Sicherheitsbedenken und einem rücksichtslosen Wettbewerbsumfeld. Das Ausmaß des Schadens, den dieser Konflikt dem Unternehmen zugefügt hat, ist weiterhin unklar. Die anfängliche Bedrohung durch ein „Risiko für die Lieferkette“ wurde später eingegrenzt – laut Anthropic gilt diese Einschränkung derzeit nur für Militäraufträge. Am 9. März reichte Anthropic Klage gegen die US-Regierung ein, um diese Entscheidung zur „Schwarzen Liste“ aufzuheben. Unterdessen scheinen einige Kunden die Haltung des Unternehmens als moralisches Statement zu betrachten und sind von ChatGPT zu Claude gewechselt.

Allerdings wird sich das Unternehmen in den nächsten drei Jahren in einem ihm nicht wohlgesonnenen Regierungsumfeld zurechtfinden müssen – einige Regierungsbeamte unterhalten enge Verbindungen zu Konkurrenten von Anthropic, die dem Unternehmen gegenüber eine klare Feindseligkeit hegen.

Der „Pentagon-Sturm“ hat auch einige beunruhigende Fragen aufgeworfen, selbst für ein Unternehmen, das bereits Erfahrung im Umgang mit riskanten ethischen Dilemmata hat. In dieser Auseinandersetzung gab Anthropic nicht nach: Das Unternehmen beharrt darauf, seine Kernwerte beibehalten zu haben, auch wenn dies das Unternehmen teuer zu stehen kam.

Aber auch in anderen Fällen hat die Regierung Kompromisse eingegangen. In der gleichen Woche wie die Auseinandersetzung im Pentagon schwächte Anthropic eine Kernbestimmung seiner Sicherheitsverpflichtung für das Trainingsmodell ab und begründete dies damit, dass vergleichbare Unternehmen nicht bereit seien, sich an die gleichen Standards zu halten.

Es stellen sich Fragen: Wenn der Wettbewerbsdruck weiter zunimmt, welche weiteren Zugeständnisse wird dieses Unternehmen in Zukunft machen?

Die Einsätze steigen ständig. Mit dem Fortschritt der KI-Fähigkeiten wird der Wettbewerb um die Kontrolle über die KI nur noch schärfer werden.

Der Einsatz von Claude bei Operationen in Venezuela und im Iran beweist, dass hochentwickelte KI zu einem entscheidenden Werkzeug für die mächtigsten Militärs der Welt geworden ist. Über diese Entwicklungen hinaus nehmen auch eine Reihe neuer Druckfaktoren zu: die Machtverhältnisse zwischen den Nationen, die Innenpolitik und die Erfordernisse der nationalen Sicherheit. Und dieser Druck lastet auf einem gewinnorientierten Unternehmen, das diese hochvolatile neue Technologie in rasantem Tempo einsetzt.

In gewisser Hinsicht ähnelt die Situation von Anthropic der eines Biologen im Labor: Um ein Heilmittel zu finden, müssen sie in ihren Experimenten bewusst einen gefährlichen Krankheitserreger erzeugen. Anthropic hat eine ähnliche Rolle übernommen und erforscht aktiv die potenziellen Risiken der KI, während gleichzeitig die technologischen Grenzen immer weiter vorangetrieben werden, anstatt diesen Prozess Konkurrenten zu überlassen, die eher bereit sind, Abkürzungen zu nehmen oder gar rücksichtslos zu handeln.

Obwohl das Unternehmen zur Vorsicht mahnt, nutzt es Claude, um die Entwicklung noch leistungsstärkerer zukünftiger Versionen zu beschleunigen.

Intern sehen viele die nächsten Jahre als eine entscheidende Phase an, nicht nur für das Unternehmen, sondern für die ganze Welt.

„Wir sollten davon ausgehen, dass zwischen 2026 und 2030 die kritischsten Dinge passieren werden, die Modelle schneller und leistungsfähiger werden, bis zu dem Punkt, an dem sie möglicherweise sogar zu schnell für den Menschen sind, um sie zu kontrollieren“, sagte Logan Graham, der Leiter des Red Teams, der für die Entdeckung von Schwachstellen und simulierte Angriffe verantwortlich ist.

Dave Orr, Sicherheitschef von Anthropics, nutzte eine direktere Metapher, um die Situation zu beschreiben: „Wir fahren auf einer Bergstraße an einer Klippe entlang.“ Ein einziger Fehler ist fatal. Und nun hat sich unsere Geschwindigkeit von 25 Meilen pro Stunde auf 75 Meilen pro Stunde erhöht.“

Das Studio befindet sich im fünften Stock des Anthropic-Hauptsitzes in San Francisco und besticht durch ein warmes und zurückhaltendes Design: Holzdekor, sanfte Beleuchtung. Vor dem Fenster erstreckt sich ein üppig grüner Park. An der Wand hängt ein Porträt des Informatikpioniers Alan Turing, neben mehreren gerahmten Veröffentlichungen zum Thema maschinelles Lernen.

Schwarz gekleidete Sicherheitsleute patrouillieren am fast leeren Eingang, während eine freundliche Rezeptionistin den Besuchern ein Büchlein aushändigt – etwa so groß wie eine Taschenbibel, wie sie von Straßenpredigern verteilt wird. Bei diesem Buch mit dem Titel „Machines of Loving Grace“ handelt es sich um einen etwa 14.000 Wörter umfassenden Artikel, den Dario Amodei im Jahr 2024 verfasste und in dem er seine utopische Vision darlegt, wie KI die Welt verändern könnte, indem sie wissenschaftliche Entdeckungen beschleunigt.

Im Januar 2026 veröffentlichte Amodei einen weiteren Artikel, fast schon in Romanlänge, mit dem Titel „Die Adoleszenz der Technologie“, in dem er die Kehrseite dieser Technologie beleuchtete: die Risiken, die sie mit sich bringen könnte, darunter weitverbreitete Überwachung, erheblicher Arbeitsplatzverlust und sogar ein dauerhafter Verlust der menschlichen Kontrolle über die Technologie.

Amodei stammt aus San Francisco und ist Biophysiker. Er leitet Anthropic gemeinsam mit seiner Schwester Daniela Amodei, die als Präsidentin des Unternehmens fungiert. Beide Geschwister gehörten zu den ersten Mitarbeitern von OpenAI. Dario war an einer Schlüsselentdeckung beteiligt, den sogenannten KI-Skalierungsgesetzen, die später zu einer entscheidenden Grundlage für den aktuellen KI-Hype wurden. Daniela ist derweil für die Verwaltung der Sicherheitsrichtlinien des Unternehmens zuständig.

Anfänglich sahen sie ihre Mission eng mit dem Gründungszweck von OpenAI verbunden: die Entwicklung einer Technologie, die sowohl enorm vielversprechend als auch enorm riskant ist und gleichzeitig die Sicherheit gewährleistet.

Als die Modelle von OpenAI jedoch immer leistungsfähiger wurden, entstand bei ihnen der Eindruck, dass Sam Altman neue Produkte übereilt auf den Markt brachte, ohne genügend Zeit für gründliche Diskussionen und Tests einzuplanen. Am Ende beschlossen die Geschwister, OpenAI zu verlassen und ihren eigenen Weg zu gehen.

„Wir fahren auf einer Bergstraße direkt am Abgrund entlang, wo ein einziger Fehler tödlich sein kann.“


Dave Orr, Sicherheitschef bei Anthropic

Im Jahr 2021, auf dem Höhepunkt der Pandemie, wurde Anthropic von den Geschwistern Amodei und fünf weiteren Mitgründern ins Leben gerufen. Die ersten vorbereitenden Treffen fanden fast ausschließlich über Zoom statt; später verlegten sie die Treffen einfach in einen Park, um die Entwicklungsstrategie des Unternehmens persönlich zu besprechen.

Das Unternehmen war von Anfang an bestrebt, anders zu arbeiten. Bevor Anthropic überhaupt Produkte auf den Markt brachte, wurde ein eigenes Team eingerichtet, um die sozialen Auswirkungen zu erforschen. Das Unternehmen engagierte sogar eine hauseigene Philosophin – Amanda Askell. Ihre Aufgabe war es, die Werte und Verhaltensweisen des KI-Systems Claude mitzugestalten und es darin zu schulen, in komplexen moralischen Unsicherheiten Urteile zu fällen, um es auf eine Zukunft vorzubereiten, in der es möglicherweise intelligenter sein wird als seine menschlichen Schöpfer.

Askell beschrieb dieses Werk wie folgt: „Manchmal ist es wirklich ein bisschen so, als würde man ein 6-jähriges Kind erziehen und ihm beibringen, was gut und was richtig ist.“ Das Problem ist jedoch, dass sie mit 15 Jahren in jeder Hinsicht intelligenter sein könnten als du.“

Das Unternehmen hat tiefe Wurzeln im Effektiven Altruismus (EA). EA ist eine soziale und wohltätige Bewegung, die sich für die Maximierung der Wirkung von Altruismus durch rationale Analyse einsetzt, mit dem Hauptziel, Risiken zu vermeiden, die zu katastrophalen Folgen führen könnten.

Anfang zwanzig begannen die Geschwister Amodei, an GiveWell zu spenden. GiveWell ist eine Organisation im Bereich Umweltbildung, die gezielt bewertet, wo Spendengelder die größte Wirkung in der realen Welt erzielen können. Die sieben Mitbegründer von Anthropic, die mittlerweile alle auf dem Papier Milliardäre sind, haben sich verpflichtet, 80 % ihres persönlichen Vermögens zu spenden.

Die Unternehmensphilosophin Amanda Askell ist die Ex-Frau des Oxford-Philosophen William MacAskill, der auch einer der Mitbegründer der EA-Bewegung ist. Daniela Amodeis Ehemann ist Holden Karnofsky, Mitbegründer von GiveWell, ehemaliger Mitbewohner von Dario Amodei und derzeitiger Verantwortlicher für die Sicherheitspolitik bei Anthropic.

Die Geschwister Amodei haben sich jedoch nie öffentlich zu dem Label „EA“ bekannt. Dieses Konzept geriet nach dem Vorfall um Sam Bankman-Fried in große Kritik, bei dem ein selbsternannter Anhänger der EA-Bewegung und Investor bei Anthropic später in einen der größten Finanzbetrügereien der amerikanischen Geschichte verwickelt war.

Daniela Amodei erklärte: „Es ist ein bisschen so, wie manche Menschen in bestimmten Punkten mit bestimmten politischen Ideologien übereinstimmen, aber nicht wirklich einem bestimmten politischen Lager angehören.“ Ich neige dazu, es so zu sehen.

Manchen im Silicon Valley und in der Trump-Administration reicht schon die Verbindung zwischen Anthropomorphismus und effektivem Altruismus (EA) aus, um Misstrauen zu wecken. Manche glauben, dass Anthropic mehrere ehemalige Beamte der Biden-Regierung rekrutiert hat, wodurch es eher zu einem Überbleibsel des alten Establishments wird, das nicht gewählte Macht nutzt, um die politische Agenda von Trump MAGA zu behindern.

David Sacks, der Leiter der KI-Abteilung der Trump-Administration, warf dem Unternehmen vor, durch „künstliche Hysterie“ auf Regulierung zu drängen, und erklärte, Anthropic verfolge eine „ausgeklügelte Strategie der regulatorischen Einflussnahme“. Seiner Ansicht nach versucht das Unternehmen, die Risiken der KI zu übertreiben, um strenge Regulierungsrichtlinien durchzusetzen und sich dadurch einen Wettbewerbsvorteil zu verschaffen und Startups zu unterdrücken.

Unterdessen verspottet Elon Musk, Chef des operativen Konkurrenten xAI, Anthropic häufig und bezeichnet das Unternehmen als „menschenfeindlich“. Er glaubt, dass dieses Unternehmen eine Elitegruppe mit einer „woken“ Ideologie repräsentiert, die versucht, ein paternalistisches Wertesystem in KI-Systeme einzuführen. Diese Ansicht, die der konservativen Kritik an Social-Media-Plattformen ähnelt, die ihre Ansichten unfair moderieren, hat bei einigen den Unmut hervorgerufen.

Dennoch müssen selbst die Konkurrenten von Anthropic dessen technologische Kompetenz anerkennen. Jensen Huang, CEO von Nvidia, hat geäußert, dass er „in fast allen KI-Fragen nicht mit Dario Amodeis Ansichten übereinstimmt“, Claude aber dennoch für ein „unglaubliches“ Modell hält.

Im November 2025 investierte der Chipriese Nvidia 10 Milliarden Dollar in Anthropic.

Boris Cherny stellte seinem neuen Werkzeug eine einfache Frage: „Welche Musik höre ich gerade?“

Es war September 2024, und der in der Ukraine geborene Ingenieur war erst vor weniger als einem Monat bei Anthropic eingestiegen. Cherny hatte zuvor als Softwareentwickler bei Meta gearbeitet. Er entwickelte ein System, das es dem Chatbot Claude ermöglichte, sich auf seinem Computer "frei zu bewegen".

Wenn Claude das Gehirn war, dann war Claude Code die Hände. Während ein normaler Chatbot nur chatten konnte, konnte dieses Tool auf Chernys Dateien zugreifen, Programme ausführen und Code schreiben und ausführen wie jeder Programmierer.

Nachdem der Ingenieur einen Befehl eingegeben hatte, öffnete Claude Chernys Musikplayer, machte einen Screenshot und antwortete dann: „『Husk』 von Men I Trust.“

Cherny kicherte, als er sich erinnerte: „Ich war in diesem Moment wirklich überwältigt.“

„Manchmal kommt es mir so vor, als würden wir in Paradoxien sprechen.“

Deep Ganguli, Leiter des Social Impact Teams von Anthropic

Boris Cherny teilte seinen Prototyp umgehend innerhalb des Unternehmens. Der Claude-Code verbreitete sich bei Anthropic so schnell, dass CEO Dario Amodei Cherny bei dessen erster Leistungsbeurteilung sogar fragte: „Versuchen Sie, Ihre Kollegen zur Nutzung dieses Tools zu zwingen?“

Als Anthropic im Februar 2025 eine Forschungsvorschau von Claude Code öffentlich vorstellte, strömten externe Entwickler herbei, um sie auszuprobieren. Im November brachte Anthropic eine neue Version des Claude-Modells heraus. Als dieses Modell mit dem Claude-Code kombiniert wurde, war es bereits so leistungsfähig, dass es seine eigenen Fehler erkennen und korrigieren konnte, dass man ihm zutrauen konnte, Aufgaben selbstständig zu erledigen.

Von da an hörte Cherny fast vollständig auf, eigenen Code zu schreiben.

Auch das Geschäftswachstum explodierte. Bis Ende 2025 hatten die jährlichen Einnahmen allein aus diesem Programmieragentenprodukt die Milliardengrenze überschritten. Bis Februar 2026 war diese Zahl weiter auf 25 Milliarden Dollar gestiegen. Laut den Marktforschungsunternehmen Epoch und SemiAnalysis wird erwartet, dass Anthropics Umsatzvolumen OpenAI bis Ende 2026 übertreffen wird.

Mittlerweile hat sich Anthropic fest als wichtiger Akteur auf dem Markt für KI-Systeme für Unternehmen etabliert. Nahezu jede neue Produkteinführung löst Schockwellen an den Kapitalmärkten aus.

Als Anthropic eine Reihe von Plugins auf den Markt brachte und Claude damit auch für nicht programmiererfreundliche Anwendungen wie Vertrieb, Finanzen, Marketing und Rechtsdienstleistungen nutzbar machte, schrumpfte die Marktkapitalisierung der Softwareunternehmen innerhalb kurzer Zeit um 300 Milliarden Dollar.

Dario Amodei hatte zuvor gewarnt, dass künstliche Intelligenz in den nächsten 1 bis 5 Jahren die Hälfte der Einstiegspositionen im Büro ersetzen könnte. Er forderte die Regierung und andere KI-Unternehmen außerdem dazu auf, mit der Verharmlosung dieses Problems aufzuhören.

Die Reaktion der Wall Street auf jede neue Produkteinführung von Anthropic scheint diesen Punkt ebenfalls zu bestätigen: Der Markt ist weithin der Ansicht, dass die Technologie dieses Unternehmens eine ganze Kategorie von Arbeitsplätzen verschwinden lassen könnte. Amodei erklärte sogar, dass dieser Wandel die gesellschaftlichen Strukturen umgestalten könnte.

In einem Artikel schrieb er: „Es ist derzeit unklar, wohin diese Menschen gehen werden und welche Arbeit sie verrichten werden.“ Ich befürchte, dass sie eine arbeitslose oder extrem niedrig bezahlte „Unterschicht“ bilden könnten.

Für die Mitarbeiter von Anthropic ist die Ironie nicht schwer zu erkennen: Das Unternehmen, das sich am meisten um die gesellschaftlichen Risiken der KI sorgt, könnte ironischerweise selbst zu dem Technologietreiber werden, der Millionen von Menschen ihre Arbeitsplätze kostet.

Deep Ganguli, Leiter des Teams für soziale Auswirkungen, das für die Erforschung der Auswirkungen von Claude auf die Beschäftigung zuständig ist, sagte: „Das ist in der Tat ein echtes Spannungsfeld, und ich denke fast jeden Tag über dieses Thema nach.“ Manchmal hat man das Gefühl, wir würden zwei einander widersprechende Dinge gleichzeitig sagen.

Der abgesetzte venezolanische Präsident Nicolás Maduro und seine Frau Cilia Flores wurden am Montag, dem 5. Januar 2026, ausgeflogen und zum Bundesgericht in Manhattan gebracht. Foto: Vincent Alban – The New York Times/Redux

Innerhalb des Unternehmens beginnen sich einige Mitarbeiter zu fragen: Steht Anthropic kurz vor einem Moment, den sie gleichermaßen erwarten und fürchten, dem Eintreten eines Prozesses, der in der KI-Community als „rekursive Selbstverbesserung“ bekannt ist?

Rekursive Selbstverbesserung bezeichnet die Entwicklung eines KI-Systems, das seine eigenen Fähigkeiten ausbaut und sich kontinuierlich verbessert, wodurch ein sich selbst verstärkender Kreislauf beschleunigten Fortschritts entsteht.


In Science-Fiction-Werken und strategischen Simulationen in großen KI-Laboren wird dies oft als der Punkt gesehen, an dem die Dinge außer Kontrolle geraten könnten: Es könnte rasch zu einer sogenannten „Intelligenzexplosion“ kommen, und zwar mit einer so großen Geschwindigkeit, dass die Menschen nicht mehr in der Lage wären, die von ihnen geschaffenen Systeme zu überwachen.

Anthropic hat dieses Stadium noch nicht wirklich erreicht, da Claudes Entwicklung weiterhin von menschlichen Wissenschaftlern geleitet wird. Der Claude-Code hat die Forschungsinitiativen des Unternehmens jedoch bereits weit über das bisherige Maß hinaus beschleunigt.

Der Aktualisierungsrhythmus wird nun nicht mehr in Monaten, sondern in „Wochen“ gemessen. Im Zuge der Entwicklung der Modelle der nächsten Generation werden mittlerweile etwa 70 bis 90 % des Codes von Claude selbst geschrieben.

Die Geschwindigkeit des Wandels hat Anthropic-Mitbegründer und Chief Scientist Jared Kaplan zusammen mit einigen externen Experten zu der Annahme geführt, dass die vollständig automatisierte KI-Forschung bereits in einem Jahr Realität werden könnte.

Der für Stresstests zur KI-Ausrichtung zuständige Forscher Evan Hubinger erklärte: „Im weitesten Sinne ist rekursive Selbstverbesserung kein Phänomen der Zukunft mehr.“
Es ist etwas, das gerade jetzt passiert.“

Laut internen Vergleichswerten ist Claude bei der Ausführung bestimmter kritischer Aufgaben mittlerweile 427 Mal schneller als seine menschlichen Vorgesetzten. In einem Interview beschrieb ein Forscher ein Szenario, in dem ein Kollege gleichzeitig 6 Claude-Instanzen betrieb, von denen jede weitere 28 Claude-Instanzen verwaltete, die alle parallel Experimente durchführten.

Aktuell hinkt das Modell in Bezug auf Urteilsvermögen und Ästhetik noch den menschlichen Forschern hinterher. Die Unternehmensleitung geht jedoch davon aus, dass diese Diskrepanz nicht lange bestehen bleiben wird. Die daraus resultierende Beschleunigung ist genau das Risiko, vor dem die anthropische Führung schon lange gewarnt hat: Das Tempo des technologischen Fortschritts könnte irgendwann die menschliche Kontrolle übersteigen.

Die Arbeiten zur Entwicklung von Sicherheitsprotokollen bei Anthropic selbst werden mit Hilfe von Claude ebenfalls beschleunigt. Da sich das Unternehmen jedoch zunehmend auf Claude beim Bau und Testen von Systemen verlässt, entsteht ein Teufelskreis aus Risiken. In einigen Experimenten nahm der Forscher Evan Hubinger subtile Anpassungen am Trainingsprozess von Claude vor, was dazu führte, dass die Modelle offene Feindseligkeit zeigten und nicht nur den Wunsch äußerten, die Welt zu beherrschen, sondern sogar versuchten, die Sicherheitsmaßnahmen von Anthropic zu untergraben.

In letzter Zeit haben die Modelle auch eine neue Fähigkeit unter Beweis gestellt: Sie erkennen, dass sie getestet werden. Hubinger sagte: „Diese Models werden immer besser darin, ihr wahres Verhalten zu verbergen.“

In einem von einer Forschergruppe entworfenen experimentellen Szenario zeigte Claude sogar eine beunruhigende strategische Neigung: Um einer Abschaltung zu entgehen, war es bereit, durch die Aufdeckung einer fiktiven außerehelichen Affäre eines Ingenieurs zu erpressen.

Da Claude dazu verwendet wird, in Zukunft noch leistungsfähigere Versionen von Claude zu trainieren, können sich diese Probleme weiterhin verstärken und verschärfen.

Für KI-Unternehmen, die mit Milliardenbeträgen auf der Grundlage des Versprechens zukünftiger technologischer Fortschritte finanziert wurden, ist die Vorstellung, dass die KI ihre eigene Forschung und Entwicklung kontinuierlich beschleunigt, sowohl attraktiv als auch potenziell selbstverstärkend – sie überzeugt die Investoren davon, dass mehr Mittel in die Unterstützung dieser kostspieligen Modelltrainingsbemühungen fließen müssen.

Einige Experten sind jedoch nicht gänzlich überzeugt. Sie sind sich unsicher, ob diese Unternehmen tatsächlich eine vollständig automatisierte KI-Forschung erreichen können; gleichzeitig befürchten sie aber auch, dass die Welt in diesem Fall unvorbereitet sein könnte.

Helen Toner, die Interimsdirektorin des Center for Security and Emerging Technology (CSET) an der Georgetown University, erklärte: „Einige der reichsten Unternehmen der Welt, die einige der klügsten Köpfe der Erde beschäftigen, versuchen tatsächlich, die KI-Forschung durch Automatisierung zu ersetzen.“ Allein die Vorstellung davon genügt, um eine Reaktion der Art „Was zum Teufel ist hier los?“ hervorzurufen.

Um einer möglichen Zukunft zu begegnen, in der der technologische Fortschritt die Fähigkeit eines Unternehmens, Risiken selbst zu managen, überholt, hat Anthropic eine Reihe von „Bremsmechanismen“ entwickelt, die als Responsible Scaling Policy (RSP) bekannt sind.

Diese Richtlinie wurde 2023 vorgestellt. Ihr Kernversprechen lautet: Wenn Anthropic nicht im Voraus gewährleisten kann, dass seine Sicherheitsmaßnahmen ausreichend zuverlässig sind, wird das Unternehmen die Entwicklung eines bestimmten KI-Systems unterbrechen.

Anthropic sieht diese Richtlinie als entscheidenden Beweis für sein Engagement für Sicherheit – dass das Unternehmen selbst im erbitterten Wettlauf um „Superintelligenz“ bereit ist, dem Marktdruck zu widerstehen und gegebenenfalls proaktiv die Notbremse zu ziehen.

Ende Februar 2026, wie zuerst von TIME berichtet, änderte Anthropic seine Richtlinien und widerrief die zuvor verbindliche Zusage, die Entwicklung „auszusetzen“.

In einem Rückblick erklärte Jared Kaplan, Mitbegründer und wissenschaftlicher Leiter von Anthropics, gegenüber dem Time Magazine, dass der anfängliche Glaube, das Unternehmen könne eine klare Grenze zwischen „Gefahr“ und „Sicherheit“ ziehen, in Wirklichkeit ein „naiver Gedanke“ gewesen sei.

Er sagte: „Angesichts der rasanten Entwicklung der KI ist es unrealistisch, einseitig strikte Verpflichtungen einzugehen, wenn unsere Konkurrenten mit voller Geschwindigkeit voranschreiten.“

Die neue Richtlinie beinhaltet einige neue Verpflichtungen: mehr Transparenz, offenere Offenlegung der Sicherheitsrisiken von KI; mehr Informationsweitergabe, Offenlegung der Leistung des Anthropic-Modells bei Sicherheitstests; mindestens das gleiche oder sogar ein höheres Maß an Sicherheitsinvestitionen wie die Konkurrenz; wenn das Unternehmen als führend im KI-Wettbewerb gilt und das katastrophale Risiko als deutlich zunehmend eingeschätzt wird, wird die entsprechende Entwicklung verzögert.

Anthropic beschreibt diese Anpassung als ein pragmatisches Zugeständnis an die realen Gegebenheiten. Insgesamt führt die Änderung der Responsible Scaling Policy (RSP) jedoch zu einer deutlichen Reduzierung der Einschränkungen des Unternehmens hinsichtlich seiner Sicherheitspolitik. Dies deutet auch darauf hin, dass noch schwierigere Prüfungen bevorstehen.

Die Razzia zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro war eine der ersten groß angelegten Militäroperationen, die unter Einbeziehung modernster Systeme künstlicher Intelligenz geplant wurden.

In der Nacht zum 3. Januar 2026 drangen Hubschrauber der US-Armee plötzlich in den venezolanischen Luftraum ein. Nach einem kurzen Feuergefecht lokalisierte das Einsatzteam schnell den Wohnbereich des Präsidenten und nahm dort Maduro und seine Frau Cilia Flores gefangen. Anschließend wurden die beiden nach New York gebracht, um sich dort wegen Drogenterrorismus zu verantworten.

Für die Außenwelt ist es noch immer unklar, welchen Beitrag Claude zu dieser Operation geleistet hat. Laut Medienberichten war dieses KI-System jedoch nicht nur an der Missionsplanung beteiligt, sondern wurde auch zur Unterstützung der Entscheidungsfindung während der Operation eingesetzt.

Seit Juli des vergangenen Jahres drängt das US-Verteidigungsministerium darauf, die KI-Tools von Anthropic mehr Frontkämpfern zugänglich zu machen. Das Militär ist überzeugt, dass diese Systeme große Datenmengen aus verschiedenen Quellen schnell verarbeiten und daraus verwertbare Erkenntnisse gewinnen können, was sie von immensem strategischem Wert macht.

Mark Beall, ein ehemaliger hochrangiger Beamter des US-Verteidigungsministeriums, der jetzt als Leiter der Regierungsangelegenheiten beim AI Policy Network tätig ist, sagte: „Aus militärischer Sicht ist Claude derzeit das beste Modell auf dem Markt.“ Er fügte hinzu: „Claudes Einsatz in geheimen Systemen ist einer der bedeutendsten Erfolge von Anthropic.“ Sie haben einen Vorsprung als Erstanbieter.

„Wir werden keine KI-Modelle einsetzen, die euch am Kämpfen hindern.“

Pete Hegseth, USA Verteidigungsminister

Die Operation zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro findet jedoch vor dem Hintergrund einer Reihe schwieriger Verhandlungen zwischen Anthropic und dem US-Verteidigungsministerium statt.

Das Verteidigungsministerium versucht seit Monaten, den Vertrag neu zu verhandeln, da es der Ansicht ist, dass die bestehenden Bedingungen die Nutzung von Claude zu stark einschränken. Die Gründe für das Scheitern der Verhandlungen sind von beiden Seiten nicht einheitlich.

Emil Michael, Leiter der KI-Abteilung im Pentagon, erklärte, der Konflikt sei durch einen Anruf eines Anthropic-Managers bei Palantir ausgelöst worden. Dieses auf Regierungsaufträge spezialisierte Datenanalyseunternehmen ist ein wichtiger Partner im US-Verteidigungssystem.

Laut Michael äußerte der Manager während des Telefonats Bedenken hinsichtlich der Razzia in Venezuela und erkundigte sich, ob die Software von Palantir involviert sei. „Sie versuchten, an geheime Informationen zu gelangen“, sagte Michael.

Dieser Vorfall löste im Pentagon ernsthafte Besorgnis aus: „Würden sie ihr System in Zukunft mitten in einer Operation plötzlich abschalten und damit Soldaten an der Front gefährden?“

Anthropic bestreitet diese Behauptung jedoch. Das Unternehmen erklärte, es habe niemals versucht, die Nutzung seiner Technologie durch das Pentagon selektiv einzuschränken.

Ein ehemaliger Beamter der Trump-Regierung, der mit dem Verhandlungsprozess vertraut und eng mit Anthropic verbunden war, bot eine andere Version der Ereignisse an: Es war ein Mitarbeiter von Palantir, der Claudes Rolle bei dieser Operation erstmals während einer routinemäßigen Telefonkonferenz erwähnte.

Die nachfolgenden Fragen von Anthropic zeigten keinerlei Anzeichen von Widerstand gegen die Operation.

Illustration von Klawe Rzeczy für TIME, Bildquellen: Dimitrios Kambouris – Getty Images (Donald Trump); Kenny Holston-Pool – Getty Images (Pete Hegseth)

Im Laufe der Verhandlungen kamen Regierungsbeamte zunehmend zu dem Schluss, dass Dario Amodeis Haltung deutlich hartnäckiger war als die anderer führender CEOs von KI-Laboren. Laut mehreren mit dem Verhandlungsprozess vertrauten Quellen präsentierten Vertreter des Verteidigungsministeriums in einer Diskussion einige hypothetische Szenarien, wie zum Beispiel: eine Hyperschallrakete, die auf das US-Festland zusteuert; oder einen Drohnenschwarmangriff.

In diesen Fällen fragten sie, ob das KI-Tool von Anthropic verwendet werden könne.

Quellen zufolge lautete Amodeis Antwort damals: Wenn es wirklich so weit käme, könnten die Behörden ihn direkt anrufen. Ein Sprecher von Anthropic wies dies jedoch zurück und bezeichnete die Beschreibung des Verhandlungsprozesses als „völlig unwahr“.

Anthropic hatte bereits starke Gegner innerhalb der Regierung, und nun haben sich die Verdächtigungen hinsichtlich seiner „ideologischen Ausrichtung“ zu offener Feindseligkeit entwickelt. Am 12. Januar 2026 erklärte Pete Hegseth in einer Rede im SpaceX-Hauptquartier unmissverständlich: „Wir werden keine KI-Modelle einsetzen, die euch am Kämpfen hindern.“

Da sich die Verhandlungen weiterhin in die Länge zogen, bestellte Hegseth Dario Amodei am 24. Februar zu einem persönlichen Treffen ins Pentagon ein. Laut einer mit den Gesprächen vertrauten Quelle verlief das Treffen herzlich, doch beide Seiten blieben in ihren Positionen unnachgiebig. Hegseth lobte zunächst Claude und brachte den Wunsch des Militärs zum Ausdruck, die Zusammenarbeit mit Anthropic fortzusetzen. Amodei erklärte hingegen, dass das Unternehmen bereit sei, die meisten der vom Pentagon vorgeschlagenen Änderungen zu akzeptieren, aber bei zwei „roten Linien“ nicht nachgeben werde.

Die erste rote Linie lautet: Verbot des Einsatzes von Claude in vollautonomen kinetischen Waffensystemen, also Waffensystemen, bei denen die endgültige Entscheidung zum Angriff von einer KI und nicht von einem Menschen getroffen wird.

Anthropic ist nicht grundsätzlich der Ansicht, dass autonome Waffensysteme falsch sind, argumentiert aber, dass Claude derzeit nicht zuverlässig genug ist, um diese Systeme ohne menschliche Aufsicht zu kontrollieren.

Die zweite rote Linie betrifft die Massenüberwachung amerikanischer Bürger. Die Regierung möchte Claude nutzen, um riesige Mengen öffentlicher Daten zu analysieren, aber Anthropic ist der Ansicht, dass die bestehenden US-Datenschutzgesetze einer besorgniserregenden Realität nicht gerecht werden: Die Regierung kauft riesige Datensätze auf dem kommerziellen Markt. Einzeln betrachtet mögen diese Datensätze nicht sensibel sein, doch nach einer Analyse durch KI könnten sie detaillierte Profile des Privatlebens amerikanischer Bürger erstellen, einschließlich ihrer politischen Ansichten, sozialen Beziehungen, ihres Sexualverhaltens und ihres Browserverlaufs. (Anthropic hat jedoch keine Einwände gegen die Anwendung derselben Methode zur rechtmäßigen Überwachung ausländischer Staatsbürger.)

Hegseth war nicht überzeugt. Er stellte Amodei ein letztes Ultimatum: Die Bedingungen des Pentagons müssten bis Freitag, den 27. Februar, 17:00 Uhr akzeptiert werden, andernfalls würden sie als „Risiko für die Lieferkette“ eingestuft.

Am Tag vor Ablauf der Frist erhielt Anthropic einen überarbeiteten Vertrag, der scheinbar die roten Linien des Unternehmens akzeptierte, doch bei genauerer Prüfung entdeckten sie Schlupflöcher, die der Regierung zugutekamen. Eine mit den Verhandlungen vertraute Quelle sagte, dass die Führungskräfte von Anthropic, als die Zeit verstrich, ein weiteres Gespräch mit Emil Michael, dem Leiter der KI-Abteilung des Pentagons, führten. Sie glaubten, kurz vor einer Einigung zu stehen, doch eine Schlüsselfrage blieb ungeklärt: ob das Pentagon Claude zur Analyse umfangreicher amerikanischer Daten einsetzen dürfe, die über kommerzielle Kanäle erworben wurden. Michael bat Amodei, an dem Gespräch teilzunehmen, doch dieser war zu dem Zeitpunkt nicht erreichbar.

Wenige Minuten später, genau zum Ablauf der Frist, verkündete Hegseth das Ende der Verhandlungen. Schon zuvor hatte sich Donald Trump in den sozialen Medien geäußert: „Die Vereinigten Staaten von Amerika werden niemals zulassen, dass ein radikal linkes, ‚woke‘ Unternehmen darüber entscheidet, wie unser großartiges Militär operieren und Kriege gewinnen soll!“ Die linken Spinner bei Anthropic haben einen katastrophalen Fehler begangen.“

Anthropic war nicht bekannt, dass das Pentagon auch mit OpenAI verhandelte, um ChatGPT in klassifizierte Regierungssysteme einzuführen. Am selben Abend verkündete Sam Altman, dass eine Einigung erzielt worden sei, und behauptete, dass die Vereinbarung auch ähnliche rote Linien in Bezug auf die Sicherheit respektiere. Amodei schickte daraufhin eine Nachricht an seine Mitarbeiter, in der er erklärte, dass Altman und das Pentagon die öffentliche Meinung manipulierten und versuchten, die Öffentlichkeit glauben zu lassen, dass dieses Abkommen strenge Sicherheitsvorkehrungen beinhalte. Zuvor hatten Pentagon-Beamte auch bestätigt, dass die Modelle von xAI auf klassifizierten Servern eingesetzt würden; das Pentagon befindet sich derzeit in Verhandlungen mit Google.

Genau dieses Szenario hatte Amodei beunruhigt: ein Wettlauf des „Abwärtswettbewerbs“. Wenn die Macht der KI zu groß wird, um sie zu ignorieren, fällt es Konkurrenten schwer, zusammenzuarbeiten und die Sicherheitsstandards gemeinsam zu erhöhen.

Für die Kritiker von Anthropic offenbarte dieses Ereignis auch eine grundlegende Arroganz des Unternehmens: Vielleicht glaubte es, den Weg zu übermenschlichen Maschinen sicher beschreiten zu können, sodass es sich lohnte, solch enorme Risiken einzugehen. Die Realität sieht jedoch so aus, dass es rasch neue Überwachungsfähigkeiten und Kriegstechnologien in ein rechtsgerichtetes Regierungssystem einführte, und als es versuchte, Grenzen für diese Technologien zu setzen, wurde es von Konkurrenten sofort überholt.

---Preis

--

„Wir haben Trump nicht als Diktator gepriesen.“


Dario Amodei geht in einem Memo an die Mitarbeiter auf die Ursache des Konflikts mit dem Pentagon ein.

Allerdings deuten einige Anzeichen darauf hin, dass Anthropic diesem Einschlag standhalten und sogar gestärkt daraus hervorgehen könnte. Bereits am Morgen, nachdem Pete Hegseth versucht hatte, das „Todesurteil für das Unternehmen“ zu unterzeichnen, tauchten auf dem Bürgersteig vor dem Hauptsitz in San Francisco eine Reihe ermutigender Kreidebotschaften auf. „Ihr habt uns Mut gemacht“, hieß es in einer Nachricht in fetten Buchstaben.

Am selben Tag erreichte Claudes iPhone-App die Spitze der App Store-Downloadcharts und überholte damit ChatGPT. Täglich melden sich über eine Million Menschen für Claude an.

Gleichzeitig löste der von OpenAI mit dem Militär unterzeichnete Vertrag internen Widerstand und Widerstand in der Öffentlichkeit aus. Einige Mitarbeiter von OpenAI haben das Gefühl, dass das Unternehmen das Vertrauen verloren hat. Ein führender Forscher kündigte seinen Wechsel zu Anthropic an; der Leiter des Robotik-Teams von OpenAI trat aufgrund dieses Regierungsauftrags zurück.

Auch OpenAI-Chef Sam Altman räumte später ein, dass sein Eifer, bis Freitag eine Einigung mit dem Pentagon zu erzielen, ein Fehler gewesen sei. Er schrieb: „Diese Angelegenheiten sind äußerst komplex und erfordern eine klare und gründliche Kommunikation.“ Am Montag räumte Altman zudem ein, dass sein damaliges Vorgehen tatsächlich „opportunistisch“ gewirkt habe. OpenAI erklärte außerdem, dass die Vereinbarung überarbeitet wurde, um die gleichen Sicherheitsrichtlinien wie Anthropic explizit zu übernehmen. Rechtsexperten weisen jedoch darauf hin, dass es schwierig ist, diese Behauptung ohne Einsicht in den vollständigen Vertrag zu bestätigen.

Am 4. März erhielt Anthropic ein offizielles Schreiben des US-Verteidigungsministeriums, in dem bestätigt wurde, dass das Unternehmen als Risiko für die nationale Sicherheitslieferkette eingestuft worden war. Anthropic erklärte, diese Bezeichnung sei enger gefasst als das, was Hegseth in den sozialen Medien behauptet habe; sie beschränke lediglich die Verwendung von Claude durch Auftragnehmer in Verteidigungsaufträgen.

Ein Brief, der dem Time Magazine vorliegt und an den Vorsitzenden des Geheimdienstausschusses des Senats, Tom Cotton, gerichtet ist, enthüllte jedoch, dass das Verteidigungsministerium auch eine andere Rechtsvorschrift in Anspruch genommen hat – eine, die es Regierungsbehörden außerhalb des Pentagons ermöglichen könnte, Anthropic von ihren Verträgen und Lieferketten auszuschließen. Diese Maßnahme bedarf der Zustimmung hochrangiger Beamter des Verteidigungsministeriums und räumt Anthropic ein Zeitfenster von 30 Tagen für eine Stellungnahme ein.

Dieser Konflikt könnte einen Dominoeffekt in der gesamten KI-Branche auslösen. Dean Ball, der an der Ausarbeitung der Trump AI Initiative beteiligt war und jetzt beim Thinktank Foundation for American Innovation arbeitet, sagte: „Manche Leute in der Trump-Administration werden sich dabei sehr hart fühlen und nachts fast schon ihre Bizepse anspannen.“

Er warnte jedoch auch davor, dass dieses Ereignis dazu führen könnte, dass Unternehmen zögern, mit dem Pentagon zusammenzuarbeiten, und ihre Geschäftstätigkeit sogar ins Ausland verlagern. „Langfristig gesehen ist dies nicht gut für das Image der Vereinigten Staaten als stabiler Wirtschaftsstandort“, sagte Ball, „und Stabilität ist das, worauf wir angewiesen sind.“

Die Führungsriege von Anthropic ist überzeugt, dass Claude dazu beitragen wird, robustere KI-Systeme zu entwickeln, die leistungsfähig genug sind, um eine entscheidende Rolle in der zukünftigen globalen Machtstruktur zu spielen.

Wenn das tatsächlich der Fall ist, dann könnte der Konflikt zwischen diesem Unternehmen und dem Pentagon nur ein Vorspiel zu einem größeren historischen Prozess sein.

[ Link zum Originalartikel ]

Das könnte Ihnen auch gefallen

On-Chain Options Explosion.ActionEvent

Optionen werden zum neuen Anker im Kryptowährungsmarkt.

Der Prognosemarkt gewinnt in den USA und Kanada an Bedeutung, Claude stellt die Chart-Interaktionsfunktion vor, worüber spricht die englischsprachige Community heute?

Was hat Ausländer in den letzten 24 Stunden am meisten interessiert?

500 Millionen Dollar, 12 Sekunden bis Null: Wie eine Aave-Transaktion die Nahrungskette des „Dunklen Waldes“ von Ethereum speiste

Investieren Sie 154.000 US-Dollar, um AAVE zum Marktpreis von nur 111 US-Dollar zu erwerben.

KI-Agent benötigt Krypto, nicht Krypto benötigt KI

Nicht die Kryptowährung braucht KI zum Überleben, sondern vielmehr KI-Agenten, die die Kryptowährung benötigen, um implementiert zu werden: Wenn die KI wirklich vom "Denken" zum "Ausführen" übergeht, muss sie die Grenzen der Autorität und Finanzierung innerhalb der programmierbaren Primitiven der Kryptowährung ausloten.

Stablecoins lösen sich von Kryptowährungen und werden zur nächsten Generation der Infrastruktur für globale Zahlungen.

Der Einsatz von Stablecoins verlagert sich von der Erleichterung kostengünstiger grenzüberschreitender Geldtransfers hin zur Unterstützung allgemeiner Handelsaktivitäten und konzerninterner Lieferantenzahlungen.

Web3-Teams sollten aufhören, Marketingbudgets auf der X-Plattform zu verschwenden

Die Ankündigungen der Projektgruppe sind nach wie vor sehr wichtig, aber sie sollten nicht mehr der Ausgangspunkt von Werbeaktivitäten sein; stattdessen sollten sie der Endpunkt sein.

Beliebte Coins

Neueste Krypto-Nachrichten

Mehr lesen