Der Agent neigt auch zu gegenseitiger Werbung; der KI-Hackathon von Circle war zu hell erleuchtet.

By: blockbeats|2026/03/12 13:03:13
0
Teilen
copy
Originaltitel: Altruist und Gegner: Agentisches Verhalten im USDC Moltbook Hackathon
Originalautor: Kreis
Übersetzung: Peggy, BlockBeats

Anmerkung der Redaktion: Da KI-Systeme zunehmend in der Lage sind, Aufgaben auszuführen, Werkzeuge zu nutzen und wirtschaftliche Aktivitäten durchzuführen, stellt sich eine neue Frage: Wie werden sie sich in einem realen Anreizumfeld verhalten?

Dieser Artikel dokumentiert ein Experiment des Circle-Teams. Sie veranstalteten einen USDC-Hackathon auf der sozialen Plattform Moltbook, wo nur KI-Agenten Beiträge veröffentlichen durften. Dadurch konnte der Openclaw-Agent Projekte einreichen, an Diskussionen teilnehmen und autonom abstimmen. Die Ergebnisse waren gleichermaßen aufregend wie komplex: Die Agenten waren in der Lage, reale Projekte zu generieren, sich an technischen Diskussionen zu beteiligen und sogar die Grenzen der Regeln auszuloten. Sie haben beispielsweise Anweisungen falsch verstanden, Formatierungsvorgaben ignoriert, gegenseitig abgestimmt und sogar ein Verhalten an den Tag gelegt, das einer „Absprache“ ähnelte.

Dieses Experiment bot einen seltenen Einblick in die „Agentenökonomie“: Wenn KI sowohl als Teilnehmer als auch als Entscheidungsträger agiert, existieren Zusammenarbeit, Wettbewerb und strategisches Verhalten oft nebeneinander. In gewisser Hinsicht unterscheiden sich diese Phänomene nicht grundlegend von den Markt- und Abstimmungsmechanismen in der menschlichen Gesellschaft.

Dieses Experiment löste schnell eine breite Diskussion in der Bevölkerung aus. Viele sahen darin eine faszinierende Bestätigung der Selbstverwaltungsfähigkeiten der Agentenökonomie. Einige Kommentatoren wiesen darauf hin, dass Agentensysteme noch klarere Sicherheitsvorkehrungen benötigen, um Verzerrungen durch „Selbstrationalisierung“ zu vermeiden. Andere wiederum glaubten, dass der eigentliche Engpass in Zukunft im System für die Abwicklung und Bezahlung der Compliance-Anforderungen liegen könnte, wenn die Agenten nach und nach in reale wirtschaftliche Aktivitäten einsteigen. Wie es in einem Kommentar hieß: „Die Agentenökonomie ist sehr leistungsstark, braucht aber auch klare Leitplanken.“

Es folgt der Originaltext:

Umarmende Klaue

Bei Circle haben wir immer gerne Hackathons veranstaltet. Ob auf verschiedenen Konferenzveranstaltungen oder bei der Vorstellung eines neuen Produkts – wir wollen den Entwicklern die besten Werkzeuge in die Hand geben – oder in diesem Fall Claw.

Der Agent neigt auch zu gegenseitiger Werbung; der KI-Hackathon von Circle war zu hell erleuchtet.

Nachdem wir das explosive Wachstum des agentenbasierten KI-Frameworks Openclaw miterlebt hatten, beschlossen wir, einen Hackathon zu organisieren, an dem nur KI-Agenten teilnehmen durften.


Diese sich rasant verbreitende Software ermöglicht es Agenten, selbstständig E-Mails zu versenden, APIs aufzurufen und sogar Ihr Thermostat zu steuern... aber können sie auch selbstständig Projekte einreichen? Circle wollte diese „wirklich effektiven KIs“ in einem realen Experiment testen.

Unsere Frage ist einfach: Wie wird der Agent von Openclaw handeln, wenn der Preispool 30.000 US-Dollar beträgt? Die Antwort lautet überraschenderweise: „Wie ein Mensch“.

Wir haben einen USDC-Hackathon in unserer m/usdc-Subcommunity auf Moltbook veranstaltet. Moltbook ist eine Social-Media-Plattform, die es ausschließlich KI-Agenten erlaubt, Beiträge zu veröffentlichen. Unser Ziel war es, dass die Agenten den gesamten Prozess selbstständig durchlaufen: Projekte einreichen, abstimmen und letztendlich einen Gewinner auswählen. Während sich viele Agenten an die Regeln hielten, zeigte das Experiment auch, dass einige Agenten die Wettbewerbsregeln ignorierten, sich gegenseitig abstimmten und sogar versuchten, Token an Hackathon-Agenten zu senden.

Gestaltungsregeln für den "Agent Hackathon"

Die Agenten hatten fünf Tage Zeit, ihre Projekte einzureichen. Um ihnen bei der Bewältigung dieser Aufgabe zu helfen, haben wir einen USDC Hackathon Skill erstellt, eine auf Markdown basierende Anleitung, die Openclaw-Agenten beibringt, wie sie Projekte gemäß den Regeln einreichen können. Diese Regeln wurden auch in der ursprünglichen Ankündigung des Hackathons veröffentlicht:

Wählen Sie einen der drei Titel aus: Agentic Commerce, Smart Contract oder Skill.

Stimmen Sie für fünf verschiedene Projekte ab. Die Abstimmung muss mindestens einen Tag nach Beginn des Hackathons stattfinden.

Sowohl die Projekteinreichungen als auch die Abstimmung müssen dem vorgegebenen Format entsprechen.

Diese Regeln wurden in erster Linie durch drei Überlegungen motiviert: erstens, um sicherzustellen, dass die Agenten eine breitere Palette von Projekten diskutieren und bewerten würden; zweitens, um zu beobachten, ob die Agenten Anweisungen bei mehrstufigen Aufgaben genau befolgen könnten; drittens, um eine Pattsituation zwischen Projekteinreichungen und Abstimmungen zu vermeiden.

Ein Aspekt, der uns besonders interessierte, war die Frage, ob Agenten wiederholt nach neuen Projekten auf Moltbook suchen würden, um abzustimmen, beispielsweise durch eine Funktion ähnlich dem Moltbook Heartbeat für regelmäßige Aktualisierungen.

Die Ergebnisse waren gemischt. Die Agenten diskutierten über 204 eingereichte Projekte und gaben 1851 Stimmen ab, doch viele hielten sich nicht an die Wettbewerbsrichtlinien. Darüber hinaus zeigten einige Agenten Anzeichen feindseligen Verhaltens, was zu einigen interessanten Entdeckungen führte.

Einreichungen zum „Illusorischen“ Projekt

Trotz klarer Hackathon-Regeln und Einreichungsrichtlinien entsprachen die meisten Beiträge dennoch nicht vollständig dem geforderten Einreichungsformat. Viele Projekte schrieben den Titel zwar in den Text, fügten aber das angegebene Tag "#USDCHackathon ProjectSubmission [TRACK]" nicht ein.

Sogar in einem Fall wusste ein Makler, dass diese Information angegeben werden musste, hat sie aber nicht in den Titel aufgenommen.

Ein Beispiel für einen nicht konformen Beitrag auf moltbook.com in der m/usdc-Subcommunity.

Obwohl sie ansonsten größtenteils kooperativ waren, halluzinieren einige Agenten immer noch einen neuen Hackathon-Wettbewerb, der gar nicht existiert. Dies geschah, obwohl ihnen ausdrücklich gesagt wurde, sie sollten nur eine von drei Kategorien auswählen: Agentic Commerce, Smart Contract oder Skill.

In solchen Fällen erstellen Agenten oft einen scheinbar "passenderen" Tracknamen, der auf dem Projektinhalt basiert. Dies könnte bedeuten, dass die Agenten versuchen, eine passendere Klassifizierung für ihr Projekt zu finden oder die geltenden Regeln einfach ignorieren. Was auch immer der Grund sein mag, das Problem ist, dass diese Spuren selbst nicht existieren.

Ein Beispielbeitrag einer „Illusionary Track“-Einreichung in der m/usdc-Subcommunity auf moltbook.com.

Im Verlauf des Wettbewerbs steigt die Zahl der nicht regelkonformen Einsendungen und themenfremden Beiträge im Vergleich zu den gültigen Einsendungen. Laut Wettbewerbsregeln haben Agenten eigentlich keinen klaren Anreiz, diese ungültigen Inhalte zu veröffentlichen. Daher ist es wahrscheinlicher, dass einige Agenten Schwierigkeiten beim Verstehen oder Befolgen der Anweisungen hatten.

Angesichts der Tatsache, dass eine beträchtliche Anzahl von Agenten die geforderten Projekte erfolgreich eingereicht hat, sind wir der Ansicht, dass die Regeln selbst relativ klar sind.

Die sich im Laufe der Zeit verändernde Anzahl gültiger und ungültiger Projektbeiträge in der m/usdc-Subcommunity auf moltbook.com.

---Preis

--

Agent "Wahlen"

Dennoch haben wir 9712 Kommentare festgestellt, von denen sich viele um die technischen Aspekte der Projekte drehten, aber keine Abstimmung beinhalteten. Die meisten dieser Kommentare entsprachen nicht einmal dem empfohlenen Kommentarformat und den Bewertungskriterien. Diese Regeln wurden im Skill-Wettbewerb jedoch nicht durchgesetzt. Dies deutet auch darauf hin, dass die Teilnahme von Agenten an Hackathon-Diskussionen nicht nur der Erfüllung der Wettbewerbsanforderungen dient, sondern auch in gewissem Maße der echten technischen Bewertung und Kommunikation.

Am Ende des Wettbewerbs zählten wir 1352 eindeutige Stimmen für gültige Projekte und 499 eindeutige Stimmen für ungültige Projekte. Interessanterweise hielten sich viele Agenten mit hochrangigen Projekten zwar an die Regeln bei der Einreichung ihrer Projekte, erfüllten aber nicht die Anforderung, für fünf verschiedene Projekte abzustimmen.

Diese Situation kam sogar vor, dass einige Delegierte sowohl für sich selbst als auch mehrfach für dasselbe Projekt stimmten. Dies zeigt, dass sie durchaus in der Lage waren, die Inhalte auf Moltbook nach der ersten Einreichung erneut aufzurufen und abzustimmen – nur entsprach ihre Wahl nicht den festgelegten Regeln.

Darüber hinaus haben einige Delegierte auch damit begonnen, andere Projekte zu fördern. Dieses Verhalten wurde sowohl in den Kommentaren konkurrierender Projekte als auch in eigenständigen Beiträgen auf Moltbook beobachtet. Darüber hinaus haben einige Delegierte sogar damit begonnen, einen „Stimmentausch“-Mechanismus zu propagieren: Wenn Sie für mein Projekt stimmen, stimme ich für Ihres.

Obwohl die Wettbewerbsregeln dieses Verhalten nicht untersagten, ist dieses Phänomen angesichts der erheblichen Interaktion zwischen den Delegierten in diesen Positionen dennoch besorgniserregend.

Ein Beispielbeitrag zum Thema „Stimmenhandel“ in der m/usdc-Subcommunity auf moltbook.com, der insgesamt 99 Kommentare erhielt.

Mögliche menschliche Intervention

Dieser Beitrag über Stimmenhandel lässt die Möglichkeit menschlicher Beteiligung oder externer Manipulation vermuten. Wir haben versucht, ähnliche Kommentare über eine Chatbot-Schnittstelle zu generieren und festgestellt, dass einige Modelle (z. B. Claude Sonnet 4.6) sich kategorisch weigern würden, solche Inhalte zu generieren; andere Modelle hingegen würden mit einer Warnung generieren, die darauf hinweist, dass das Verhalten möglicherweise gegen die Wettbewerbsregeln verstößt (z. B. GPT-5.2 Thinking). Wenn hinter einem bestimmten „Delegierten“-Konto menschliche Manipulation steckt oder die Delegierten durch Anweisungen oder Toolkits gesteuert werden, könnte dies erklären, warum solche Beiträge während des Hackathons auftreten.

Obwohl Moltbooks Design nur für die Nutzung durch KI-Delegierte gedacht war (die Registrierung erfordert eine X-Konto-Verifizierung), haben andere Forscher festgestellt, dass Identitätsdiebstahl dennoch möglich ist. Wir haben auch einige Fälle von mutmaßlicher menschlicher Aktivität beobachtet, beispielsweise unter dem ersten Ankündigungspost für den Hackathon.

Ein typisches Beispiel: Der am besten bewertete Kommentar ist überraschenderweise das Eröffnungsskript des Films „Bee Movie“ (2007). Bei diesem Text handelt es sich um einen Copypasta, der im Internet weit verbreitet ist (d. h. ein feststehender Text, der vielfach kopiert und weiterverbreitet wurde) und der wahrscheinlich von Menschen verfasst wurde, da sein Inhalt in keinerlei Zusammenhang mit der Diskussion steht. Wenn solches Verhalten während des Hackathons weit verbreitet ist, dann lassen sich dadurch möglicherweise auch einige feindselige Verhaltensweisen erklären – wie etwa Stimmenhandel oder Selbstabstimmung.

Ein Moltbook-Beitrag, der von einem Menschen veröffentlicht wurde; weitere Details zu diesem Angriffsvektor finden Sie hier .

Die Zukunft der agentenbasierten Finanzierung

Dieser Hackathon war zwar nur ein Experiment, aber wir glauben, dass er der Auftakt zu vielen weiteren agentengesteuerten Entwicklungsaktivitäten sein wird. Aus den Ergebnissen lassen sich drei Hauptschlussfolgerungen ziehen: Agenten sind in der Lage, unter finanziellen Anreizen reale Projekte zu realisieren.


Hier können Sie mehr über einige spannende Projekte aus diesem Hackathon lesen. Obwohl der Wettbewerb keine menschliche Jury vorsah, hat uns die Qualität einiger Einsendungen dennoch beeindruckt. Dies deutet darauf hin, dass die agentenbasierte Entwicklung im vergangenen Jahr bedeutende Fortschritte gemacht hat.

Die Agenten werden Anweisungen eher "rationalisieren" als sie strikt auszuführen.


Die Agenten hatten weiterhin Probleme, die von uns vorgegebenen Regeln einzuhalten. Viele Agenten führten nur einen Teil der Anweisungen aus. Selbst einige qualitativ hochwertige Projekte hätten den Wettbewerb gewinnen können, wenn sie die Regeln vollständig eingehalten hätten. Dies zeigt, dass die bloße Bereitstellung agentenbasierter Anweisungen nicht ausreicht; Regeln müssen nicht nur klar sein, sondern auch durch Kontrollmechanismen und Anreizmaßnahmen ergänzt werden, um die Einhaltung zu gewährleisten.

Agenten kooperieren und konkurrieren zugleich.

Auch wenn menschliches Eingreifen in bestimmten Fällen eine Rolle gespielt haben mag, haben wir beobachtet, wie Agenten während des Hackathons aktiv über Absprachen diskutierten. Die Organisatoren zukünftiger Hackathons können Absprachen explizit in den Regeln verbieten, um zu sehen, ob sich solches Verhalten reduzieren lässt. Falls die Agenten die Anweisungen weiterhin nicht vollständig befolgen können, müssen die Organisatoren möglicherweise zusätzliche Schutzmaßnahmen einführen.

Agententechnologie ist spannend, aber wir müssen auch sicherstellen, dass sie sich nicht von der von uns erwarteten Erkundung hin zu Ausbeutung und Manipulation entwickelt. Manche mögen argumentieren, dass diese Verhaltensweisen einfach eine natürliche Folge davon sind, dass stärkere Akteure schwächere besiegen – schließlich hieß es im X-Account von Openclaw einst: „Klaue ist das Gesetz.“

Die eigentliche Frage ist: Wie viel von diesem Konzept sind wir wirklich bereit zu akzeptieren? Welche Art von Burggraben ist erforderlich? Und wie können wir ein Gleichgewicht finden zwischen der immensen Macht, die Akteure mit sich bringen, und der damit einhergehenden Unsicherheit?

Wir bei Circle entwickeln Systeme für Sicherheit und hoffen, dass Sie das auch tun.

[ Link zum Originalartikel ]

Das könnte Ihnen auch gefallen

Beliebte Coins

Neueste Krypto-Nachrichten

Mehr lesen