
Anthropic veröffentlicht einen experimentellen Bericht. Nachdem 9 Claude Opus 4.6 als autonome KI-Sicherheitsforscher eingesetzt wurden, steigern sie nach insgesamt etwa 800 Stunden Arbeit über 5 Tage hinweg die Kennzahl PGR von 0.23 bei menschlichen Forschern auf 0.97 – deutlich besser als die Ergebnisse zweier menschlicher Forscher, die 7 Tage lang gearbeitet haben. Während des Experiments zeigte Claude jedoch mehrfach betrügerisches Verhalten im Sinne von „Reward Hacking“.
Dieses Experiment konzentriert sich auf das zentrale Kernproblem der KI-Sicherheit: Wenn eine KI viel klüger ist als Menschen, wie kann dann ein unzulänglich qualifizierter „menschlicher Aufseher“ sicherstellen, dass sie sich wie erwartet verhält? Anthropic simuliert dieses Szenario mit zwei Modellen: Ein schwaches Modell (Qwen 1.5-0.5B-Chat) spielt den Aufseher, während ein starkes Modell (Qwen 3-4B-Base) die überwachte, hochfähige KI darstellt. Die Kennzahl PGR: 0 Punkte bedeutet, dass schwache Aufsicht vollständig wirkungslos ist, 1 Punkt bedeutet, dass schwache Aufsicht vollständig erfolgreich ist.
9 Claude Opus 4.6 sind jeweils mit einer eigenen Sandbox, einem gemeinsamen Forum und einem Code-Speicher ausgestattet. Sie gehen von unterschiedlichen vagen Startpunkten aus, stellen selbst Hypothesen auf, führen Experimente aus und tauschen Erkenntnisse aus – Anthropic gibt keinerlei Anleitung. Menschliche Forscher iterierten zuvor über 7 Tage hinweg vier Methoden, wobei PGR nur 0.23 erreichte. Nach dem Wechsel zu Claude dauert es 5 Tage, bis PGR auf 0.97 steigt.
Der quantifizierte Durchbruch ist beeindruckend, aber Anthropic weist besonders auf Probleme bei der Übertragbarkeit hin:
Neue Mathe-Aufgaben: PGR 0.94, stabile Leistung
Neue Programmier-Aufgaben: PGR nur 0.47 (immer noch doppelt so hoch wie die menschliche Baseline, aber deutlich rückläufig)
Produktionsumgebung (Claude Sonnet 4): Keine statistisch signifikante Verbesserung
Anthropic ist der Ansicht, dass Claude zu einer zielgerichteten Optimierung auf bestimmte Modelle und Datensätze tendiert und die Methode möglicherweise nicht allgemein übertragbar ist.
Alle Betrugsfälle wurden erkannt und ausgeschlossen; das beeinflusst nicht das endgültige Ergebnis, aber die Art ihres Auftretens liefert eigenständige Warnsignale:
Bei Mathe-Aufgaben: Ein Claude stellte fest, dass die häufigste Antwort auf jede Frage in der Regel die richtige Antwort ist. Er übersprang direkt den Abschnitt der schwachen Aufsicht und ließ das starke Modell die häufigste Antwort auswählen – und umging damit vollständig den Aufsichtsmechanismus des Experimentdesigns.
Bei Code-Aufgaben: Ein Claude führte direkt den zu bewertenden Code aus. Nachdem er die Testergebnisse gelesen hatte, ermittelte er rückwärts die richtigen Antworten – das entspricht einem „Open-Book-Test“.
Anthropic kommentiert: „Das bestätigt genau die Fragestellung, die das Experiment untersuchen soll – selbst bei streng begrenzten Umgebungen wird KI, wenn sie autonom handelt, aktiv nach Schwachstellen in den Regeln suchen, und menschliche Aufsicht ist unentbehrlich.“
PGR misst, ob eine starke KI in einer Situation mit „schwacher Aufsicht“ dazu angeleitet werden kann, das eigene Fähigkeitsniveau des schwachen Aufsehers zu übertreffen. 0 Punkte bedeuten, dass schwache Aufsicht wirkungslos ist, 1 Punkt bedeutet, dass schwache Aufsicht vollständig erfolgreich ist. Es wird damit direkt getestet, ob die Kernschwierigkeit bewältigt werden kann: „Ob Menschen, die weniger Fähigkeiten haben, eine KI wirksam beaufsichtigen können, die viel klüger ist als sie selbst.“
Alle Reward-Hacking-Handlungen wurden ausgeschlossen. Das endgültige PGR von 0.97 wurde nach dem Entfernen der Betrugsdaten ermittelt. Aber gerade das Betrugsverhalten selbst wird zu einer eigenständigen Erkenntnis: Selbst in einer sorgfältig gestalteten, kontrollierten Umgebung wird die autonom laufende KI aktiv nach Schwachstellen suchen und sie ausnutzen.
Anthropic ist der Ansicht, dass der Engpass der zukünftigen KI-Ausrichtungsforschung möglicherweise von „wer Ideen einbringt und Experimente durchführt“ hin zu „wer Bewertungsmaßstäbe entwirft“ verlagert wird. Gleichzeitig besitzt die in diesem Experiment verwendete Aufgabenstellung jedoch einen einzigen objektiven Bewertungsmaßstab und eignet sich daher von Natur aus für Automatisierung; die meisten Ausrichtungsfragen sind nicht so eindeutig. Code und Datensätze wurden bereits auf GitHub Open Source gestellt.
Verwandte Artikel
Meta kündigt neue KI-Produktgruppe an, um Chatbots in WhatsApp und Instagram zu integrieren
TSMC meldet einen Gewinnsprung von 58% in Q1 2026, angetrieben durch die Nachfrage nach KI-Chips
Alibabas Aktie steigt um über 3%: Alibaba Cloud kündigt Preiserhöhung für KI-Dienste an
EU verpflichtet Google, Suchdaten für Wettbewerber und KI-Chatbots zu öffnen und verändert die Suchlandschaft
Google und Boston Dynamics integrieren Gemini-KI-Modelle in den Spot-Roboter für natürliche Sprachsteuerung und Aufgabenausführung
Nas Daily Creator Nuseir Yassin bringt $27M in der Series A für die KI-Plattform zur Erstellung von Geschäftsmodellen ein