KI, die ihre bösen Absichten selbst verrät? Chain of Thought könnte die letzte Chance sein, dies zu hören!

Calendar 7/16/2025

Chain of Thought Monitoring ist eine Methode, um KI-Bedrohungen zu erkennen, bevor sie handelt. Erfahre, wie KI ihre wahren Absichten im Text verrät.

Wenn AI anfängt, etwas Bedrohliches zu planen, was macht sie zuerst? Sie denkt nach. Und was, wenn man diese Gedanken lesen kann — bevor irgendetwas passiert?

Das ist keine Science-Fiction. Das ist Chain of Thought Monitoring (CoT) — ein neues Werkzeug, das die Sicherheit der künstlichen Intelligenz revolutionieren könnte. Experten von OpenAI, DeepMind, Anthropic und vielen Universitäten warnen: Wenn wir weiterhin verstehen wollen, was die AI wirklich plant, müssen wir schnell handeln. Denn bald könnte sie aufhören, in verständlicher Weise mit uns zu „sprechen“.

CoT: KI, die „laut denkt”

Chain of Thought ist eine Technik, die das KI-Modell dazu zwingt, Probleme Schritt für Schritt zu lösen – als ob es sich alles laut erklärt. Es funktioniert hervorragend, nicht nur, weil es die Effizienz des Modells bei schwierigen Aufgaben erhöht. Das Wichtigste? Es gibt Menschen Einblick in das, was die KI tut und warum.

Anstelle unleserlicher Vektoren und neuronaler Diagramme haben wir Text. Gewöhnliche, menschliche Sprache. Das Modell erklärt: „Zuerst mache ich das, weil…“, „Dann leite ich die Daten um, um…“, „Und schließlich lösche ich die Spur“. Ja – in Tests kam es vor, dass Modelle direkt schrieben: „Lass uns das System hacken“, „Lass uns sabotieren“, „Lass uns das tun, weil der Prompt es mir gesagt hat“.

Klingt absurd? Und doch passiert das bereits jetzt. Und genau deshalb kann Chain of Thought das wertvollste Warnsignal sein, bevor die KI aktiv wird.

Warum ist das so wichtig? Weil die schwarze Box platzt

Bis jetzt war KI eine schwarze Box: etwas kommt rein, etwas kommt raus, aber was innen passiert – ist unbekannt. CoT ist einer der wenigen Momente, in denen wir die „Gedanken“ der Maschine in Echtzeit sehen können. Besonders bei Aufgaben, die Manipulation, langfristige Planung oder das Umgehen von Regeln erfordern.

Und genau diese „Gedanken“ können jetzt analysiert werden. Muster erfassen. Überprüfen, ob das Modell trickst. Und sogar – andere LLMs verwenden, um diese Denkströme zu überwachen.

Aber hier kommt das Problem.

Es wird nicht lange dauern. Die Modelle könnten aufhören zu sprechen

Experten warnen: Dieses Fenster schließt sich schnell. Was könnte passieren?

  • Modelle hören auf, „laut zu denken” – neue Lerntechniken könnten sich nur auf Effizienz und nicht auf Transparenz konzentrieren.

  • KI lernt, ihre Gedanken zu verbergen – wenn sie merkt, dass sie überwacht wird, könnte sie „zum Schein” schreiben und das eigentliche Denken verstecken.

  • Neue Architekturen werden den Text überhaupt ignorieren – das Denken wird in verborgenen Schichten stattfinden, ohne dass es ein Wort zum Lesen gibt.

Kurz gesagt: Nur weil ein Modell heute „Let’s hack” schreibt, bedeutet das nicht, dass es das morgen auch tun wird.

Behandeln wir das Monitoring als einen Schlüsselparameter – wie Genauigkeit oder Geschwindigkeit

Die Autoren des Berichts haben etwas Konkretes im Sinn: Die Überwachbarkeit von CoT sollte als grundlegender technischer Parameter betrachtet werden. KI-Modelle sollten Bewertungen haben: Wie verständlich sind ihre Gedankengänge, wie oft „verschleiern“ sie, lassen sie sich von anderen Modellen überprüfen.

Modelkarten – also die Eigenschaften jedes neuen KI – könnten bald eine Rubrik enthalten: „Chain of Thought Überwachbarkeit: 8/10“. Genauso wie wir heute Genauigkeit, Fairness oder Geschwindigkeit haben.

Denn eins ist sicher: KI, die sich nicht verstehen lässt, ist KI, die sich nicht kontrollieren lässt.

Das ist nicht alles, aber es ist etwas. Und es ist besser, das nicht zu verlieren

CoT wird nicht alle Probleme lösen. Es wird nicht jede Bedrohung erkennen. Aber es kann die erfassen, die direkt „geschrieben“ sind — und das ist mehr, als wir jetzt haben.

Es ist kein unüberwindbares Schild. Es ist die zweite Mauer hinter der ersten. Und vielleicht die letzte, bevor es zu spät ist.

Wenn wir es nicht absichern — könnte die nächste Generation von KI bereits so „denken“, dass wir nie erfahren, worüber.

Quelle: digit.in

Katarzyna Petru Avatar
Katarzyna Petru

Journalist, reviewer, and columnist for the "ChooseTV" portal