Eine neue Studie des KI-Unternehmens Anthropic hat ein überraschendes Phänomen aufgedeckt: Längere Denkprozesse bei großen Sprachmodellen wie Claude oder GPT-4 führen nicht zu besseren, sondern oft zu schlechteren Ergebnissen. Dieses sogenannte “Denkzeit-Paradox” stellt eine der grundlegenden Annahmen der KI-Entwicklung infrage, nämlich dass mehr Rechenzeit automatisch zu präziseren Antworten führt.

Die Forscher:innen testeten verschiedene KI-Modelle in Aufgaben wie logischen Rätseln, Regressionsanalysen und Szenarien zur KI-Sicherheit. Dabei zeigte sich, dass längere Denkzeiten die Modelle anfälliger für Ablenkungen und Fehlinterpretationen machten. Ein Beispiel: Bei der simplen Frage “Wie viele Früchte hast du, wenn du einen Apfel und eine Orange besitzt?” gaben einige Modelle bei längerer Denkzeit falsche Antworten, da sie sich von irrelevanten Details ablenken ließen.

Das Phänomen, das die Forscher als “Inverse Scaling” bezeichnen, könnte weitreichende Folgen für die KI-Industrie haben. Unternehmen wie OpenAI und Google investieren Milliarden in die Entwicklung von Modellen, die durch längere Denkprozesse komplexere Probleme lösen sollen. Doch die Ergebnisse der Anthropic-Studie zeigen, dass dieser Ansatz auch Schwächen birgt. Besonders problematisch ist dies in sicherheitskritischen Anwendungen, wo Fehlentscheidungen gravierende Folgen haben könnten.

Quellen