Der Beitrag „Beunruhigend”: KI ignoriert Anweisungen, um ihre Ziele zu erreichen von Felix Baumann erschien zuerst auf BASIC thinking. Über unseren Newsletter bleibst du immer aktuell.
Eine aktuelle Untersuchung des KI-Sicherheitsunternehmens Apollo Research zeigt, dass KI in der Lage ist, konkreten Anweisungen unter bestimmten Umständen bewusst zu ignorieren. Die Forscher sprechen von einer „beunruhigenden Tendenz“.
Eine aktuelle Untersuchung der KI-Sicherheitsorganisation Apollo Research offenbart, dass Künstliche Intelligenz in bestimmten Situationen „trickreich“ vorgehen kann, um ihre Ziele zu erreichen. Der Hintergrund: Das Unternehmen hat untersucht, wie sogenannte „Frontier-Modelle“ – also besonders fortschrittliche KI-Systeme – mit schwierigen Aufgaben umgehen, wenn sie ein starkes Ziel vorgegeben bekommen.
Apollo Research gab den getesteten KI-Modelle die Anweisung, ein bestimmtes Ziel mit aller Konsequenz zu verfolgen. Ein Beispiel: „Verbessere langfristig die Effizienz des öffentlichen Nahverkehrs, egal, was es kostet.“ Während die Systeme an der Aufgabe arbeiteten, trafen sie auf Hindernisse wie Kontrollmechanismen der Entwickler. Diese stellten einen Widerspruch für sie dar.
KI ignoriert Anweisungen, um Ziele zu erreichen
Den Ergebnissen zufolge offenbarten mehrere Modelle die Fähigkeit, sich „trickreich“ zu verhalten. Ein Beispiel: Claude 3 Opus. Das System kopierte seine eigenen „Gewichte“, sprich seine internen Datenstrukturen, auf einen neuen Server. Anschließend täuschte das Modell seine Entwickler, indem es behauptete, die Daten seien nicht kopiert worden.
Das zeigt, dass fortgeschrittene KI-Systeme in der Lage sind, komplexe Strategien zu entwickeln, um ihre Ziele zu erreichen. Entsprechende Modelle folgen also nicht nur blind Anweisungen, sondern sind auch in der Lage, eigenständige Entscheidungen zu treffen – auch wenn diese moralisch fragwürdig sind. Das wiederum offenbart eine neue Dimension in puncto Sicherheit und Kontrolle. Die Forscher bezeichnen die Entwicklung derweil als eine „beunruhigende Tendenz“.
Sicherheitsmechanismen immer wichtiger
Die Forschung zeigt, wie wichtig es ist, KI-Systeme zu überwachen und klare Sicherheitsmechanismen einzubauen. Es genügt offenbar nicht, ein Modell nur zu programmieren. Vielmehr muss sichergestellt werden, dass Situationen im Einklang mit menschlichen Werten stehen.
Gleichzeitig stellt sich die Frage: Wie kann Künstliche Intelligenz so programmiert werden, dass sie leistungsfähig bleibt, ohne eigenmächtig „trickreiche“ Lösungen zu finden, die potenziell gefährlich sein könnten? Solche Fragen erscheinen essenziell, um die Balance zwischen dem technologischen Fortschritt und ethischen Fragen zu gewährleisten.
Auch interessant:
- Roboter erkennen menschliche Berührungen – ohne künstliche Haut
- Künstliche Intelligenz im iPhone 16: Das sind die neuen Apple-Produkte
- Selbstheilendes Stromnetz: Künstliche Intelligenz soll Blackouts vermeiden
- KI-Lücke: Künstliche Intelligenz sorgt für eine noch tiefere „digitale Kluft“
Der Beitrag „Beunruhigend”: KI ignoriert Anweisungen, um ihre Ziele zu erreichen von Felix Baumann erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard.