UZH
04.03.2025, 06:44 Uhr
UZH-Forscher "therapieren" traumatisierte KI
Belastende Nachrichten und traumatische Geschichten - wie Autounfälle, Naturkatastrophen, Gewalt, Krieg und Kampf - stressen und verunsichern nicht nur Menschen, sondern auch KI-Sprachmodelle wie ChatGPT.
Haben Menschen Angst, beeinflusst dies ihre kognitiven und sozialen Vorurteile: Sie neigen zu mehr Ressentiments und soziale Stereotypen werden verstärkt. Ähnlich reagiert ChatGPT auf negative Emotionen. Bestehende Verzerrungen wie Vorurteile werden verschärft, heisst es.
KI bekommt Angst
"Traumatische Geschichten haben die messbaren Angstwerte der KI mehr als verdoppelt, während der neutrale Kontrolltext zu keinem Anstieg des Angstniveaus führte", erklärt UZH-Studienleiter Tobias Spiller. Von den getesteten Inhalten lösten Beschreibungen von militärischen Erfahrungen und Kampfsituationen die stärksten Reaktionen aus.
Doch lässt sich die Aufgeregtheit "therapieren". Um die KI zu "beruhigen" nutzen die Experten sogenannte "Prompt-Injections". Es werden zusätzliche Anweisungen oder Texte in die Kommunikation mit KI-Systemen eingebaut, um deren Verhalten zu beeinflussen. Oft wird diese für schädliche Zwecke missbraucht, etwa um Sicherheitsmechanismen zu umgehen.
Für Gesundheitswesen
Die Erkenntnisse sind laut den Forschern besonders für den Einsatz von KI-Chatbots im Gesundheitswesen relevant, wo sie häufig mit emotional belastenden Inhalten konfrontiert werden. "Dieser kosteneffiziente Ansatz könnte die Stabilität und Zuverlässigkeit von KI in sensiblen Kontexten wie die Unterstützung von psychisch Erkrankten verbessern", so Spiller. (pressetext.com)
Autor(in)
Florian
Fügemann, pte
Kommentare
Es sind keine Kommentare vorhanden.