KI stimmt Nutzer/innen zu oft zu
Laut einer im Fachmagazin "Science"
veröffentlichten Studie der US-Uni-
versitäten Stanford und Carnegie
Mellon neigen Anwendungen Künstlicher
Intelligenz dazu, Nutzer/innen nach
dem Mund zu reden und deren Hand-
lungen übermäßig zu bestätigen.
Die schmeichelnden Antworten der
KI-Chatbots könnten demnach schäd-
liche Überzeugungen verstärken und
Konflikte verschärfen. Für die
Studie wurden Experimente mit über
2.
Teilnehmer/innen durchgeführt.