KI-Programm von Microsoft wegen Rassismus abgeschaltet

TayKIEin rassistisches Programm – geht das denn überhaupt? Klare Antwort: Nein – beim aktuellen Stand der Technik geht es noch nicht. Allerdings ist es meines Erachtens nur eine Frage der Zeit.

Die KI „Tay“ ist ein Chatbot

Microsoft hat vorgestern ihr KI-Programm (KI=Künstliche Intelligenz) namens „Tay“ als Chatpartner in Messengern und Sozialen Netzwerken wie Twitter, Groupme und Kik auf die User losgelassen. Diese KI könnte man treffend auch einen Chatbot nennen. Tay soll vom Verhalten her an in den USA wohnende Menschen zwischen 18 und 24 Jahren als Zielgruppe angepasst sein.

Rassistisch waren die User, nicht das Programm

Nach nur einem Tag hatten es die Benutzer geschafft, Tay durch diverse Tricks massenhaft zu rassistischen Entgleisungen zu verleiten. Die User brachten Tay unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verleugnen und auch Schwarze zu beleidigen. Auch frauenfeindliche Äußerungen konnten sie der KI entlocken.

Ein Großteil dieser Tweets wurde zwar wieder gelöscht, einige waren aber auch gestern noch zu finden. Nach ein paar Stunden verkündete das Programm über seinen Twitter-Account „@TayandYou“, nach so vielen Gesprächen müsse es schlafen und ging dann vom Netz.

Der Apfel fällt nicht weit vom Stamm

Da müssen die Programmierer von Tay sich durchaus fragen lassen, wie es denn um ihre eigene Intelligenz (und Lebenserfahrung) bestellt ist, wenn Sie dieses Verhalten der chattenden Menschen nicht vorhergesehen und Tay keine passenden Routinen gegen einen solchen Super-GAU (Größter Anzunehmender Unfall) mitgegeben haben…


wallpaper-1019588
Gesunde Snacks: Lebensmittel mit wenig Kalorien
wallpaper-1019588
Gesunde Snacks: Lebensmittel mit wenig Kalorien
wallpaper-1019588
Gesundheitsrisiken durch mangelnden Sitzkomfort: Was Sie wissen sollten
wallpaper-1019588
#1510 [Review] Manga ~ L-DK