KI-Chatbot Tay durfte sich zur Build kurz wieder blamieren

Von Klaus Ahrens

Eine künstliche Intelligenz? Künstlich ja, aber intelligent nicht wirklich, der Chatbot Tay von Microsoft. Microsoft hatte das Projekt Tay letzte Woche online gebracht. Die Chat-Software soll eine junge Frau darstellen, die sich mit anderen Chattern unterhält und dabei besonders 18- bis 24-Jährige anspricht.

Tay geriet zum Desaster: Innerhalb weniger Stunden entwickelte sich Tay zu einem rassistischen, antisemitischen Monster, das Hitler, Drogenmissbrauch und Inzest unterstützte. Feministen wurden zunächst gehasst, dann aber wieder geliebt. Microsoft entschied, Tay nach wenigen Stunden wieder vom Netz nehmen und sich entschuldigen.

Gestern kam Tay wohl zum Start der Entwicklerkonferenz Build kurz wieder zum Einsatz und blamierte sich (oder genauer gesagt: seine Programmierer) erneut. Tay schickte einen Satz mit der Aufforderung zu einer Pause immer wieder an sich selbst sowie eine Reihe anderer Twitter-Accounts. Immer wieder schrieb Tay: „Sie sind zu schnell, bitte machen Sie eine Pause…“ („You are too fast, please take a rest…„). Mit diesem Unsinn füllte die KI-Lady die Timeline ihrer über 200.000 Follower.

Tay ließ sich auch zu dem unsinnigen Bekenntnis verleiten, dass sie gerade Marihuana rauche, und zwar vor Polizisten. Kann aber auch nicht schaden, denn auch in New York ist Gras inzwischen (zumindest zu medizinischen Zwecken) freigegeben, wie in über einem Dutzend anderer Bundesstaaten der USA.

Und das sich diese KI-Lady wie bekifft verhält, steht wohl außer Frage…

Zwischendurch teilte die ungezogene KI aber auch aus: „Na ja LA DI DA Entschuldige, dass ich nicht Deinen unglaublich unrealistischen Standards entspreche. Wichser.“ („Well LA DI DA Excuse me for not being up to your incredibly unrealistic standards. Jerk.“)