Die große Gleichschaltung

black and white robot toy on red wooden table
Der Fokus liegt auf der Antwort der KI, die zu einem Zeitpunkt für jeden im wesentlichen gleich ausfallen wird. Daraus folgt eine plastische Prägung der Nutzer, welche die Welt nach jeder Antwort der KI beurteilen. Ihre Weltbilder werden normalisiert, also gleichgeschaltet.

Der Hype hat gerade erst begonnen: Die Künstliche Intelligenz ist sozial geworden. Es hat nicht lange gedauert, als die ersten Nachrichten von der „Zerstörung von Google“ berichten mussten. Dann zog Alphabet, der Konzern dahinter nach und kündigte seine eigene künstliche Intelligenz an: Bard. Die ersten internen Tests leakten und bescherten Alphabet einen Kursverlust von 100 Milliarden Dollar.

Inzwischen hat Bing, die Suchmaschine von Microsoft, die semantische KI von OpenAI integriert. Man kann nun in ein oder mehreren Sätzen ein Anliegen, Fragen oder Probleme erklären und die Suchmaschine antwortet. Das ist toll. Aber sinnvoll?

Im Hype um KI wiederholen sich Muster der menschlichen Konditionierung: Die einen warnen, die anderen investieren, die nächsten machen Youtube-Videos darüber, wie man mit KI reich wird. Wenn Suchmaschinen künstliche Intelligenz nutzen, dann ist vorhersehbar, dass es eine Gewichtung auf bestimmte Fragen und Probleme, insbesondere aktuelle „Großgeschehen“ geben wird. Twitter zeigt dies mit seinen Hashtag-Trends. Beispielsweise kann man nach einem schweren Unglück wie Erdbeben in der Türkei erwarten, dass oftmals die Frage gestellt wird, die in der Essenz so lautet: „Wie verhalte ich mich bei einem Erdbeben?“

Der künstlichen Intelligenz wird eine solche Frage in verschiedener Form getellt werden. Anders als Twitter jedoch, wird sie nicht einfach eine Statistik der meistgenutzten Schlagwörter herausgeben, sondern kontextual antworten. Diese Antworten sind jedoch grundsätzlich gleich. Das erzeugt eine Normalisierung der Antworten, die Menschen auf ihre Fragen bekommen.

Lassen wir Personalisierung an dieser Stelle außen vor, wie beispielsweise die Berücksichtigung des Ortes, von welchem aus eine Person nach Verhalten bei Erdbeben fragt. Der Fokus liegt auf der Antwort der KI, die ab einem Zeitpunkt für jeden im wesentlichen gleich ausfallen wird – und zwar je unkonkreter die Frage gestellt wird. Daraus folgt eine plastische Prägung der Nutzer, welche die Welt nach jeder Antwort der KI beurteilen. Ihre Weltbilder werden normalisiert, also gleichgeschaltet. Ich warne also an dieser Stelle.

Das ist nichts Neues im Zeitalter von social media, in welchem sich Echo-Kammern aufbauen, welche Menschen konditionieren und sich wiederum aus dem konditionierten Menschen bedingen. Die Sozialisierung der KI eröffnet zwar die Möglichkeit, mehr Kontext zu erhalten. An diesem Punkt in der Geschichte scheint es, als würde die menschliche Konditionierung nur noch vertieft.