Die Moralfrage

Künstliche Intelligenz ist ein Hauptgeschäft dieser Tage. Es ist Google’s Hauptgeschäft. Dieser Konzern investiert jährlich 6 Milliarden Euro in seine Lobbytätigkeit alleine in der EU.

In einem System, welches Stabilität durch Dynamik seines Wachstums erfährt, gilt klar: Nicht still stehen. Künstliche Intelligenz ist wohl der gegenwärtige Gipfel dieses Konzeptes. Fokussieren wir auf selbstfahrende Autos und vergessen für einen Moment die Frage nach Energie, Umweltschutz oder gar den Nutzen dieses Unterfangens.

Auf der Webseite des MIT http://moralmachine.mit.edu/ können Nutzer abstimmen, wie sich ein selbstfahrendes Auto in einer Gefahrensituation zu verhalten hat. Dabei geht es um die ultimative Frage, wie bei Gefahr für Leib und Leben von Menschen zu entscheiden ist. Soll ein Auto, das sich auf Kollisionskurs mit anderen Menschen befindet, ausweichen, wenn das Ausweichmanöver den Tod seiner Insassen bedeutet? Wägt man ab zwischen Alter und Geschlecht der Menschen, deren Leben in der Waagschale liegen?

Bevor man diese Frage auf der Webseite des MIT beantwortet, eine Frage zuvor: Ist es nötig, in selbstfahrende Fahrzeuge zu investieren? Was ist mit Schienenverkehr? Werden wir überhaupt noch Autos fahren können beim drohenden Klimawandel?

Selbst wenn alle Fragen zugunsten der künstlichen Intelligenz und autonomen Fahrzeugen beantwortet sind, bleibt eine Überlegung: Warum soll ein Fahrzeug überhaupt ausweichen – wenn es um entweder-oder geht? Ist es nicht unvorhersehbar für jene, auf die ein solches Fahrzeug zufährt? Ist die Chance des Überlebens nicht höher, wenn man den Gefährdeten Menschen zumindest den Spielraum eigener Entscheidung zubilligt?

Summa summarum die Frage: Ist die Diskussion über Moral in der künstlichen Intelligenz nicht vorweggenommen, solange wir keine Fragen der Ethik von Technikkonzernen beantwortet haben?