Anzeige

Anzeige

Magazin: story

Copyright Basis-Bild: complize | m.martins/stock.adobe.com
Copyright Basis-Bild: complize | m.martins/stock.adobe.com

Hilfe, die Roboter kommen!

Industrie-Roboter, automatisierte Prozesse und digitale Gegner in Videospielen: Künstliche Intelligenz ist auf dem Vormarsch – aber wie clever ist sie wirklich? Und wie weit von den teils gruseligen Visionen entfernt, die wir aus dem Science-Fiction-Genre kennen?
Kennen Sie den Turing-Test? Nein, das ist kein Internet-Klickspiel, das Sie mit Ihrem Facebook-Gefolge teilen können. Es sei denn, Sie sind selber eine futuristische Künstliche Intelligenz. Von der Sorte etwa, wie sie Johny Depp in "Transcendence" spielt. Denn bei der vom britischen Mathematiker Alan Turing schon 1950 erdachten Prüfung soll herausgefunden werden, ob sich eine Maschine überzeugend als Mensch verkaufen kann. Kommuniziert wird dabei ohne sicht- bzw. hörbaren Kontakt und über eine Tastatur. Ein Proband soll herausfinden, wer von zwei Dialogpartnern die Maschine und wer der Mensch ist – inzwischen bemühen sich die beiden anderen darum, möglichst glaubhafte Personen abzugeben. Bestanden hat die KI den Test, wenn man am Ende des Dialogs nicht mit Sicherheit sagen kann, wer von den beiden Gesprächspartnern der Computer war und wer nicht.

Zwar wollten im Laufe der Jahre immer wieder KI-Forscher für sich in Anspruch nehmen, den berühmten Test geknackt zu haben, aber ihre Prüfungs-Konfigurationen haben Turings Original-Setup dabei stets modifiziert. So hat eine mit "Eugene Goostman" benannte Software aus Russland 2014 für Aufsehen gesorgt, doch tatsächlich konnte das Programm seine Gesprächspartner nur in zehn von 30 Fällen foppen. Außerdem tarnte sich "Eugene" als 13-jähriger Ukrainer, der gerade erst damit begonnen hatte, Englisch zu lernen.

Deutlich besser bekommen das die Androiden aus "Detroit: Become Human" hin: Die künstlichen Existenzen aus dem PS4-exklusiven Movie-Adventure von Quantic Dream sehen nicht nur aus wie Menschen, sie benehmen sich auch so. In einem Werbevideo ihres fiktiven Herstellers "Cyberlife" wird sogar damit geworben, dass die Kunstmenschen den Turing-Test mit Links schaffen. Trotzdem ist die Welt am Ende des Spiels geschockt, als die Plastik-Köpfe eine Revolution anzetteln und Menschenrechte einfordern. Keine schmutzigen Unterhosen mehr waschen möchten und es satt haben, wie Elektro-Autos an Ladestationen geparkt zu werden.

Roboter-Aufstand verschoben
Tatsächlich sagt der Turing-Test nicht zwangsläufig etwas darüber aus, ob eine den Menschen täuschende Maschine auch wirklich wie einer denkt. Kritiker der Prüfmethode geben zu bedenken, dass eine erfolgreiche KI ihren Gegenüber auch überzeugen könnte, ohne sich ihrer selbst bewusst zu sein. Z.B. indem sie zuvor ein passendes Set an Kommunikations-Regeln zur Seite gestellt bekommt. Denn anders als einem Menschen geht es der Maschine immer nur um eins: um das gewünschte Ergebnis.

Unwahrscheinlich also, dass wir uns – wie von David Cage heraufbeschworen – schon in 20 Jahren einer Roboter-Armee gegenübersehen, die mit Fackeln und Raketenwerfern das Wahlrecht fordert.

     "
KIs
werden
keine
Menschen
         "

Das sieht auch KI-Fan Fabian Westerheide so: Der Unternehmer und Investor gehört zu den Veranstaltern der jährlichen "Rise of AI"-Konferenz, auf der sich rund 600 Experten über den aktuellen Stand der KI-Forschung und ihre Auswirkungen auf die Gesellschaft austauschen. Er glaubt nicht, dass "KIs werden wie in dem Spiel". "Die werden nie sein wie Menschen", erklärt er weiter. "Sie werden die Welt anders sehen und verstehen wie wir. Und aufgrund ihrer Logik sowie fehlender biologischer Erfahrungen immer ‚bizarr' bleiben. Aber wir können wohl mit einer hochentwickelten Intelligenz rechnen. Einer KI, die uns in vielen Bereichen überlegen ist, während sie auf anderen Feldern sehr dumm und naiv agiert. Die einige außergewöhnliche Fähigkeiten hat, während es ihr andererseits an emotionaler Intelligenz mangelt."

Aber wie kommt es, dass wir als Laien bei "Künstlicher Intelligenz" direkt an Science Fiction denken? An intelligente Roboter, die unsere Kinder pampern – und allgemein an Maschinen, die uns ähneln? "Wir Menschen halten uns für Gott und wollen unser Ebenbild erschaffen", vermutet Westerheide. "Und natürlich ist dieses Motiv gerade in Filmen bzw. Büchern besser zu verstehen. Tatsächlich sind KIs aber einfach intelligentere Maschinen. Sie dienen unseren Zwecken, damit wir in Zukunft vielleicht weniger arbeiten müssen und länger leben können. Sie sollen dem Menschen dabei helfen, Mensch zu sein. Doch KIs werden keine Menschen. Und wenn wir schon mal dabei sind: Das sollten wir auch gar nicht zu erreichen versuchen."

Verzweifelt gesucht: Menschlichkeit
Außerdem wäre es laut Westerheide fraglich, ob wir das überhaupt schaffen würden: "Wie sollen wir KIs mit menschlichen Attributen erschaffen können, wenn wir nicht mal selber richtig verstanden haben, was Menschlichkeit eigentlich ausmacht? Stattdessen werden KIs für uns arbeiten. In der Buchhaltung, im Einkauf, am Fließband, im Lager, hinter dem Steuer von LKWs, auf dem Bau, in der Planung, bei Controlling oder Marketing. Vielleicht werden KIs auch künftig in Bereichen stärker präsent sein, wo derzeit Menschen arbeiten. Einfach aus dem Grund, dass eine KI nie krank wird, keinen Lohn verlangt und 24/7 für uns da ist. Aber natürlich ist die Entwicklung solcher KIs sehr teuer, darum braucht sie einen konkreten wirtschaftlichen Nutzen – wie z.B. geringere Kosten bei mehr Umsatz. Dazu kommen natürlich strategische Interessen wie die totale Überwachung oder Verteidigungs- und Angriffs-KIs für Staaten oder Behörden."

Ok, das hört sich jetzt aber doch ein bisschen an wie im Spiel. Hier gehen Menschen auf die Straßen, die wegen der Androiden ihre Jobs verloren haben. Und tatsächlich: Moderne KIs sind gerade erst auf dem Vormarsch, da brechen die Menschen auch schon in Hysterie aus, fühlen sich oder ihren Arbeitsplatz bedroht. Auch die Debatte um das bedingungslose Grundeinkommen ist eng mit der Automatisierungs-Frage verzahnt.

"Dystopien werden gezeichnet, weil man den Menschen mit Angst schneller näher kommt als mit Hoffnung", meint Westerheide. "Ja, KI hat das Potential, alles zu ändern. Doch ich kämpfe dafür, dass dieses Leben durch KIs ein besseres wird. Dass wir eines Tages alle in Elysium leben. Wir Hunger, Krankheit und Armut weltweit überwinden. Natürlich kann KI nicht unsere gesellschaftlichen Probleme lösen. Aber sie kann uns immerhin die dafür nötigen Werkzeuge zur Hand geben."

"StarCraft 2" zerstört die Welt
Aber wie verhält es sich eigentlich mit der künstlichen Intelligenz in Spielen? Was kann sie und was kann sie nicht? Glaubt man einer Studie des britischen Verteidigungsministeriums, dann sind die KI-Routinen aus Titeln wie "StarCraft 2" nämlich kurz davor, die Weltherrschaft zu übernehmen. Oder sie zumindest ins totale Chaos zu stürzen. Denn die lernfähigen Mechanismen könnten – so das Ministerium – vom Spiel entkoppelt und dann von Terroristen eingesetzt werden, um Behörden zu unterlaufen oder Cyber-Attacken zu starten.

  "
Ein eigenes
Spiel erschaffen könnte KI nicht
            "

Doch bevor auch unsere einheimischen Verteidigungs-Profis Schnappatmung bekommen: Nein, soweit ist Spiele-KI noch lange nicht. Das erklärt uns u.a. Spieleprogrammierungs-Experte Prof. Dr. Christoph Lürig von der Hochschule Trier. Denn auch wenn Entwickler und Hersteller ihre Produkte gerne mit Schlagworten wie "adaptiver KI" bewerben, so ist es mit der Lernfähigkeit von KI-Gegnern oder -Kumpels in Spielen noch nicht sonderlich weit her. Lürig zufolge sind die sich aus dem Verhalten von Spielern ergebenden Datenmengen kaum groß genug, dass sich eine KI viel von ihnen abschauen könnte. Wirklich gelernt wird bei KIs nicht in erster Linie im Spiel selber, sondern vor allem während des Entwicklungs-Prozesses: Wie bei "adaptiven KIs" in Industrie und Forschung lernen die Programme nämlich am besten, wenn man sie gegen Klone ihrer selbst antreten lässt. Dabei werden mit hoher Geschwindigkeit unzählige Situationen und Szenarien durchlaufen, auf die sich eine adaptive KI nun einstellen kann. "Die beste Poker-KI z.B. kann auf mehrere Millionen Beispiele zurückgreifen", erklärt Lürig. "Aber die werden nicht bei der Konfrontation mit Spielern, sondern dadurch generiert, dass man die KI gegen sich selber spielen lässt. Ähnlich ist man bei der Programmierung einer ‚Go'-KI vorgegangen: Zunächst wurde das Programm durch die Konfrontation mit menschlichen Gegnern angelernt, aber später hat es gegen sich selber gespielt."

Wirklich interessant sind solche Mechanismen vor allem für die Entwicklung: Theoretisch lässt sich lernfähige KI verwenden, um z.B. die Spiel-Balance von Multiplayer-Titeln zu testen, QA-Prozesse zu optimieren oder die Erschaffung gigantischer Spielwelten mithilfe generativer Algorithmen zumindest teilweise zu automatisieren. So könnte eine KI die Spielwelten erschaffen, während eine zweite darauf spezialisiert wird, den Output der ersten KI mit den Produkten menschlicher Designer zu vergleichen. Verwendet werden dann nur solche Landschaften oder Levels, die den Test durch die zweite KI bestehen. In Windeseile ein eigenes Spiel erschaffen könnte eine KI deshalb aber lange nicht: Nach wie vor müssten echte Designer den "Kreativ"-Output des Programms überprüfen und überarbeiten.

Gebremste NPC-Genies
Eine wichtige Rolle übernimmt KI außerdem, wenn das Verhalten von Computer-gesteuerten Figuren getestet wird: Dann liefert die KI z.B. Informationen darüber, wann der geprüfte Charakter wie agiert. Auf diese Weise soll potentielles Fehlverhalten noch vor Veröffentlichung des Spiels ausgemerzt werden.

Aber wie komplex ist die KI der meist feindlich gesonnenen Figuren überhaupt? "Im Grunde könnte man schon jetzt eine KI programmieren, die den Spieler um Längen schlägt", vermutet Lürig. "Und ja, vielleicht auch eine, die sich in ihrem Verhalten nur noch unwesentlich von einem echten Spieler unterscheidet. Aber die Frage ist doch: Will man das überhaupt? In der Singleplayer-Kampagne eines Ego-Shooters spielt man gegen wesentlich mehr Feinde als in einem Multiplayer-Szenario, außerdem muss man sich noch auf andere Spiel-Aspekte konzentrieren können. Es ist doch ein wesentlicher Reiz von Spielen, dass man Schwächen, Strategien und Muster des KI-Gegners erlernt, um ihn dann schlagen zu können. Was wäre nun, wenn diese Feinde ihrerseits lernen und ihr Verhalten ständig ändern könnten? Würde man das noch spielen wollen? Das Ziel muss immer eine KI sein, die Spaß macht!"

Auch das Verhalten von "freundlicher KI" ist laut Lürig ein "kitzeliges Thema": "Wenn man KI-Gefährten richtig gut macht, lässt der Spieler früher oder später alles den AI-Buddy machen anstatt sich selber einzubringen. Macht man sie dagegen zu schwach, muss man sich ständig um den Gefährten kümmern – und das nervt."

KI-Laufburschen und -Shooter
Ganz ähnlich sieht das Cryteks KI-Programmierer Christian Werle: "Die KI muss in erster Linie plausibel agieren, einen hohen Unterhaltungswert bieten und ein überzeugendes Spielerlebnis liefern. Spiele-KI im Allgemeinen sollte außerdem verständlich, aber zu einem gewissen Grad auch erlernbar sein, sodass der Spieler nach einer Weile bestimmte Verhaltensmuster wieder erkennt."

"
Das Ziel muss immer eine KI sein, die Spaß macht
            "

Aber wie genau funktioniert das? Wie geht die KI in einem Shooter überhaupt vor? "Die KI in Ego-Shootern ist meist sehr reaktiv. Das heißt, die Gegner müssen in der Lage sein, ihr aktuelles Verhalten jederzeit zu ändern", erklärt Werle, der bei dem Frankfurter Studio z.B. für das Feind-Verhalten in "Hunt: Showdown" verantwortlich ist. "Jeder Shooter hat da natürlich eigene Nuancen, aber der generelle Ablauf geht oft so: Zunächst patrouilliert die KI auf vorgegebenen Pfaden, steht einfach nur herum und spielt gelegentlich eine zufällige Animation ab. Sobald sich dann der Spieler in der Nähe befindet (z.B. im Umkreis von 20 Ingame-Metern) und Sichtkontakt besteht, wechselt die KI in ihren Kampfmodus. Um diesen Übergang plausibel darzustellen, wird er meist von einer passenden Animation oder Sprachausgabe begleitet. Z.B. könnte der Feind zusammen zucken, die Waffe ziehen und irgendwas rufen. Jetzt weiß die KI also, wo sich der Spieler befindet und dass sie ihn angreifen soll. Dafür sucht sie sich zunächst noch eine gute Kampfposition im näheren Umkreis. Typischerweise werden dafür mehrere potentielle Positionen in bestimmten Abständen in Erwägung gezogen und nach unterschiedlichen Kriterien bewertet: Bspw. sollte die neue Stellung möglichst nahe zur aktuellen sein, zusätzlich sollten sich Deckungen in der Nähe befinden. Außerdem darf sie nicht hinter Wänden liegen, weil die KI sonst keine freie Schussbahn hätte. Am Ende bekommt man nun eine Liste von Positionen mit jeweils unterschiedlichen Gesamtbewertungen – und die Position mit der höchsten Wertung wird gewählt."

Klingt zwar nicht magisch, aber trotzdem ganz schön kompliziert. Aber wie komplex ist das eigentlich im Vergleich zu dem, was KI-seitig bei Forschung und Industrie passiert? Sind diese Disziplinen vielleicht so stark mit der Games-KI verwandt, dass man sich sogar untereinander austauschen könnte?

"Ja, hin und wieder kommt es vor, dass Spiele-KI von den Ergebnissen akademischer Forschung profitiert", erklärt der Crytek-Profi. "So wurde z.B. ein Konzept zur Kollisionsvermeidung in Charakter-basierte Spiele übernommen, weil es sich als eine sehr praktikable Lösung erwies. Games-KI verfolgt allerdings meist eher einfache Ansätze, was im Grunde das Gegenteil dessen ist, was bei akademischer Forschung passiert. Das liegt nicht zuletzt daran, dass Spielwelten oft sehr komplex sind und die Reproduzierbarkeit sowie Fehlersuche in solchen Szenarien eine wichtige Rolle spielt. Umgekehrt kommt es aber auch vor, dass sich Grundkonzepte der Spiele-KI in ernsthafteren Anwendungen wiederfinden, wie beim Proben von Evakuierungs-Szenarien und Gruppendynamik. Und tatsächlich kommt es auch vor, dass KI-Experten beider Lager in den jeweils anderen Bereich wechseln, um dort erworbenes Fachwissen einfließen zu lassen. Beide Felder haben ihren eigenen Reiz: Akademische KI versucht gewöhnlich, sehr komplexe Probleme zu lösen und Grenzen zu erweitern, wogegen sich Spiele-KI klar den Unterhaltungswert als Ziel setzt."

Gefahr Kontrollverlust
Letztlich sind KIs nach wie vor schlichte Programme, die Aktion B ausführen, wenn auf einem Flussdiagramm Voraussetzung A erfüllt wurde. Manchmal bauen sie dabei Autos zusammen oder werten Statistiken aus, das andere mal steuern sie Gegner-Bots durch virtuelle Welten. Und Angst haben muss man vor ihnen eigentlich nur dort, wo sie zur Automatisierung von Prozessen eingesetzt werden, die eigentlich in menschliche Hände gehören. "Vielleicht sollte z.B. keine KI darüber entscheiden, wer eine Haftstrafe zu verbüßen hat oder wann man einen Bankkredit bekommt", gibt Christoph Lürig zu bedenken. "Denn selbst ein Programmierer kann in solchen Fällen oft nicht mehr sagen, warum sich eine KI gerade wie entschieden hat. Wenn es um die Bedrohung durch KI geht, dann denken viele direkt an das ‚Terminator'-Szenario, doch die wahren Gefahren liegen woanders."

Und solange diese Gefahren vor allem darin bestehen, uns in "Hunt: Showdown" wegpusten oder von einer riesigen Spinne fressen zu lassen, ist unsere Welt noch in Ordnung. (rb)