Der Einsatz von Generative AI in der Spielebranche

Sie programmiert, übersetzt, komponiert, schreibt Konzepte und erzeugt Bilder: Generative Artificial Intelligence erobert immer mehr Lebensbereiche. Auch in der Games-Branche kommt Generative AI immer häufiger zum Einsatz – und beeinflusst dabei Jobs, Firmenstrukturen und Spielinhalte. In der vorigen Ausgabe (IGM 09) haben wir untersucht, wie KI die Handlung von Games verändern könnte. Im vorliegen­den Artikel geht es nun gleich um zwei Fragen. Erstens: Wie beeinflusst KI ganz konkret die Arbeit eines Studios? Und zweitens: Welche rechtlichen Fallstricke sind mit ihrem Einsatz verbunden?
30. Juli 2023 - 13:05
Image

KI-Tools sind für viele Menschen mittlerweile fester Bestandteil des Alltags – und erschließen immer neue Nutzergruppen. Der Übersetzungsdienst DeepL beispielsweise war bis vor kurzem noch ein Geheimtipp, hat aber – dank seiner verblüffender Genauigkeit – in den letzten Monaten massiv neue Nutzer hinzugewonnen. Andere KI-Tools sind gerade erst dabei, sich im Mainstream zu etablieren: ChatGPT erstellt Texte und Konzepte, Bard und Bing AI helfen bei der Internetsuche, Midjourney und Dall-E erzeugen Grafiken. Es ist wohl nur eine Frage der Zeit, bis diese Tools so selbstverständlich werden wie Schraubenzieher, Wasserwaagen oder Zollstöcke. Wie sich Generative AI – also KI, die auf Basis von Trainingsdaten eigene Inhalte erzeugt – auf unser Berufsleben und unsere Jobperspektiven auswirkt, wird derzeit mit viel Verve diskutiert: Die einen sehen den Untergang des Arbeits-Abendlandes, die anderen unendliche Möglichkeiten – und die in der Mitte versuchen irgendwie, die möglichen Kosten und den möglichen Nutzen gegeneinander abzuwägen. Was momentan alles andere als einfach ist – schließlich entwickelt sich die Technologie mit hoher Dynamik weiter, und es vergeht kein Tag ohne die Ankündigung neuer Tools, Services und „Business Opportunities“. Um da noch durchzublicken, braucht man auch schon fast wieder ... uff ... einen KI-Assistenten.

Spürbare Dynamik
Auch in der Games-Branche ist die neue KI-Dynamik bereits deutlich spürbar – und sorgt vielfach für Diskussionen. Erst kürzlich gingen Gerüchte um, die Download-Plattform Steam werde künftig keine per KI zusammengeklöppelten Games mehr akzeptieren. Wenig später stellte Valve dann allerdings klar, man habe grundsätzlich nichts gegen den Einsatz von KI, wolle aber verstärkt darauf schauen, ob das auch im Einklang mit den gängigen Copyright-Bestimmungen sei. Der KünstlerInnen-Showroom Artstation wiederum verbannte zunächst alle KI-generierten Bilder von seiner Plattform, schwächte das Ganze aber später durch eine optionale Filterfunktion ab. Für teils ungläubiges Staunen sorgt derzeit auch der Einsatz von KI im Storytelling: Firmen wie Inworld, Convai, Replica oder Hidden Door docken sogenannte Large Language Models (LLMs) an Spiele an, um lebensnahe Dialoge mit NPCs zu ermöglichen (vgl. IGM 09/2023). Die Beispiele zeigen: Generative AI besitzt das Potenzial, die Games-Branche gehörig aufzumischen – was die Inhalte, aber auch, was künftige Jobprofile und Unternehmensstrukturen betrifft.

Wie aber beurteilen Branchenvertreter die Entwicklung? Wo sehen sie Chancen, Hürden oder gar Gefahren? „Bislang nutzen wir AI-Tools rein experimentell außerhalb von Kundenprojekten“, berichtet Tobias Mannewitz, Geschäftsinhaber von Karakter. Die Berliner Firma entwirft seit 2008 virtuelle Welten für internationale AAA-Produktionen wie Sonys Horizon-Reihe, God of War oder auch Game of Thrones; die drei Gründer Henrik Bolle, Floris Didden und Tobias Mannewitz haben mittlerweile 35 Fachkräfte und 35 Freelancer um sich geschart. „Unsere Arbeit dreht sich nicht nur darum, wie eine Burg oder ein Goblinkönig oder ein Raumschiff aussehen“, erläutert Mannewitz. „Sondern auch, warum sie so aussehen, damit sie selbst kritischer Betrachtung durch Spieler oder Zuschauer standhalten.“ Dass Karakter derzeit noch keine KI-Tools im Arbeitsalltag nutzt, hat gleich mehrere Gründe. Einer sei die aktuelle Rechtsunsicherheit, sagt Mannewitz – und der andere die Tatsache, dass „unsere Kunden von uns komplexe Welten wollen, die noch nie ein Mensch gesehen hat, die plausibel sind, logisch und zusammenhängend“. KI-Werkzeuge können genau das aktuell noch nicht liefern, so der Geschäftsinhaber: „Sie haben weder Verstand noch Fantasie, sondern müssen auf Existierendes zurückgreifen. Je unbeschreibbarer die Zielvorstellung, desto nutz- und hilfloser oft die AI-Ergebnisse.“ Zwar gebe es hin und wieder auch spektakuläre Glückstreffer, so Mannewitz. „Aber um diese konsistent auszuweiten, benötigt man dann wieder den Menschen. Deshalb sind AI-Tools für uns derzeit bloß als mindere Hilfskräfte denkbar.“ Der Grafikexperte glaubt allerdings, dass diese Tools noch äußerst nützlich werden können – weshalb Karakter die Entwicklung auch sehr aufmerksam verfolgt.

Hilfreiche Tools
Wo genau können Games-Firmen also von solchen KI-Werkzeugen profitieren? Mannewitz nennt als Beispiel AAA-Titel mit siebenstelligen Produktionskosten – hier könne KI die Produktion beschleunigen und das finanzielle Risiko reduzieren. Mannewitz sieht KI-generierte Assets aber primär als Zutaten größerer Werke, nicht als Endprodukt: „Wir erwarten zum Beispiel eine Implementierung von stimmbasierten AI-Komponenten in gängige Werkzeuge wie in Photoshop.“ Mit einfachen Befehlen könne man die KI dann anweisen, das Gras in der Spielwelt zu modifizieren oder die Kanten eines bestimmten Items abzurunden. „Das wird sehr hilfreich werden“, prophezeit Mannewitz, schränkt aber ein: „Je spezifischer die Anforderungen an eine Werkreihe sind, desto nutzloser die AI, jedenfalls derzeit.“ Bei starker KI-Nutzung bestehe die Gefahr, allzu generische Ergebnisse zu erhalten. „Aber ob der Einsatz teurer Spezialisten am Ende nicht das größere Risiko ist? Man kann nicht sicher sein, ob die Faustformel ‚High Risk, High Reward‘ noch oft genug aufgehen wird.“

Mannewitz glaubt, dass KI der Spieleproduktion einen deutlichen Schub geben wird – speziell auch bei weniger aufwendigen Projekten. „AI-Bilder sind ideale Pitch-Helfer“, erläutert der Experte. „Es werden sicher Spiele in Produktion gehen, die es ohne diese Unterstützung nicht geschafft hätten.“ Als Beispiele nennt er „Projekte ohne besonderen Look oder Konsistenzbedarf“ wie etwa Dating-Adventures – diese könnten mit KI-Bildern jede Menge Geld sparen. „Illustratoren, die solche Dutzendware anbieten, werden es viel, viel schwerer haben“, warnt Mannewitz. Wobei ein gewisser Künstlerschutz gegeben sei, weil Games und Filme exklusive Nutzungsrechte an künstlerischen Werken benötigen. „AI-generierte Inhalte sind aber nicht urheberrechtsfähig“, betont Mannewitz. „Daher sind mittelfristig die Umwälzungen wohl noch gar nicht so groß, langfristig aber unabsehbar.“

Baustelle Urheberrecht
Das Thema „Urheberrecht“ ist momentan eine der größten KI-Baustellen – auch deshalb, weil die Spielebranche sehr international ist, die gesetzlichen Regelungen aber auch national geprägt sind. „In den USA ist es zum Beispiel aktuell sehr umstritten, ob man durch AI produziertes Material überhaupt selbst lizenzrechtlich schützen kann“, berichtet Thomas Bedenk, VP Extended Reality bei der britischen Software-Firma Endava (vgl. IGM 09/2023). „Wenn man also als Publisher AI-generierte Assets einsetzt und diese gar nicht schützen kann, könnte jeder andere die Assets einfach einsetzen – und die IP wäre gefährdet.“ Bedenk erwartet, dass die Spielefirmen hier pragmatische Lösungen finden werden. Grundsätzlich geht der XR-Experte davon aus, dass die Kostenersparnis durch den Einsatz von KI „nicht unbedingt zu kleineren Entwicklerteams führen wird, sondern eher zu noch größeren Spielen“. Ähnlich wie Mannewitz glaubt auch Bedenk, dass gerade kleinere Studios vom KI-Einsatz profitieren werden, weil sie – selbst bei geringeren Budgets – dadurch mehr Möglichkeiten erhalten.

Der Berliner Anwalt Marian Härtel berät seit vielen Jahren Spielefirmen in Rechtsfragen – nicht zuletzt, wenn es um Urheberrecht geht. Auf seiner Website itmedialaw.com bloggt Härtel über eine Vielzahl von Themen – darunter auch die Frage, wie man als Spielefirma mit KI-generierten Inhalten umgehen sollte. „Die größte Herausforderung ist sicherlich, dass die meisten Publishing-Verträge das nicht abbilden“, sagt Härtel. „Ob man KI nutzen darf, ob man es überhaupt verbieten kann, KI zu nutzen, ob man es offenlegen muss und so weiter.“ Härtel rät Publishern und Entwicklern gleichermaßen, ihre Verträge entsprechend zu überarbeiten. Als Beispiel nennt er die Situation, dass eine KI-generierte Grafik oder ein KI-generierter Text durch Zufall menschlichen Erzeugnissen ähnelt – es müsse dann klar sein, wer in diesem Fall haftet. Einen grundsätzlichen Unterschied zu früher sieht Härtel hier allerdings nicht. „Ich habe schon viele Freelancer-Verträge gemacht“, berichtet er. „Und da steht natürlich immer drin, dass die Inhalte einzigartig sein sollen. Aber sorry, wer hat in der Vergangenheit den Freelancer aus Brasilien kontrolliert, ob der nicht von dem lokalen Spieleanbieter die Animation geklaut hat?“ Ob nun Freelancer oder KI die Assets liefern – wichtig sei immer die Transparenz, so Härtel. Firmen sollten „Prozesse einsetzen, um nachvollziehen zu können, aus welcher Quelle die Assets stammen, wer sie überarbeitet und angepasst hat“, rät er. „Dafür kann man die Assets auch tracken. Es geht also um Dokumentation – und um entsprechende Formulierungen in den Verträgen.“

Inspirierende Inhalte
Doch kann man KI rechtlich überhaupt wie einen menschlichen Urheber behandeln – oder gibt es da grundlegende Unterschiede? Nicht selten wird Generative AI ja vorgeworfen, sie kopiere schlichtweg Inhalte, die Menschen zuvor mit viel Mühe und Schöpfungskraft erstellt haben. Marian Härtel sieht hier einen deutlichen Unterschied, denn: „KI kopiert nicht – sie halluziniert“, wie er sagt. „Eine KI kopiert keine Texte und schreibt sie um – sondern sie erfindet die Inhalte tatsächlich neu. Deswegen ist das, glaube ich, gar kein so großes urheberrechtliches Problem.“ Um das zu verdeutlichen, zieht Härtel folgenden Vergleich: „Angenommen, Sie lassen sich als Journalist durch bestehende Texte inspirieren. Begehen Sie eine Urheberrechtsverletzung, wenn Sie dann auf dieser Basis einen Artikel schreiben? Nein, die begehen Sie nur, wenn Sie aus einem anderen Artikel einen ganzen Absatz übernehmen. Aber wenn Sie sich inspirieren lassen, begehen Sie doch keine Urheberrechtsverletzung.“ Zwar könne es bei einem Tool wie OpenAI vorkommen, dass ein Text zufällig menschlichen Erzeugnissen ähnele. „Aber dass das wissentliche Urheberrechtsverletzungen sind, daran habe ich Zweifel.“ Härtel betont, dass Ideen nun mal nicht geschützt seien: „Es wäre ja auch noch schöner, wenn ich Ideen monopolisieren könnte.“ Ein Art Designer schaue sich doch auch im Internet um, wenn er sich inspirieren lassen wolle. „Warum sehen denn alle Orks in Spielen gleich aus – weil die Leute solche Orks in der echten Natur gesehen haben?“, fragt Härtel scherzhaft. „Nein, weil sie vorher andere Spiele gespielt haben, in denen Orks vorkamen.“

Dienste wie OpenAI sieht Härtel denn auch ganz nüchtern als nützliche Werkzeuge. „OpenAI hilft, Dinge zu strukturieren, zusammenzufassen und so weiter“, so der Anwalt. Gleichwohl würde er OpenAI nicht mit dem Schreiben eines kompletten Artikels betrauen, denn dafür sei es noch nicht ausgereift. „Wo wir natürlich in fünf Jahren sind, kann kein Mensch voraussehen“, so Härtel. „Vielleicht kann man einer KI dann sagen: ‚Mach mir einen Taktik-Shooter auf dem roten Planeten.‘ Und zack, ist das Spiel fertig. Im Moment sind wir davon aber noch weit entfernt.“ Dass Spielestudios jetzt schon eifrig KI-Werkzeuge nutzen, ist für Härtel schlichtweg ein Fakt: „Früher musste man die Dinge von Hand animieren – heute steckt eine KI dahinter.“ Als Beispiel nennt er die Unreal Engine (vgl. IGM 08/2022), die bekanntlich von immer mehr Studios genutzt wird. „In einer halben Stunde kann man damit eine komplette 3D-Welt erstellen, mit automatisch bevölkerten Gegenden, Wind, Bäumen und so weiter“, sagt Härtel. All das werde – mit Hilfe von KI – prozedural generiert. „Ein fertiges Spiel ist das aber noch lange nicht.“

Trainingsfragen
Eifrig diskutiert wird derzeit auch, ob KI-Anbieter überhaupt das Recht haben oder hatten, ihre Tools mit öffentlich zugänglichen Daten zu trainieren. In den USA beispielsweise wird Google gerade genau deswegen verklagt. In einem Artikel auf Gamesindustry.biz warnt Autor Rob Fahey Spielefirmen davor, KI-Tools in der Produktion einzusetzen – das Ganze sei momentan einfach viel zu riskant. Marian Härtel hält das für Panikmache – und ist auch nicht der Meinung, dass der KI-Trainingsprozess aus technischer Sicht problematisch ist. „Es gibt ja inzwischen lokale KI, die BGH-Rechtsprechung auswertet“, erläutert er. „Wenn die das mit 70.000 Seiten BGH-Rechtsprechung in pdf-Form macht, dann ist das, was sie am Ende speichert, ein Megabyte groß. Es findet also eine Indexierung statt.“ Will heißen: Komplette Texte würden beim KI-Training keineswegs in einer Datenbank gespeichert.

Ob KI grundsätzlich reguliert werden sollte, ist für Härtel dann wieder eine ganz andere Frage: „Da geht es um KI-Ethik. Das ist eine Wertungsfrage. Diese Diskussion hatten wir in ähnlicher Form schon bei der Einführung der Dampfmaschine.“ Die Problematik liege hier eher bei Social Responsibility und Transparenz, so der Anwalt: „Es muss offengelegt werden, wann man als Mensch mit KI interagiert – also zum Beispiel, wann man mit einem Chatbot spricht statt mit einem echten Menschen.“ Was wiederum das Thema „Urheberrecht“ angeht, rät Härtel den Spielefirmen, bei Verträgen wirklich genau hinzuschauen: „Ich habe erste Verträge gesehen, in denen steht, dass man grundsätzlich keine KI verwenden darf. Okay, aber dann sollte man schon mal kein Photoshop updaten.“ Als Entwickler sollte man versuchen, solche Verträge etwas weiter zu fassen, betont Härtel. „Da gibt es erste Klauseln, die viel zu weit gehen. Denen zufolge dürfte ich nicht mal DeepL benutzen, weil das ebenfalls KI ist.“ Wichtig sei also, nichts zu unterschreiben, was einem später auf die Füße fallen könne. „Deswegen rate ich: Grundsätzlich die Verträge überprüfen lassen!“

Fragwürdige Regulierung
Was aber sagt eine Firma wie Karakter zum Thema „Urheberrecht“? Sollten KI-Tools stärker reguliert werden, um die Belange menschlicher Schöpfer besser zu schützen? „Nun, insbesondere in den vergangenen Jahren haben Regulationsfans so viel Kredit verspielt, dass ich sie persönlich lieber ihr Heizungsthermostat regulieren sehen würde“, schmunzelt Tobias Mannewitz. „Also: nein.“ Zwar sei es durchaus nachvollziehbar, wenn über automatisierte Tantiemen diskutiert werde, so der Firmenchef. „Wenn am Ende aber AI-Tools im regulierten EU-Bereich bloß bestimmte Dinge nicht oder nur zu höheren Kosten machen können als Wettbewerber, denen westliche Copyrights und Regeln wenig gelten, dann wäre das für uns als Firma wieder ein wahrscheinlich immenser Nachteil.“ Um das auszugleichen, müsste dann noch viel mehr reguliert werden als nur das Werkzeug selbst, warnt Mannewitz. Die Regulierer würden sich „dieses Festmahl“ aber kaum entgehen lassen, glaubt er.

Wie also sollten sich Spielefirmen in der aktuellen Übergangsphase verhalten? Auch das wollten wir noch von Tobias Mannewitz wissen. „Anderen Firmen pauschal Ratschläge zu geben scheint mir vermessen“, so seine Antwort. „Wäre Karakter aber eine größere Firma, würden wir sogleich eine eigene Forschungsabteilung aufsetzen.“ Kleinere Firmen könnten da natürlich keine größeren Gelder in die Hand nehmen, räumt Mannewitz ein. Allerdings würde es aus seiner Sicht auch genügen, „den interessiertesten Angestellten hin und wieder Experimentierzeit zuzubilligen, um herauszufinden, in welchem Teil der Pipelines AI Vorteile bringt“. Kurz gesagt: KI kann die Spieleproduktion unterstützen – deshalb lohnt es sich, wenn Firmen hier die Augen offenhalten. (Achim Fehrenbach)