banner

Kategorie: Allgemein

26. Februar 2024 Carolina Keine Kommentare

Unser Splitblog im Februar – KI als Kontrahent in Videospielen

Wie füllt man einen Blog aus der Welt der KI mit spannenden und interessanten Inhalten? So viele Themen wurden in den letzten Monaten von so vielen Menschen ausführlich erörtert. Was können wir dem noch für neue Aspekte hinzufügen? Diese Fragen haben wir uns heute im Team gestellt und mal wieder hat sich gezeigt, dass die spontanen Einfälle oft die besten sind. Eine neue Blog-Rubrik, der „Splitblog“ ist geboren. Jeden Monat darf sich ab sofort ein Teammitglied ein Thema aus dem KI Umfeld wünschen, das in dieser Kategorie beleuchtet wird. Los geht es mit unserem Backendentwickler Florian und dem Thema „KI als Kontrahent in Videospielen“ Ein kurzer Blick in die Videospiele der letzten Jahre zeigt, dass sich die meisten Verbesserungen größtenteils auf die Grafiken bezogen. Immer mehr Details, immer größere Welten, immer bessere Auflösung. Die Grafik ist in vielen Spielen inzwischen so ausgereift, dass sie kaum mehr von der Realität zu unterscheiden ist. Doch wie sieht es mit dem Verhalten der verschiedenen Charaktere aus? Insbesondere was die Programmierung der NPCs angeht, liegt die Vermutung nahe, dass hier schon seit langem künstliche Intelligenz zum Einsatz kommt. NPCs sind die nicht spielbaren Charaktere eines Videospiels, wie beispielsweise Passanten, Verkehrsteilnehmende oder auch Spielgegner und -gegnerinnen. Mit ihnen kann in vielen Spielen bereits interagiert und kommuniziert werden und ihr Verhalten ist augenscheinlich oft unvorhersehbar. Doch was von außen wie künstliche Intelligenz wirkt, ist in Wirklichkeit die Leistung der Spieleentwickelnden. Statt künstlicher Intelligenz kommt in Videospielen häufig das so genannte „Pathfinding“ zum Einsatz. Das bedeutet, dass die Wege und Aktionen der NPCs bei der Entwicklung des Spieles festgelegt wurden. Die Optionen der NPCs sind in diesem Fall begrenzt und können von verschiedenen Faktoren, wie beispielsweise der Stärke des oder der Spielenden abhängen. Je mehr mögliche Optionen und Faktoren in der Entwicklung festgelegt wurden, umso realistischer erscheint das Verhalten der NPCs. Doch warum wird bei der Spieleentwicklung nicht auf KI gesetzt? Die Annahme liegt nahe, dass der Einsatz von künstlicher Intelligenz das Spielerlebnis verbessert. Das Verhalten der NPCs wäre situativer, individueller und weniger vorhersehbar. Auch die Kommunikation könnte noch sehr viel mehr auf die Spielenden angepasst werden. Was bei dieser vermeintlichen Verbesserung jedoch häufig außer Acht gelassen wird, ist, dass eine lernfähige KI schnell jeglichen Spielspaß zunichtemachen könnte. Die Wahrscheinlichkeit ist hoch, dass es für die Spielenden nahezu unmöglich wäre, gegen KI-gesteuerte NPCs zu gewinnen. Auch, weil sich die NPCs in Teams zusammenschließen könnten. Und noch ein weiterer Faktor wäre kaum zu beherrschen: NPCs, die auf KI basieren, wären beispielsweise in der Lage, Schauplätze zu verlassen und einfach „nicht mehr mitzuspielen“. Unter diesen Voraussetzungen ist Storytelling innerhalb eines Videospieles nicht umsetzbar. Vereinfacht kann man also sagen, dass der Einsatz künstlicher Intelligenz in Videospielen den Spielspaß negativ beeinflussen würde. Wer spielt schon gern ein Spiel, das man nicht gewinnen kann? Dennoch gibt es erste Spiele, bei denen künstliche Intelligenz zum Einsatz kommt. Noch sind bei diesen Spielen die Welten und Möglichkeiten begrenzt, aber das wird sich ändern. Entwicklungsteams ist es bereits gelungen, beispielsweise die Überlegenheit KI-gesteuerter NPCs zu begrenzen. Ein gutes Beispiel hierfür ist AlphaStar. Ein KI-basiertes Programm, das darauf trainiert wurde StarCraft II zu spielen. Hier ist es bereits gelungen, die KI in ihren Handlungen und Fähigkeiten zu drosseln, so dass AlphaStar (zumindest für absolute Spieleprofis) ein fairer Gegner bleibt. Wir dürfen gespannt sein, wie sich KI in den kommenden Jahren in Videospiele integrieren lässt.

8. November 2023 Carolina Keine Kommentare

Die große Ethik-Frage

Im Umgang mit künstlicher Intelligenz (KI) wird häufig nach ethischen Vorgaben und Leitlinien gefragt. Wie kann ein ethischer Einsatz von KI aussehen? Welche Vorgaben brauchen wir? Und was ist für uns überhaupt ethisch und unethisch? Diese und ähnliche Fragestellungen begegnen uns in den Medien, im Gespräch mit Kunden, im privaten Umfeld. Aber auch und insbesondere wir selbst reflektieren immer wieder unsere Arbeit und unsere Maßstäbe. Bereits zur Gründung der Splitbot GmbH hat unser Team gemeinsam Leitlinien zu diesem Thema erarbeitet. Dabei fiel auf: Ethische Grundsätze zu definieren ist gar nicht so einfach. Denn auch wenn gesamtgesellschaftlich ein gemeinsames Verständnis von Moral und Ethik vorherrscht, ist die Auslegung und die persönliche Einschätzung des Einzelnen doch in einigen Teilbereichen unterschiedlich. Klar ist für uns: Keine Software, ob mit KI oder ohne, hat aus sich selbst heraus ein Verständnis für Ethik. Ethische Vorgaben müssen, sofern dies überhaupt möglich ist, durch Menschen erfolgen. Dieser Ansatz spiegelt sich auch in der Definition von Ethik wider. Ethik ist die Wissenschaft der Moral und damit der Beurteilung menschlichen Handelns. Demzufolge geht es vielleicht weniger um das Hinzufügen von Regeln zu unserer Software, sondern darum, ihren ethischen Einsatz sicherzustellen. Die Annahme, KI besäße die Fähigkeit selbst zu denken, ist schlicht unwahr. KI ist im Kern nicht viel mehr, als sehr, sehr präzise Statistik. KI ermittelt Wahrscheinlichkeiten auf Grundlage von Daten. Ohne entsprechende Lerndaten kann ein KI-Programm keine Ergebnisse ermitteln. Eben diese Daten sind die Ursache für das gelegentlich unethische erscheinen von KI-Programmen. Wird eine KI zur Auswahl von Bewerbenden beispielsweise nur mit Daten von männlichen Bewerbern angelernt, ist sie nicht in der Lage, weibliche Bewerberinnen gleichrangig zu berücksichtigen. Es bedarf also, sowohl bei der Datenbereitstellung, als auch bei der Bewertung der gelieferten Ergebnisse, der ethischen Einschätzung des Menschen. Auch muss die Frage erlaubt sein, inwiefern der Einsatz Künstlicher Intelligenz zur automatisierten Beantwortung komplexer Fragen nicht eventuell ethischen Prinzipien zuwiderläuft. Ziel muss es also sein, den handelnden Personen und nicht den Programmen selbst, ethische Vorgaben zu machen. KI ist nur eines von vielen möglichen Werkzeugen, die potenziell missbräuchlich verwendbar sind. Doch wie könnten solche Vorgaben aussehen? Dies ist nur eine der vielen Fragen, auf die wir bislang keine abschließende Antwort gefunden haben. Umso dankbarer sind wir für die Zusammenarbeit mit Prof. Dr.-Ing. Christian Herzog und den Studierenden des Technikethik Studiengangs der Universität zu Lübeck, die wir kürzlich begonnen haben. Prof. Dr. Herzog bot uns und anderen Startups aus der Region die Gelegenheit, uns vorzustellen und unsere ethischen Fragestellungen zu präsentieren. Die Teilnehmenden des Studiengangs werden sich in den kommenden Wochen mit den unterschiedlichsten Ethik-Themen auseinandersetzen und ihre Lösungsvorschläge präsentieren. Wir freuen uns sehr auf den intensiven Austausch und insbesondere auf die Betrachtung der Thematik aus unterschiedlichen Blickwinkeln. Dadurch sind wir in der Lage, bei der weiteren Entwicklung unseres Produktes möglichst viele Aspekte zur berücksichtigen.