Chancen und Grenzen von immersiven Umgebungen (IU) für Antidiskriminierung und (Historisch-)Politische Bildung

Dr. Deborah Schnabel ist Psychologin und seit 2022 Direktorin der Bildungsstätte Anne Frank in Frankfurt am Main.

Die Digitalisierung der Öffentlichkeit stellt politische Bildner*innen unter einen nicht unerheblichen Druck: Mit jeder neuen Technologie, jeder neuen App entsteht ein neues Forum, das zugleich zu ihrem Problem werden kann (als Mittel demokratiefeindlicher Agitation) – aber auch die Chance bietet, Demokratiebildung für noch mehr Menschen noch besser zu machen. Rassismus, Antisemitismus oder andere Gefahren für die Demokratie ziehen sich durch alle Lebensbereiche und schnell erobern sie auch die neuen Welten, die digitale Technologien erschaffen. Gleichzeitig wird mit jedem neuen Raum Demokratie auch neu verhandelt – und die politische Bildung ist aufgerufen, sich in diese Verhandlung einzuschalten.

Dazu gehören ohne Zweifel auch immersive Umgebungen (IU). Potenziell lassen sich hier mehr Menschen niederschwelliger und mit einem anderen Grad des Involvements erreichen; es gibt ein großes Interesse des ganzen Bereichs der politischen Bildung, in diesen neuen Welten wirksam zu werden. Eventuell können gar wichtige Zeugnisse und Zeug:innen der Geschichte erhalten bleiben, indem sie in virtuellen Realitäten nachgebildet werden. Deshalb ist es vor allem die historisch-politische Bildung, sind es vor allem Gedenkstätten und Museen, die trotz der unzureichend erforschten Möglichkeitsräume von immersiven Umgebungen Projekte lancieren. 
Gerade Gedenkstätten spüren den Druck besonders stark, Orte des Gedenkens lebendig werden zu lassen, und natürlich besonders im Bereich Shoa-Education: Die letzten Zeitzeug*innen verlassen uns. Der Bericht aus erster Hand wird nicht mehr möglich sein. Viele Akteur*innen der Politischen Bildung sehen IU als Möglichkeit, die Authentizität einer Zeitzeug*innen-Begegnung zu rekonstruieren. Da ist etwa das Anne-Frank-Haus in Amsterdam, dessen digitale VR-Ausstellung einen Rundgang durch das Versteck der Familie erlaubt. Da ist die App „Inside Auschwitz“, vom WDR entwickelt, das die Berichte dreier Zeitzeug*innen mit einem virtuellen Besuch der Gedenkstätte verbindet.[1] Da ist das Projekt „Dimensions in Testimony” der USC Shoah Foundation (USC SF), das Zeitzeug*innen als KI-basiertes Hologramm zu uns sprechen lässt.[2] Da sind erste Projekte, in denen Studierende im Metaverse zu zentralen Momenten Schwarzer Geschichte „zurückreisen“.[3] Allen Akteur*innen im Bereich ist gemein, dass sie die neuen Möglichkeiten von IU als sehr wichtig empfinden, mitunter viel in den Bereich investieren, hohe Erwartungen an die Möglichkeiten haben, gleichzeitig aber eher restriktiv damit umgehen. Das VR-Anne-Frank-Haus hat etwa gar keine Protagonist*innen, stellt dafür das Versteck, im Gegensatz zur physischen Ausstellung, möbliert da. Andere Anwendungen lassen nur bestimmte Charaktere zu, die meistens eine Bystander-Rolle innehaben. Dahinter liegt die noch offene Frage, wie die Möglichkeiten neuer Technologie mit den Grundsätzen politischer Bildung vereint werden kann. Es wird von der Qualität der Antworten abhängen, ob IU in der Demokratiebildung und Geschichtsvermittlung massentauglich werden. 

Wie es auch angegangen wird, IU wird an Grenzen stoßen – an technologische, oft aber auch an erziehungstheoretische: Ist „künstliche Authentizität“ überhaupt möglich? Ist sie pädagogisch sinnvoll? Oder wird hier eine ohnehin nicht rekonstruierbare Unmittelbarkeit fetischisiert?

WIE REALISTISCH DARF ERINNERN SEIN?

Besonders die Grenzen der Immersion werden bei solchen Anwendungen lebhaft diskutiert – eine Diskussion, die übrigens älter ist als IU: In der Gedenkstättenpädagogik wurde lange vor Ankunft des Internets diskutiert, wie tief die Erfahrung der Besucher*innen gehen soll. Hier ging es vor allem darum, ob eine solche Erfahrung begleitet oder unbegleitet erfolgen sollte. In deutschsprachigen Kontexten orientierte man sich hier am sog. Beutelsbacher Konsens, der das Verbot der Überwältigung, das Gebot der Kontroversität und die Schüler*innenorientierung in den Vordergrund stellt: Das Angebot soll auf ihre Perspektive zugeschnitten sein, alle möglichen Facetten kontrovers abbilden und sie nicht mit überlegenem Pathos, Autorität oder Wissen überwältigen. Schon systembedingt ist es schwer, Beutelsbach auf IU anzuwenden: Solche Umgebungen überwältigen meist schon aus ihrer Spiellogik heraus. In den USA liegt der Fokus nach unserer Erfahrung hingegen fast im Gegenteil, nämlich auf „Empathy Education“, die Entwicklung von Mitgefühl und Verständnis – und das oft mit Methoden, die durchaus „überwältigend“ sind.[4] Das Problem „künstlicher Authentizität“, die zudem noch durch Distanzierungs- bzw. Empathiegebote aufgeladen wird, liegt auf der Hand: Geschichte kann potenziell verfälscht werden. Ein rein imaginiertes Bild der Vergangenheit entsteht, das weder mit den historischen Erkenntnissen noch mit der Erfahrungswelt der Opfer deckungsgleich ist.
Abgesehen von den immanenten pädagogischen Risiken der Technologie geht die Kontroverse auch ins Inhaltliche. Der größte Streitpunkt ist die Möglichkeit für Nicht-Betroffene, in IU Rassismus- oder Antisemitismus-Betroffene spielen zu können. Was die einen als Möglichkeit für Empathie und Perspektivwechsel sehen, kann für andere als unsensibel, als kulturelle Aneignung, als falsche Angleichung von Täter:innen und Opfern, als Verstoß gegen das Überwältigungsverbot und als potenzieller Trigger für (transgenerationales) Trauma gesehen werden. Komplexe Merkmalszusammensetzungen werden verkürzt und können in ihrer Tiefe gar nicht erforscht werden, zumal, wenn etwa eine typische VR-Sitzung eine Stunde meist nicht überschreitet. Die gesellschaftspolitische Wirkung auf die Dominanzgesellschaft darf ebenfalls nicht unterschätzt werden: Erinnerungspolitische Problematiken und Entlastungsnarrative können verstärkt werden, wenn sich die Nachfahren der Täter:innen durch IU noch stärker als Teil der Verfolgten fühlen können.

Die Balance von Distanz und Empathie, die politische Bildung in IU halten muss, ließe sich als eine Art Variante des „uncanny valley”-Effekts verstehen – ab einem bestimmten Realitätsgrad der Simulation wird es seltsam, „creepy”. Wie schwierig dieser Balanceakt ist, verdeutlicht das schon erwähnte Beispiel der WDR-App „Inside Auschwitz“. Einerseits setzt sie darauf, die Distanz bewusst aufzuheben: „Die Nutzerinnen und Nutzer sollen bewusst keine distanzierte Position einnehmen, sondern die Gedenkstätte erkunden, als besuchten sie diese zu Fuß.”[5] Andererseits warnen die Produzent*innen der App vor zu viel Nähe und empfehlen sogar, auf VR-Brillen im schulischen Kontext zu verzichten, da die fehlende Distanz Schüler:innen verstören kann.[6]
Offenbar werden solche Anwendungen besser akzeptiert, wenn sie Verfremdungseffekte einsetzen, einen Mischraum konstruieren, nicht real, aber auch nicht völlig fiktional, nicht identifizierend, aber sympathisierend. Das scheint auf das Medium insgesamt zuzutreffen: Während VR/AR immer noch Nischenprodukte sind, funktionieren etwa MMORPG[7]s als Massenmedium hervorragend. Hier ist es anscheinend oft gerade die Künstlichkeit der Umgebung, die einen souveränen Umgang mit ihr ermöglicht. Es besteht nie ein Zweifel, dass ich nicht in der Realität bin; ein Avatar, der mir nicht ähnelt, ermöglicht eine größere Identifikation als die klinische Perfektion von VR/AR, die mir oft gar kein Körpererleben ermöglichen, denn wenn ich mit einer VR-Brille nach unten blicke, sehe ich nicht meinen Körper, sondern den Boden.

Es scheint nahezu unmöglich, jede*n potenzielle*n Anwender*in und jede mögliche Mehrfachbetroffenheit mitzubedenken. Können wir hier nicht ähnlich unserer Alltagserfahrung operieren – mit begrenztem Wissen, aber mit Raum zum Lernen? Auch unser tägliches Verhalten basiert auf begrenztem Wissen, trotzdem kommen wir auch hier schon sehr weit.
Die erziehungswissenschaftlichen Erkenntnisse zur pädagogischen Wirkung von IU sind noch überschaubar: Für „Anne Frank House VR“ wurden gemischte Resultate im Vergleich zum desktop learning festgestellt – während die Identifikation mit den Betroffenen stärker war, wurden gleichzeitig weniger Inhalte aufgenommen.[8] Die Lerndynamiken sind komplex und müssen intensiver erforscht werden.

METAVERSE UND CO.

Sicherlich die bekannteste IU-Anwendung ist Mark Zuckerbergs „Horizon Worlds“, weitläufig auch einfach als Metaverse[9] abgekürzt – bekannt sowohl in Hinblick auf Ambition als auch für Negativschlagzeilen. Für unseren Bereich ist weniger wichtig, ob „das Metaverse“, also Horizon Worlds selbst Erfolg hat, sondern ob eine solche IU-Anwendung ähnliche Plattform Erfolg haben könnte: Die Politische Bildung muss sich darauf vorbereiten, dass so eine Plattform ein Massenmedium werden könnte. Hier lassen sich evtl. Vergleiche zu der gescheiterten Plattform „Second Life“ ziehen.

Zunächst gelten für das Metaverse ähnliche Fragen wie für die sozialen Medien: Wer führt die Diskurse? Wer dominiert? Fühlen sich diskriminierte Personen im Metaverse sicher? Der höhere Realitätsgrad von IU stellt hier die klassischen Probleme der sozialen Medien in ein schärferes Licht. Noch ist wenig erforscht, ob IU ein noch höheres Radikalisierungspotenzial haben als soziale Medien ohnehin schon. Heuristisch reicht es vermutlich, eine ähnliche Gefährdungslage wie bei sozialen Medien zu vermuten. Hinzu kommt, dass adaptiver und reaktiver Content in IU verstärkt von KIs produziert werden wird, da menschliche Content-Entwicklung schlicht der Nachfrage an diese anspruchsvollen Umwelten nicht mehr gerecht werden kann – so sieht es zum Beispiel auch ein Beitrag des Weltwirtschaftsforums.[10] In diesem Zuge ist ein Szenario denkbar, in welchem KI-Sprachmodelle personalisierte Welten bauen, die die Einstellungen der Nutzer*innen im Wesentlichen affirmieren, sie in problematischen Haltungen bestärken, ideologische Cocooning-Effekte forcieren und sie in Radikalisierungstunnel treiben. Die ohnehin niedrige Hemmschwelle im Metaverse tut da ein Übriges.[11] Die oben genannten strukturellen Aspekte von KI-Rassismus könnten in immersiven Umgebungen einen exponentiellen Effekt haben: Rassistische Echokammern in virtuellen Welten werden zwangsläufig nach außen leaken, die Gesellschaft prägen – und diese wiederum als Quelle von KI-Content-Generatoren dienen. 

Wie wahrscheinlich dieses Szenario ist, ist auch von den Menschen abhängig, die das Metaverse entwickeln. Diese müssten vom Recruiting an bis zum Beta-Test in allen Arbeitsbereichen diversitäts- und diskriminierungssensibilisierend informiert werden. Erfahrungsgemäß gelingt das nicht durch Beschluss, sondern durch die aktive Teilhabe betroffener Menschen. Auch die Frage, wer das Metaverse überhaupt benutzt und warum, ist hier noch gar nicht beantwortet. Welche Hemmschwellen bestehen potenziell für bestimmte Teile der Gesellschaft, das Metaverse zu nutzen? Warum ist das so? Steuern Konzerne wie Meta solchen Tendenzen aktiv entgegen? Was wird getan, um für Repräsentanz und Schutz zu sorgen? Wie verhindern Meta und Co. rechte Unterwanderungen, wie sie auch bei anderen digitalen Plattformen, die eher in der Nische operieren, zu beobachten sind?

POLITISCHE BILDUNG IM METAVERSE

Abgesehen von diesen Fragen stellt sich in unserem Handlungsfeld diese Aufgabe: Wie soll die Politische Bildung auf diese und ähnliche Fragen reagieren? In unseren Augen sollte die Frage nicht sein, ob die Politische Bildung jetzt „ins Metaverse investieren” soll. Ein solcher generalistischer Ansatz muss scheitern. Es sollte aber unbedingt damit experimentiert werden – das Metaverse sollte als Software angesehen werden, in der konkrete, begrenzte Settings ausprobiert werden. Die Maxime sollte also nicht lauten „Wir bringen unsere ganze Gedenkstätte ins Metaverse“, sondern: „Diese spezifische Ausstellung kann (auch) im Metaverse besucht werden.“

Die Potenziale solcher Schritte können heute schon beobachtet werden, beispielsweise in Minecraft. So wurde etwa eine Bibliothek Schwarzer Literatur nicht auf Metas „Horizon Worlds“ gerettet, sondern auf einen Minecraft-Server. Eine Erklärung für den Erfolg von Minecraft könnte auch im „uncanny valley“ zu suchen sein: Minecraft versucht nicht, die Realität zu imitieren. Derzeit läuft ein Projekt, die Gedenkstätte Yad Va-Shem auf Minecraft zu übertragen.[12] Es gibt auch private Projekte, die bemüht sind, den Holocaust auf Minecraft zu reflektieren.[13] Das darf aber nicht darüber hinwegtäuschen, dass Minecraft auch von der Gegenseite genutzt wird: Immer wieder weisen Minecraft-Nutzer*innen auf Server hin, auf denen Nazis NS-Gräueltaten glorifizieren.

EXKURS: KI, DISKRIMINIERUNG UND GERECHTIGKEIT

Die wachsende Bedeutung, die KI für solche Umgebungen haben wird, ist plattformunabhängig – und bedarf einer eigenen Analyse. Die Sprache, in der z.Zt. über „Künstliche Intelligenz“ diskutiert wird, verheißt nicht weniger als eine Revolution des gesamten Lebens – von der Arbeitswelt über Makroökonomie bis hin zu Literatur und Kunst. Dabei miterzählt wird ein Gerechtigkeitsversprechen, das auf Verfahrensrationalität und der absoluten Neutralität des Algorithmus basiert. Ausschlüsse, die aus menschenfeindlichen Einstellungen resultieren, können demnach automatisiert vermieden werden: Die Beurteilung erfolgt auf Basis einer behaupteten Objektivität, die von Menschen gar nicht geleistet werden könne.

Tatsächlich scheinen die öffentlich bekannten Sprachmodelle, allen voran natürlich ChatGPT, nicht zur Reproduktion diskriminierender Sprache geeignet – gerade ChatGPT zeichnet sich hier durch ein robustes ethisches framework aus. ChatGPT tritt vehement gegen Rassismus und Diskriminierung ein. Alle Versuche, die Software zur Produktion rassistischer Texte zu verwenden, sollen theoretisch schon im Ansatz scheitern (was jedoch mit den geeigneten Prompts umgangen werden kann). Nicht vergessen werden dürfen Vorhaben, die Sprachmodelle gerade zum Kampf gegen Menschenfeindlichkeit trainieren – wie etwa das internationale Forschungsprojekt „Decoding Antisemitism”[14].

Gleichzeitig mehren sich die Berichte, nach denen struktureller Rassismus, z. B. von intelligenter Bilderkennungssoftware, eher noch verstärkt wird. Der Algorithmus orientiert sich an Mustern, die er schon in der Gesellschaft vorfindet, und bewertet bspw. nicht-weiße Personen anders als weiße. So wird Rassismus auf einer linguistischen Ebene vermieden, während er auf einer operativen Ebene weiter fortgeschrieben, automatisiert und industrialisiert wird – meist ohne Transparenz für die Betroffenen. Wo KI bei Kredit- und Wohnungsvergabe, bei Bewerbungen und bei Sozialprognosen künftig mitentscheiden, sind die Probleme absehbar. Denn im Gegensatz zu menschlichen Entscheidungen immunisiert die scheinbare Objektivität der Maschine sie noch gegen Kritik.

Die Rahmenbedingungen der KI-Industrie bedürfen ebenfalls einer kritischen Prüfung – nur ein Beispiel sind die unterbezahlten kenianischen Arbeiter:innen, deren Leistung wesentlich für den Erfolg von ChatGPT war.[15] Auch auf ökonomischer Ebene reproduziert K.I. den Kapitalismus, statt ihn kritisch zu hinterfragen – und dies entlang rassistischer Unterscheidungen. Wem gehören die Systeme? Wer darf ihre Leistungen vermarkten und wer profitiert von der gewonnenen Produktivität? Wem gehört AI-Kunst, in deren Erstellungs-Prompts die Namen bekannter Künstler*innen einfließen? Wer kann in dieser neuen KI-Welt arbeiten, wessen Job wird wegrationalisiert und wessen Leben wird von der K.I. verwaltet? Alles deutet darauf hin, dass von Rassismus Betroffene keine hoffnungsvollen Antworten auf diese Fragen erhalten werden und dass die negativen Folgen der Revolution sie besonders stark treffen werden.

Auch die Bedeutung für Antisemitismus darf nicht unterschätzt werden. Schon jetzt unterliegt die Darstellung jüdischer Menschen einem historischen Bias – Bilderzeugungsprogramme greifen vor allem auf geschichtliche Darstellungen und Bilder von ultraorthodoxen Gruppierungen zurück. Jüdische Menschen, die heute völlig selbstverständlich am modernen Leben teilnehmen, verschwinden so aus der kollektiven Imagination.

Nicht zuletzt können K.I.-Systeme schon jetzt dafür eingesetzt werden, einen endlosen Strom von Fake News, Deep-Fakes und verschwörungstheoretischen Inhalten zu erzeugen – mit einer Plausibilität und einer scheinbaren Authentizität, von der jetzige Verschwörungsideolog:innen nur träumen können. Die Auswirkungen werden aller Voraussicht nach jüdische Menschen besonders stark zu spüren bekommen.

All diese Fragen stellen sich mit erhöhter Dringlichkeit, wenn KI nicht ein schönes Spielzeug innerhalb von IU, sondern für sie konstitutiv ist. Wie werden sich Bildungs-IU verändern, wenn hier nicht mehr von Menschen vorgefertigte Inhalte präsentiert werden, sondern KI dynamisch solche Inhalte generiert? Wenn KI-basierte Avatare Nutzer*innen ansprechen und mit personalisierter Propaganda radikalisieren oder einschüchtern? Wo ist die Kontrolle? Und wie können automatisierte Reproduktionsmuster menschenfeindlicher Einstellungen unterbrochen werden?

Dazu muss man sich Fragen stellen, die natürlich über das Feld von IU in der Politischen Bildung hinausweisen, nämlich: Welche Gelingensbedingungen benötigen wir für eine diskriminierungssensible KI-Ethik? Wie lässt sich der KI beibringen, Machtasymmetrien zu erkennen? Hier zeigen sich Grenzen, die schon in der gegenwärtigen Arbeitsweise von KI angelegt sind – sie ist grundsätzlich reproduzierend.

EIN GEGENMODELL: IU ALS GELEBTE UTOPIE

Vielleicht ist es ja gar nicht zielführend, Verfolgungsgeschichten und Diskriminierungserfahrungen für die politische Bildung aufwendig in IU zu rekonstruieren. Vielleicht wäre es ja gerade sinnvoll, in IU Welten zu simulieren, in der eine bestimmte utopische Hoffnung real geworden ist. Statt Lernende in eine pädagogische Kapsel zu stecken, mit bestimmten vorgefassten Inhalten und Lernzielen, könnten sie selbstständig Welten erkunden, die schon befreit sind. Der Lerneffekt entstünde gerade aus der Abwesenheit eines heute alltäglichen Gewaltzusammenhangs.

Ein Beispiel ist die Alltags-Simulation „Die Sims“ (Erscheinungsjahr: 2000) und ihre Rolle für homosexuelle/queere Emanzipation. In dem Alltags-Simulator für PC konnten erstmalig in einem Mainstream-Gaming-Titel queere Beziehungen gelebt werden, ohne dass es jedes Mal thematisiert wurde. Viele queere Menschen berichten heute, hier zum ersten Mal queere Repräsentation und queeres Empowerment erlebt zu haben; einfach dadurch, dass es diese Möglichkeit gab, die nicht oktroyiert oder belehrend eingesetzt wurde, sondern explorativ und intrinsisch motiviert. 

Vielleicht müsste sich Politische Bildung für IU ähnlich aufstellen: eine konkrete Utopie bereitstellen, die sich erforschen lässt, mit deren Möglichkeiten die Nutzer*innen frei experimentieren können – und dabei Ängste und Vorurteile abbauen. Das Virtuelle wird zum Vorbild für die Realität, nicht umgekehrt.

Dieses Vorgehen hätte womöglich den Vorteil, den zahlreichen oben genannten Fallstricken, die der Politische Bildung in IU drohen, von vornherein aus dem Weg zu gehen. Die Grenzen der Nutzer*innenerfahrung müssen ebenfalls weniger eng gezogen werden, es braucht weniger pädagogische Vorgaben, insgesamt weniger Von-Oben-Herab.


[1] Planet Schule: Inside Auschwitz | Erzählungen Überlebender und 360 Grad-Videosa (10.12.22), URL: https://www1.wdr.de/schule/digital/unterrichtsmaterial/dreisechzig-inside-auschwitz-100.html (Stand: 12.09.23).

[2] N.N.: Dimensions in Testimony. Speak with survivors and other witnesses to the Holocaust and other genocides through their interactive biographies. (o.J.), URL: https://sfi.usc.edu/dit (Stand: 12.09.23).

[3] N.N.: Education in the Metaverse takes students back in history (01.12.23), URL: https://www.wbur.org/hereandnow/2022/12/01/black-history-metaverse (Stand: 12.09.23).

[4] Besand, A., Overwien, B., & Zorn, P. (Hrsg.) (2019): Politische Bildung mit Gefühl. Bundeszentrale für politische Bildung, Bonn.

[5] Verena Lucia Nägel, Sanna Stegmaier: AR und VR in der historisch-politischen Bildung zum Nationalsozialismus und Holocaust – (Interaktives) Lernen oder emotionale Überwältigung? (08.10.2019), URL: https://www.bpb.de/lernen/digitale-bildung/werkstatt/298168/ar-und-vr-in-der-historisch-politischen-bildung-zum-nationalsozialismus-und-holocaust-interaktives-lernen-oder-emotionale-ueberwaeltigung/ (Stand: 12.09.23). 

[6] „Die Erzählungen der Zeitzeuginnen und die Bilder aus dem Lager können für sensible Schüler:innen oder Jugendliche mit eigener Kriegs- und Fluchterfahrung herausfordernd sein. Es kann helfen, die Videos mit etwas mehr räumlichem Abstand zu betrachten (zum Beispiel über die Schulter eines Mitschülers oder einer Mitschülerin, der/die das Tablet hält). Zudem ist es ratsam, keine Kopfhörer oder VR-Brillen zu nutzen. Das schafft mehr Distanz zu den Erzählungen der Zeitzeuginnen und den Simulationen.“ Planet Schule: Inside Auschwitz | Erzählungen Überlebender und 360 Grad-Videosa (10.12.22), URL: https://www1.wdr.de/schule/digital/unterrichtsmaterial/dreisechzig-inside-auschwitz-100.html (Stand: 12.09.23).

[7] Massively Multiplayer Online Role-Playing Games, Online-Videospiel-Welten mit vielen tausend Nutzer:innen.

[8] Miriam Mulders: Learning about Victims of Holocaust in Virtual Reality: The Main, Mediating and Moderating Effects of Technology, Instructional Method, Flow, Presence, and Prior Knowledge.(06.03.23), URL: https://www.mdpi.com/2414-4088/7/3/28 (Stand: 12.09.23).

[9] Der Begriff „Metaverse“ im engeren Sinne soll theoretisch alle immersiven Umgebungen und deren Verbindung miteinander fassen – in diesem Sinne existiert „das Metaverse“ noch nicht, wohl aber einzelne IU Horizon Worlds, Minecraft etc. ChatGPT bietet folgende Definition des Metaverse an (prompt: write a scientific definition of the metaverse): „The Metaverse is a comprehensive, large-scale virtual environment that integrates multiple interconnected digital spaces, facilitating seamless interactions, communication, and collaboration among users, who are represented by digital representations known as avatars. This virtual framework merges aspects of virtual reality, augmented reality, and interconnected networks to create an immersive and persistent ecosystem for users, with wide-ranging applications spanning entertainment, social interaction, education, commerce, and various other domains. By transcending physical limitations and geographical boundaries, the Metaverse fosters novel opportunities for creative expression, innovation, and interaction in the digital realm.“

[10] N.N.: AI is shaping the metaverse – but how? Industry experts explain” (9.05.2023). URL:
https://www.weforum.org/agenda/2023/05/generative-ai-and-how-can-it-shape-the-metaverse-industry-experts-explain/ (Stand: 12.09.23)

[11] vgl. nur Yinka Bokinni: A barrage of assault, racism and rape jokes: my nightmare trip into the metaverse. (25.04.22.) URL: https://www.theguardian.com/tv-and-radio/2022/apr/25/a-barrage-of-assault-racism-and-jokes-my-nightmare-trip-into-the-metaverse (Stand: 12.09.23)

[12] N.N.: Yad Vashem comes to Minecraft for International Holocaust Day. (26.01.23) URL: https://www.i24news.tv/en/news/israel/technology-science/1674714331-yad-vashem-comes-to-minecraft-for-international-holocaust-day (Stand: 12.09.23)

[13] Jcirque25: Using Minecraft as a medium to reflect on the Holocaust (2020). URL: https://www.reddit.com/r/Minecraft/comments/htlst6/using_minecraft_as_a_medium_to_reflect_on_the (Stand: 12.09.23)

[15] Billy Perigo: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic (18.01.23). URL:https://time.com/6247678/openai-chatgpt-kenya-workers/ (Stand: 12.09.23).

Auf dem Laufenden bleiben:

Aktuelle Veröffentlichungen und Termine im Newsletter