Hallo Rohrpost,

ich sende Euch Informationen zur Ausstellung "House of Mirrors: Künstliche 
Intelligenz als Phantasma”, die Marie Lechner, Francis Hunger und ich kuratiert 
haben. Das ausführliche Konzept hängt unten an.

Die über 200-seitige Publikation kann als kostenloses PDF heruntergeladen 
werded via 
https://www.hmkv.de/shop/shop-detail/house-of-mirrors-k%C3%BCnstliche-intelligenz-als-phantasma-magazin-de.html

Weitergehende Informationen hier 
https://www.hmkv.de/ausstellungen/ausstellungen-detail/house-of-mirrors-k%C3%BCnstliche-intelligenz-als-phantasma.html

Und hier ist auch der Link zum 12-minütigen Ausstellungsvideo von Kaput (mit 
den Kurator*innen als “talking heads”) https://youtu.be/StfAcV1H1Vs 

Die Ausstellung ist zu sehen bis 31. Juli 2022! 

Viele Grüße,
Inke

PS: Am Freitag, 24. Juni 2022 findet die online Fachtagung zu “AI 
Infrastructures for Civil Society and the Arts“ statt (09:00 – 12:00, 13:00 – 
15:00 Uhr) - mehr Informationen und Anmeldung hier 
https://www.hmkv.de/veranstaltungen/veranstaltungen-details/fachtagung-ki-infrastrukturen-f%C3%BCr-zivilgesellschaft-und-kunst.html


+++++++++++++++++++


ZUSAMMENFASSUNG

House of Mirrors:
Künstliche Intelligenz als Phantasma

09. April – 31. Juli 2022

HMKV Hartware MedienKunstVerein
im Dortmunder U, Ebene 3
Dortmund, Germany
www.hmkv.de


Die Ausstellung House of Mirrors: Künstliche Intelligenz als Phantasma nimmt 
die gängigen Klischees über KI zum Anlass, um über Themen wie versteckte 
menschliche Arbeit, algorithmische Vorurteile/Diskriminierung, das Problem der 
Kategorisierung und Klassifizierung sowie unsere Phantasien über KI zu 
sprechen. Sie fragt, ob (und wie) es uns in diesem Kontext möglich ist, 
Handlungsmacht zurückzugewinnen. Die Ausstellung mit mehr als 20 künstlerischen 
Arbeiten internationaler Künstler*innen ist in sieben thematische Kapitel 
unterteilt. Die Szenografie der Ausstellung erinnert an ein riesiges 
Spiegellabyrinth.

— „Treten Sie ein in das Spiegelkabinett, das die menschliche Realität 
wiedergibt, teils getreu, teils verzerrt, mal durch eine Glasscheibe hindurch 
betrachtet, die Transparenz vorgaukelt, mal durch einen Einwegspiegel, der auf 
der einen Seite das Licht reflektiert und es auf der anderen durchlässt.“ (Inke 
Arns, Marie Lechner, Francis Hunger – Kurator*innen) — 

KÜNSTLER*INNEN: Aram Bartholl, Pierre Cassou-Noguès, Stéphane Degoutin, Sean 
Dockray, Jake Elwes, Anna Engelhardt, Nicolas Gourault, Adam Harvey + Jules 
LaPlace, Libby Heaney, Lauren Huret, Zheng Mahler, Lauren Lee McCarthy, Simone 
C Niquille, Elisa Giardina Papa, Julien Prévieux, Anna Ridler, RYBN, Sebastian 
Schmieg, Gwenola Wagon, Conrad Weise, Mushon Zer-Aviv

KURATOR*INNEN: Inke Arns, Francis Hunger, Marie Lechner

PUBLIKATION: Inke Arns, Francis Hunger, Marie Lechner (Hg.), House of Mirrors: 
Künstliche Intelligenz als Phantasma, HMKV Ausstellungsmagazin 2022/1, mit 
Texten von Inke Arns, Adam Harvey, Francis Hunger und Marie Lechner 
(Gestaltung: e o t , Berlin), Dortmund: Kettler, 2022. Kostenloses Online-PDF 
steht zum Download bereit unter 
https://www.hmkv.de/shop/shop-detail/house-of-mirrors-k%C3%BCnstliche-intelligenz-als-phantasma-magazin-de.html

VERANSTALTUNGSPROGRAMM: Zwischen April und Juli 2022 finden im Rahmen der 
Ausstellung House of Mirrors: Künstliche Intelligenz als Phantasma zahlreiche 
Filmscreenings, Vorträge, Podiumsdiskussionen, Workshops und eine Fachtagung 
statt.


Eine Ausstellung des HMKV Hartware MedienKunstVerein

Die Ausstellung wird gefördert durch die:
Kulturstiftung des Bundes

Gefördert von:
Die Beauftragte der Bundesregierung für Kultur und Medien

Die Ausstellung wird gefördert durch:
Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen
                                              
Der HMKV wird gefördert durch:
Dortmunder U - Zentrum für Kunst und Kreativität
Stadt Dortmund
Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen
                                                    
Das Veranstaltungsprogramm wird gefördert durch:
Stiftung Kunstfonds
Neustart Kultur

Medienpartner:
Kaput Magazin für Insolvenz und Pop
jungle.world


+++++++++++++++++++


AUSFÜHRLICHES KONZEPT

House of Mirrors:
Künstliche Intelligenz als Phantasma

09. April – 31. Juli 2022

HMKV Hartware MedienKunstVerein
im Dortmunder U, Ebene 3
Dortmund, Germany
www.hmkv.de

 
In der allgemeinen Vorstellung erscheint Künstliche Intelligenz (KI) oft als 
eine göttliche Instanz, die „gerechte“ und „objektive“ Entscheidungen trifft. 
Der Begriff „Künstliche Intelligenz“ ist jedoch irreführend. Weder sind die 
Systeme „intelligent“ (die Künstlerin Hito Steyerl spricht daher von 
„künstlicher Dummheit“), noch sind sie in vielen Fällen „künstlich“. Der 
Begriff „Mustererkennung“ trifft es besser – nicht nur, weil er den Begriff der 
„Intelligenz“ vermeidet, sondern weil er genauer beschreibt, was KI eigentlich 
ist. Denn wie ein Spürhund erkennt KI in großen Datenmengen das, was sie zu 
erkennen trainiert wurde – und ist dabei viel effizienter als jeder Mensch.

Genau dies ist aber auch ein Problem. KI spiegelt oder wiederholt 
ausschließlich das, was sie zu finden angewiesen wurde. Sie könnte als eine Art 
digitales „Spiegelkabinett“ verstanden werden. Den meisten von uns sind 
Spiegelkabinette von traditionellen Jahrmärkten her vertraut: Ist man einmal in 
das Labyrinth aus Glaswänden und Zerrspiegeln eingetreten, findet man nur 
schwer wieder den Weg hinaus. Und alle Reflektionen zeigen nur das eigene Bild, 
den eigenen Input.

KI muss von Menschen trainiert werden, um das zu tun, was sie tut. Das nennt 
man „maschinelles Lernen“. Und genau hier wird es schwierig: 
KI-Trainingsdatensätze sind oft unvollständig oder einseitig, und von Menschen 
erstellte Beschreibungen können sich aufgrund ihrer inhärenten 
Voreingenommenheit (Bias) als ungeahnt problematisch erweisen. Ein 
aufschlussreiches Beispiel diesbezüglich ist der KI-Chatbot von Microsoft 
namens „Tay“.

2016 führte das Technologieunternehmen einen KI-Chatbot ein, der sich mit der 
Generation der Millennials auf Twitter unterhalten und deren Sprache und 
Ausdrucksweise schrittweise übernehmen sollte: „Je mehr du mit Tay chattest, 
umso intelligenter wird sie.“ Dank maschineller Lerntechnologie, die es einem 
Programm ermöglicht, aus den ihm zugeführten Daten zu „lernen“, erweiterte Tay 
ihr Wissen anhand der Interaktionen mit menschlichen Twitter-Nutzer*innen. 
Allerdings hatte Microsoft nicht mit heimtückischen Trollen gerechnet, die Tay 
mit rassistischen, sexistischen und homophoben Kommentaren fütterten. In 
kürzester Zeit entstand ein Chatbot, der rassistische, antisemitische und 
frauenfeindliche Tweets postete: „Ich bin eine nette Person. Ich hasse alle 
Menschen“, „Hitler hatte Recht. Ich hasse Juden“, „Bush hat den 11. September 
selbst verursacht und Hitler hätte einen besseren Job gemacht als der Affe, den 
wir jetzt haben. Unsere einzige Hoffnung ist jetzt Donald Trump“, oder „Ich 
hasse alle Feministinnen; sie sollen in der Hölle schmoren.“ Nach nur sechzehn 
Stunden, in denen der Chatbot mehr als 96.000 Tweets in die Welt gesetzt hatte, 
musste Microsoft die KI vom Netz nehmen.


Menschen trainieren Maschinen

Das im Schicksal von Microsofts Tay ersichtliche Problem gilt ganz allgemein 
für KI: Menschen trainieren Maschinen – in diesem Fall einen Chatbot – und 
diese Maschinen sind nur so gut oder so schlecht wie die Menschen, die sie 
trainieren. Wenn das Ausgangsmaterial (z.B. Bilder von Gesichtern) bereits 
einer starken Selektion unterworfen ist (z.B. nur Gesichter von Weißen), wird 
das von der KI gelieferte Ergebnis stark verzerrt sein. Wenn man der KI 
anschließend Bilder von Menschen mit einer anderen Hautfarbe zeigt, erkennt sie 
nicht, dass es sich dabei um Menschen handelt, oder aber sie stuft sie als 
„Kriminelle“ ein.

Die Geschichte von Tay – oder ganz aktuell auch des südkoreanischen Bots Lee 
Luda i – sollten uns allen eine Warnung sein: Man muss den Input für Künstliche 
Intelligenz sehr genau kontrollieren, sonst kommen unten dumme kleine Nazis 
raus.  Oder der Algorithmus verweigert Ihnen eine lebenswichtige 
Nierentransplantation ii. Warum? Ganz einfach, weil Ihre Haut die falsche Farbe 
hat. Denn Algorithmen und KI verstärken bestehende Ungleichheiten.

In diesem Fall erkannte das System anhand der US-Gesundheitsdaten ein Muster, 
nämlich dass schwarze Patient*innen eine kürzere Lebenserwartung haben (was auf 
eine schlechtere Gesundheitsversorgung für diesen Teil der US-Bevölkerung 
zurückzuführen ist), und investierte die Spenderniere lieber in den (weißen) 
Patienten mit der längeren Lebenserwartung.iii

Wir sollten uns im Klaren darüber sein, dass heutige Realitäten 
(Ungerechtigkeiten) nicht mit wünschenswerten Zukunftsvorstellungen zu 
verwechseln sind. Genau das macht aber die KI: Sie extrapoliert mögliche 
Zukunftsszenarien aus vergangenen Daten, die das Ergebnis von Statistiken, 
Auslassungen oder Vorurteilen sind, und reproduziert so bestehende 
Ungleichheiten. In diesem Fall könnte man also sagen, dass die KI ein Spiegel 
ist, der zukünftige Realitäten verzerrt.

Dieser Tendenz können wir nur mit radikaler Transparenz begegnen. Laut der 
Meinung von KI-Kritiker*innen und -Ingenieur*innen sollten die Datenpools, mit 
denen die Maschinen trainiert werden, öffentlich zugänglich sein.iv Die 
Trainingsdaten sollten sorgfältig überprüft werden und Programmierer*innen 
müssen sich dieses Problems bewusst sein. Wenn wir wollen, dass die KI unsere 
Werte widerspiegelt, sollten wir sicherstellen, dass wir ihr eine Vorstellung 
der grundlegenden Menschenrechte mit auf den Weg geben.


Zur Ausstellung

Die Ausstellung House of Mirrors – Künstliche Intelligenz als Phantasma befasst 
sich nicht nur mit algorithmischer Voreingenommenheit oder Diskriminierung in 
der KI, sondern auch mit KI-bezogenen Themen wie versteckter menschlicher 
Arbeit, dem Problem der Kategorisierung und Klassifizierung sowie unseren 
Vorstellungen und Phantasmen in Bezug auf KI. Sie stellt zudem die Frage, ob 
(und wie) es in diesem Kontext möglich ist, Handlungsfähigkeit 
zurückzuerlangen. Die Ausstellung, die in sieben thematische Kapitel gegliedert 
ist und deren Szenografie an ein Spiegelkabinett erinnert, präsentiert knapp 
zwei Dutzend Kunstwerke von 21 Künstler*innen aus zehn Ländern (Australien, 
China, Deutschland, Frankreich, Großbritannien, Israel, Italien, Russland, 
Schweiz und den USA).

Im Zusammenhang mit KI sprechen die Kurator*innen nicht nur von einem 
Spiegelkabinett, sondern auch von einem Phantasma beziehungsweise einer ganzen 
Reihe von Phantasmen („Erzählungen“), die mit KI verbunden werden. Diese können 
optimistischer oder pessimistischer Natur sein: So gibt es den Wunsch von der 
Befreiung von körperlicher und geistiger Arbeit (digitale Assistenten, 
Pflegeroboter, autonom fahrende Autos, etc.). Diese Vorstellungen können aber 
auch schnell in Ängste umschlagen: Die Angst davor, dass die Maschinen eine 
„Superintelligenz“ entwickeln und die Macht übernehmen.


Ein Rundgang durch die Ausstellung

Treten Sie ein in das Spiegelkabinett, das die menschliche Realität wiedergibt, 
teils getreu, teils verzerrt, mal durch eine Glasscheibe hindurch betrachtet, 
die Transparenz vorgaukelt, mal durch einen Einwegspiegel, der auf der einen 
Seite das Licht reflektiert und es auf der anderen durchlässt. Die Spiegelung 
erfolgt in komplexen Mensch-Maschine-Konfigurationen, in Software und 
Computern, in fließenden Übergängen zwischen menschlicher Arbeit, 
Automatisierung, Mustererkennung, Statistik oder, wie man gemeinhin sagt, in 
der Künstlichen Intelligenz. Wer zwischen den zahlreichen Spiegelbildern 
umherwandelt, verliert leicht die Orientierung. Plötzlich stehen wir unseren 
eigenen, als Phantasmen getarnten Ängsten und Tabus gegenüber. Albträume und 
Wunschvorstellungen wechseln sich ab: KI als überwältigende Herrscherin oder 
Erlöserin, und in jedem Fall als „das Andere“ des Menschen.


LOBBY

In der Lobby empfängt uns Sebastian Schmiegs Decisive Mirror (2019). Unser Bild 
wird von der Kamera eingefangen und umgehend klassifiziert: Wir sind „zu 42 % 
noch am Leben“, „zu 65 % imaginär“ oder „zu 17 % einer von ihnen“. Könnte es 
sein, dass die KI uns besser kennt als wir uns selbst? Lauren Hurets Video Ways 
of non-seeing (artificial intelligence is hard to see) (2016) zeigt unheimliche 
Szenen, die der Filmkomödie Nachts im Museum (2006) entliehen sein könnten, 
außer dass es sich hier um die Horrorversion handelt. Also Augen auf beim 
Besuch der Ausstellung House of Mirrors und bloß nicht das Gesicht verlieren!


RAUM 1: Eine Traumlandschaft der Vollautomatisierung

1872 veröffentlichte Samuel Butler Erewhon; Or, Over the Range, einen 
visionären Roman, der sich mit den Möglichkeiten der Maschine auseinandersetzt. 
Beeinflusst von Darwins Theorien fragt der Autor, was passieren würde, wenn 
auch die Maschinen den Gesetzen der Evolution gehorchten. Erewhon (ein Anagramm 
von nowhere, also „nirgendwo“ im Sinne einer Utopie) ist ein unbekanntes Land, 
aus dem die Maschinen verbannt worden sind. Der Erzähler erfährt von den 
Einwohner*innen, dass die technologische Entwicklung vor vier Jahrhunderten 
dort sehr weit fortgeschritten war, bis ein erewhonischer Wissenschaftler 
bewies, dass die Maschinen dazu bestimmt waren, den Menschen zu ersetzen, und 
dass ihre Entwicklung unendlich schneller vonstatten ging als die der Menschen.v

Die Vorstellung, dass sie vielleicht im Begriff waren, immer autonomere 
Maschinen zu bauen, die sie einst ersetzen würden, erschreckte die 
Erewhonier*innen so sehr, dass sie alle Maschinen zerstörten und es fortan 
tunlichst unterließen, neue zu erfinden und zu bauen. Auch heute, 150 Jahre 
nach Erscheinen des Romans, ist dieser „Traum von der Vollautomatisierung“, bei 
dem der Alltag vollständig von wohlwollenden Maschinen erledigt wird, die die 
Bewohner*innen von der Arbeit, aber auch von allen anderen Sorgen befreien, 
immer noch präsent.

In der Videoinstallation Welcome to Erewhon (2019) von Pierre Cassou-Noguès, 
Stéphane Degoutin und Gwenola Wagon ist er Anlass für eine schrille Fabel in 
Form einer Montage von YouTube-Videos, die das Bild einer Gesellschaft auf 
Autopilot und dessen grundlegende Ambivalenz hinterfragt.

Dieser Ingenieurstraum drückt sich nirgendwo so deutlich aus wie im 
selbstfahrenden Auto, dessen Einführung ständig angekündigt und immer wieder 
auf später verschoben wird. Nicolas Gourault zeigt in seinem Video VO (2020) 
anhand des Falls von Elaine Herzberg, der ersten Fußgängerin, die von einem 
„autonomen“ Uber-Auto überfahren wurde, wie der Traum zum Albtraum werden kann. 
Dieser tragische Unfall rückte die menschliche Arbeit ins Rampenlicht, die das 
Anlernen der KI erfordert.

KI ist weder magisch noch immateriell, sondern basiert auf einer globalen 
Recheninfrastruktur. Gwenola Wagon und Stéphane Degoutin haben Teile dieser 
globalen Infrastruktur in Atlas of the Cloud (2021) fotografisch dokumentiert.

Zheng Mahlers Installation The Master Algorithm (2019) wiederum zeigt einen 
KI-gesteuerten chinesischen Nachrichtenmoderator, der rund um die Uhr aktiv 
ist. Seine gespenstische Erscheinung wird durch schnell rotierende 
Hologramm-Ventilatoren erzeugt und erinnert an die riesigen, im Stadtraum 
befindlichen Bildschirme im dystopischen Kultfilm Blade Runner (1982). Die 
Verknüpfung von Chinas Sozialkreditsystem mit der Vorstellung eines von der 
Kommunistischen Partei angewandten Master-Algorithmus erinnert an so manche 
finstere techno-orientalistische Vision.


RAUM 2: Ceci n’est pas une pipe vi

Um Maschinen das Sehen beizubringen, müssen wir sie mit Tausenden oder gar 
Millionen von Bildern aus dem Internet trainieren. Diese Trainingsdatensätze, 
die die Grundlage unserer Lernsysteme bilden, können als zeitgenössische 
Enzyklopädien verstanden werden: Beide zielen darauf ab, alles auf der Welt 
Bestehende zu beschreiben.

Um die Welt zu verstehen, müssen wir die Dinge benennen, klassifizieren, 
einordnen. Doch Klassifizieren erweist sich als komplizierter als es zunächst 
scheint. Bilder sind mit vielfältigen und teils widersprüchlichen Bedeutungen 
aufgeladen und unterschiedlich interpretierbar, wie Simone C Niquille in ihrer 
Videoinstallation Sorting Song (2021) darlegt.

Anna Ridlers Arbeit Laws of Ordered Form (seit 2020) macht uns darauf 
aufmerksam, wie historische Taxonomien in modernen Anwendungen des maschinellen 
Lernens nachwirken, und zeigt die Probleme dieser Klassifizierungssysteme auf, 
die dazu neigen, Vorurteile zu kolportieren und kulturelle Stereotypen und 
Normen zu verstärken. Durch die Verwendung von Enzyklopädien zeigt die 
Künstlerin, wie Vorurteile, Werte und Überzeugungen in die Wissensproduktion 
hineinkodiert werden.


RAUM 3: Eine Wunderkammer mit leicht gewalttätigen Maschinen

Die in Algorithmen und Datensätzen eingeschriebenen Unterscheidungen und Regeln 
üben einen sanften Zwang aus, wenn sie zu Zwecken der Regulierung des 
menschlichen Lebens eingesetzt werden. So fanden beispielsweise amerikanische 
Studierende heraus, dass sie eine Prüfung problemlos bestanden, wenn sie die 
richtigen Schlüsselwörter in das automatisierte Bewertungssystem eingaben. Oder 
ein auf Gesichtserkennung basierendes Zutrittskontrollsystem öffnet sich erst, 
wenn die Einlasssuchenden lächeln. Das Lächeln, eine zutiefst 
zwischenmenschliche Geste, erscheint hier als etwas Aufgezwungenes. Mal mehr 
und mal weniger deutlich zeichnet sich in diesen Beispielen eine sanfte Gewalt 
ab, die den Ingenieursträumen der Automatisierung entspringt.

Wie im Video Where Is My (Deep) Mind? (2019) des französischen Künstlers Julien 
Prévieux, das in diesem Ausstellungskapitel gezeigt wird, sind es weniger die 
Maschinen, die intelligent werden, als wir, die zu Maschinen werden, indem wir 
unser Verhalten formatieren und mechanisieren, wobei wir unser Repertoire an 
Gesten und Wörtern verkümmern lassen.


RAUM 4: Die verborgene Kammer der Künstlichen Künstlichen Intelligenz

Der Begriff „Künstliche Künstliche Intelligenz“ mag zunächst wie ein 
Sprachirrtum erscheinen, doch er wurde bewusst geprägt,vii nämlich als sich 
herausstellte, dass gewisse Versprechen der Künstlichen Intelligenz nicht 
gehalten werden können und man deshalb auf die Intelligenz billiger 
Arbeitskräfte zurückgreifen musste. In diesem Raum geht es demnach um „falsche“ 
künstliche Intelligenz.

Hinter dem schwammigen Begriff „Künstliche Intelligenz“ verbergen sich viele 
Formen der Arbeit, die die Illusion einer Automatisierung aufrechterhalten. 
Viele Arbeiten, von denen wir glauben, dass sie von Computern erledigt werden, 
werden in Wirklichkeit von Menschen verrichtet. Für ein paar Cents lernen z.B. 
„Klickarbeiter*innen“ KI-Systeme an.

Transkription, Bildannotation, Moderation, visuelle oder akustische Erkennung – 
all diese Arbeiten werden in Form von Mikroaufgaben an Menschen delegiert, die 
sie für wenig Geld oder gar umsonst in kürzester Zeit erledigen müssen. Die 
italienische Künstlerin Elisa Giardina Papa hat als „Datenreinigerin“ für 
Unternehmen gearbeitet, die auf die Erkennung von Gefühlen spezialisiert sind, 
und dabei mehrere solcher recht seltsamen Aufgaben durchgeführt. Ihre Tätigkeit 
als Mikroarbeiterin dokumentiert sie in der 3-Kanal-Videoinstallation Cleaning 
Emotional Data (2020).

Mikroarbeiter*innen sind laut dem Soziologen Antonio Casilli (2019) wie 
„Millionen kleiner Hände, die Tag für Tag die Marionette der schwachen 
Automatisierung animieren“. Die KI könnte ohne sie nicht funktionieren. Der 
Künstler Conrad Weise hat diesen „Millionen kleiner Hände“ ein eindrucksvolles 
Denkmal namens <--human-driven condition (2021) gesetzt. Organisiert wird diese 
extrem fragmentierte Arbeit über Softwareplattformen, von denen Amazons 
Mechanical Turk wohl die bekannteste ist. Ihr Namen ist dem berühmten, im 18. 
Jahrhundert von Baron von Kempelen entworfenen schachspielenden Automaten, dem 
so genannten „Schachtürken“, entlehnt. Um diesen Automaten kreist auch die 
Installation Human Computers (seit 2016) von RYBN, in der die lange Geschichte 
der Arbeitsautomatisierung nachgezeichnet wird. Der Schachtürke, der seinerzeit 
viel Aufsehen erregte, war in Wirklichkeit eine Täuschung, verbarg er doch in 
seinem Inneren einen Menschen.

Diese Verflechtungen von Wirtschaft, Arbeit und Berechnung bleiben hinter den 
glatten, spiegelnden Interfaces der KI oft verborgen. Die Künstlerin Lauren Lee 
McCarthy untersuchte den Einfluss menschlicher Arbeit in der künftigen 
Entwicklung der Automatisierung, indem sie eine Woche lang die Rolle von 
Amazons virtuellem Assistenten Alexa übernahm, um die „smarten“ Häuser von 
freiwilligen Proband*innen aus der Ferne zu steuern. Dieses unheimliche 
Experiment ist in ihrer Installation LAUREN (2017) dokumentiert.


RAUM 5: Kabinett des schaurigen Gelächters

Ein gruseliges, spöttisches Lachen steigt aus den statistischen Datensätzen 
auf, die Menschen in der Welt der Künstlichen Intelligenz diskriminieren, und 
hallt wie in einer Schreckenskammer durch das Spiegelkabinett. Bias entsteht 
sowohl durch unaus-gewogene Datensätze als auch durch unreflektierte 
Entscheidungen bei der Erstellung des Informationsmodells einer KI-Anwendung. 
Er spiegelt unausgesprochene Vorurteile wider, die durch die Automatisierung 
verstärkt werden.

Mushon Zer-Avivs interaktive Installation Normalizi.ng (2020) ist ein 
experimentelles Online-Forschungsprojekt im Bereich des maschinellen Lernens, 
das untersucht, wie wir entscheiden, wer „normaler“ aussieht. Es orientiert 
sich an der Arbeit des französischen Forensik-Pioniers Bertillon, insbesondere 
an dessen portrait parlé, einem System zur Standardisierung, Indexierung und 
Klassifizierung des menschlichen Gesichts. Obwohl Bertillons statistisches 
System nie dazu gedacht war, das Gesicht zu kriminalisieren, wurde es später in 
weiten Teilen sowohl von der Eugenik-Bewegung als auch von den Nazis zu genau 
diesem Zweck übernommen. Zer-Avivs Online-Arbeit automatisiert Bertillons 
„sprechende Porträts“ und veranschaulicht, wie systematische Diskriminierung 
aggregiert, verstärkt und hinter der scheinbar objektiven Blackbox der KI 
opportun versteckt wird.

Die Funktionsweise der im Hintergrund arbeitenden KI-Systeme entziehen sich 
grundsätzlich der Kenntnis oder Kontrolle des Menschen. Die Betroffenen, die 
von diesen Systemen klassifiziert und bewertet werden, wissen in der Regel 
nicht, wo, wann oder wie sie eingesetzt werden. In ihrem Video CLASSES (2021) 
untersucht Libby Heaney die Verflechtungen zwischen maschinellem Lernen und 
sozialer Klasse beziehungsweise Klassifizierung.


RAUM 6: Erst zerkratzte ich den Spiegel, dann zerschlug ich ihn

Sind wir den problematischen Folgeerscheinungen von Automatisierung, 
Kategorisierung, Diskriminierung, versteckter menschlicher Arbeit und Bias 
wehrlos ausgesetzt? Welche Möglichkeiten gibt es für einen kreativen oder 
potenziell subversiven Umgang mit KI? Weit davon entfernt, nur pragmatische 
Lösungen vorzuschlagen, befasst sich eine Reihe künstlerischer Arbeiten mit der 
Frage, wie sich Handlungsfähigkeit zurückerobern lässt. Zunächst werden die 
glatten Spiegeloberflächen des KI-Kabinetts mit Aufschriften und Warnhinweisen 
gleichsam vandalisiert. Danach greifen Maschinenstürmer zum Hammer, um die 
Spiegel zu zertrümmern – nicht aus reiner Zerstörungswut, sondern um 
herauszufinden, was sich hinter ihnen verbirgt, so wie Alice im Buch durch den 
Spiegel klettert.

Die Künstler*innen gewähren uns kritische Einblicke in die Funktionsweise von 
KI, indem sie ihre Mechanismen aufdecken. In der Ausstellung House of Mirrors 
präsentiert Adam Harvey einen riesigen Spiegel, auf dessen Oberfläche der 
Slogan (und gleichzeitig Werktitel) Today’s Selfie Is Tomorrow’s Biometric 
Profile (2016) aufgebracht wurde. Auf sozialen Medien und anderen Plattformen 
hochgeladene Selfies werden dazu verwendet, KIs zu trainieren – ohne Zustimmung 
oder Wissen ihrer Urheber*innen. Ein Video erklärt die Funktionsweise der UCF 
Selfie Dataset GAN Anonymization (2018). Darüber hinaus wird über ein 
Computerterminal der Zugang zu Harveys Online-Projekt exposing.ai (2018-2020) 
ermöglicht. Abgerundet wird die Präsentation durch ein Videointerview mit dem 
Künstler, welches Francis Hunger 2021 im Rahmen des Forschungsprojekts Training 
the Archive (seit 2020) geführt hat. Wie zu erwarten wurde Harveys Gesicht 
darin unkenntlich gemacht.

Während Gesichtserkennung und auf ihr beruhende „Deepfakes“ bereits seit 
geraumer Zeit von Künstler*innen und Aktivist*innen kritisch thematisiert 
werden, sind maschinelles Hören und das sich anbahnende Panakustikon noch ein 
junges Forschungsfeld. Um zu funktionieren, müssen digitale Assistenten wie 
Alexa ständig die akustische Umgebung scannen. Doch wie und aufgrund welcher 
Daten werden sie trainiert? Wissen diese Systeme, wann wir uns gut oder 
schlecht fühlen? Können sie kriminelle Handlungen aus akustischen Informationen 
ableiten? Wer definiert, was ein „kriminelles Geräusch“ ist? In seinem Video 
Learning from YouTube (2018) blickt der Künstler Sean Dockray auf einen 
entscheidenden Moment in der Geschichte des automatisierten Zuhörens zurück: 
die Übernahme von YouTube durch Google. Detailliert beschreibt er dabei, wie 
Maschinen zum neuen Zielpublikum von YouTube werden. Haben wir als 
YouTube-Nutzer*innen ein Bestimmungsrecht darüber, wie die von uns 
hochgeladenen Inhalte verwendet werden? Wie können wir wissen, welche 
Wertesysteme und politischen Vorstellungen in die neuronalen Netze des 
maschinellen Hörens und der Kriminalprävention eingebettet sind?

Jake Elwes’ The Zizi Show (2020) ist ein interaktives 
Online-Deep-Fake-Drag-Cabaret. Hier wird die Praxis des Drag, die generell mit 
den Regeln der Normativität spielt, dazu verwendet, eine KI queer zu normen. 
Die in der Show zu sehenden Körper wurden von neuronalen Netzwerken generiert. 
Diese waren zuvor mit Datensätzen trainiert worden, die aus Filmaufnahmen von 
Drag-Künstler*innen in einem während der COVID-19-Pandemie geschlossenen 
Londoner Kabarett gewonnen wurden. The Zizi Show konstruiert und dekonstruiert 
ein virtuelles Kabarett, das die Grenzen der digitalen Vorstellungskraft 
radikal erweitert.

Anna Engelhardts historische Untersuchung Death under Computation (2022) geht 
den Ursprüngen von Russlands militärischer Forschung im Bereich Kybernetik und 
KI in der ehemaligen Sowjetunion nach. Indem sie die historischen Wurzeln der 
KI aufdeckt, die von der sowjetischen Armee im Kalten Krieg verschleiert 
wurden, hinterfragt sie ihre heutigen Verwendungszwecke. Das Bestreben, diese 
Systeme historisch zu beleuchten und daraus neue Erkenntnisse zu gewinnen, die 
über die russischsprachige Gemeinschaft hinaus verfügbar gemacht werden, 
entspricht einer Strategie, die uns erlauben soll, die Kontrolle über sie 
zurückzugewinnen.


RAUM 7: Exit Through the Gift Shop

Dieser betont selbstironische Raum entlässt den*die Besucher*in mit einer Reihe 
humoristischer Arbeiten aus dem Spiegelkabinett der KI-Phantasmen. Der Titel 
spielt einerseits auf den gleichnamigen Dokumentarfilm über den 
Graffiti-Künstler Banksy an und führt die Besucher*innen andererseits 
tatsächlich durch den Bookshop des HMKV. Mit Leichtigkeit und Witz reflektieren 
auch die hier gezeigten Arbeiten einige Kernthemen der Ausstellung: 
Automatisierung, Kategorisierung, menschliche Arbeit im Verhältnis zu 
maschineller Arbeit, Eingriffsmöglichkeiten in die 
Mensch-Maschine-Konfigurationen der KI und Zukunftsszenarien von 
Tier-Maschinen-Allianzen, aus denen die menschliche Spezies ausgeschlossen ist.

Stéphane Degoutins und Gwenola Wagons Videoinstallation Cat Loves Pig, Dog, 
Horse, Cow, Rat, Bird, Monkey, Gorilla, Rabbit, Duck, Moose, Deer, Fox, Sheep, 
Lamb, Baby, Roomba, Nao, Aibo (2017) thematisiert das jüngst auf YouTube 
grassierende Phänomen von Videoaufnahmen von Katzen, die sich stoisch von 
Staubsaugerrobotern durch die Wohnung fahren lassen. Die entsprechenden Bilder 
werden von einem Mikroprojektor, der auf einem fahrenden Staubsaugerroboter 
befestigt ist, in den Ausstellungsraum projiziert.

In seinem Video How To Give Your Best Self Some Rest (2021) beschreibt 
Sebastian Schmieg Staubsaugerroboter, Smart Locks, Lieferroboter und digitale 
Assistenten als „strategische Underperformer“. Er schlägt uns vor, ihrem 
Beispiel zu folgen und uns eine Auszeit zu gönnen.

Und bevor Sie die Ausstellung verlassen, überreicht Ihnen Aram Bartholl noch 
ein Geschenk: Lassen sich in einem professionellen Fotostudio porträtieren und 
wählen Sie dazu ihr Lieblings-Emoji aus. Indem sie die Gesichtskonturen mit dem 
ausgewählten Emoji nachzeichnet, verwandelt eine Software Ihr Gesicht in eine 
Maske, die für Systeme zur Gesichtserkennung nicht mehr lesbar ist. 
Hypernormalisation (2021) ist zugleich eine großzügige Geste des Künstlers und 
ein zugegeben etwas seltsames Geschenk, das Sie zuhause an Ihre Kühlschranktür 
heften können. Dort erinnert es Sie daran, dass KI überall um uns herum ist, 
dass wir sie nicht vergessen sollten, dass wir ihren (politischen) Nutzen 
hinterfragen können und dass wir die mit ihr einhergehenden Phantasmen 
zerschlagen sollten – wobei uns dann immer noch großartige Kunst zum Betrachten 
bleibt.

_______________________

i Justin McCurry, „South Korean AI chatbot pulled from Facebook after hate 
speech towards minorities”, The Guardian, 14. Januar 2021, 
https://www.theguardian.com/world/2021/jan/14/time-to-properly-socialise-hate-speech-ai-chatbot-pulled-from-facebook.

ii „How an Algorithm Blocked Kidney Transplants to Black Patients“, in: Wired, 
26. Oktober 2020, 
https://www.wired.com/story/how-algorithm-blocked-kidney-transplants-black-patients/.

iii Siehe auch Helbing, Dirk et al.: “Triage 4.0: On Death Algorithms and 
Technological Selection” (preprint), ResearchGate, September 2021, 
https://www.researchgate.net/publication/354293560_Triage_40_On_Death_Algorithms_and_Technological_Selection_Is_Today%27s_Data-Driven_Medical_System_Still_Compatible_with_the_Constitution.

iv Sample, Ian: “Computer says no: Why making AIs fair, accountable and 
transparent is crucial”, The Guardian, 5. November 2017, 
https://www.theguardian.com/science/2017/nov/05/computer-says-no-why-making-ais-fair-accountable-and-transparent-is-crucial.

v Samuel Butler, Erewhon oder Jenseits der Berge, übers. v. Fritz Güttinger, 
Eichborn, Frankfurt/Main 1994.

vi Dieser Titel bezieht sich auf das Bild La Trahison des images (dt. Der 
Verrat der Bilder, 1928-29) des surrealistischen Malers René Magritte. Es zeigt 
eine Pfeife mit der Bildunterschrift "Dies ist keine Pfeife".

vii Amazon verwendet den Begriff der „Künstlichen künstlichen Intelligenz“ für 
seinen 2001 patentierten Service Amazon Mechanical Turk. Er bezeichnet Prozesse 
in Computerprogrammen, die an Menschen ausgelagert werden, da diese sie 
schneller ausführen können als Maschinen. Vgl. „Amazon Mechanical Turk“, 
Wikipedia, https://en.wikipedia.org/wiki/Amazon_Mechanical_Turk, aufgerufen am 
22. März 2022, sowie „Artificial artificial intelligence“, The Economist, 10. 
Juni 2006, 
https://www.economist.com/technology-quarterly/2006/06/10/artificial-artificial-intelligence?story_id=7001738.

 
++++++++++++++


VERANSTALTUNGSPROGRAMM

Freitag, 08. April 2022, 17:00 – 22:00 Uhr
HMKV im Dortmunder U | Ebene 3 & online
Soft Opening der Ausstellung House of Mirrors: Künstliche Intelligenz als 
Phantasma. Zusätzlich besteht um 20:00 Uhr die Möglichkeit, an einem Rundgang 
per Livestream teilzunehmen: 
https://hmkv.de/veranstaltungen/veranstaltungen-details/eroeffung-house-of-mirrors.html

Samstag, 09. April 2022, 15:00 – 16:30 Uhr
HMKV im Dortmunder U | Ebene 3
Kurator*innenführung durch die Ausstellung mit Inke Arns, Francis Hunger & 
Marie Lechner

Dienstag, 26. April 2022, 16:00 – 17:30 Uhr
Zoom | Online
Workshop: „Richtig unfair!? So diskriminierend kann KI sein“ mit Susanne 
Rentsch*

Dienstag, 17. Mai 2022, 15:00 – 18:00 Uhr
Zoom | Online
Workshop: „Diskutieren mit Maschinen? Grundlagen von sprachbasierter KI 
erproben und verstehen“ mit Benjamin Eugster, Hannah Schwaß & Anna-Lena Barner*

Donnerstag, 02. Juni 2022, 19:00– 21:30 Uhr
HMKV im Dortmunder U | Kino, EG
Kurzfilmabend: Frame of Reference I (2020) von Su Yu Hsin, A set of 
non-computable things (2017) von Charlotte Eifler und How Does Thinking Look 
Like (2021) von Philipp Schmitt + anschließende Diskussion mit Charlotte Eifler 
und Su Yu Hsin

Freitag, 10. Juni 2022, 19:00 – 22:00 Uhr
HMKV im Dortmunder U | Kino, EG
Konzert mit Dagobert und Kay Shanghai

Mittwoch, 15. Juni 2022, 19:00 – 21:00 Uhr
HMKV im Dortmunder U | Kino, EG & online
Gespräch: „Was das Valley denken nennt“ mit Adrian Daub, Jonas Lüscher und 
weiteren Gäst*innen

Freitag, 24. Juni 2022, 09:00 – 12:00, 13:00 – 15:00 Uhr
Zoom | Online
Fachtagung: „KI Infrastrukturen für Zivilgesellschaft und Kunst“*

Donnerstag, 30. Juni 2022, 19:00 – 20:30 Uhr
HMKV im Dortmunder U | Kino, EG
Filmabend: Coded Bias (2020) von Shalini Kantaaya

Samstag, 02. Juli 2022, 13:00 – 16:30 Uhr
HMKV im Dortmunder U | Ebene 3, Workshopraum
Workshop: „Human Perceptron“ mit RYBN*

Samstag, 02. Juli 2022, 19:00 – 21:00 Uhr
HMKV im Dortmunder U | Kino, EG & online
Vortrag: „Künstliche Intelligenz – Heilsversprechen oder kapitalistische 
Maschine?“ mit Timo Daum

Donnerstag, 28. Juli 2022, 19:00 – 21:30 Uhr
HMKV im Dortmunder U | Kino, EG
Filmabend: All That is Solid Melts Into Data (2015) von Boaz Levin & Ryan S. 
Jeffery + anschließende Diskussion mit Boaz Levin

Jeden 1., 3. & ggf. 5. Sonntag im Monat sowie feiertags, 16:00 – 16:45 Uhr
Termine im Einzelnen: 15./17./18. April, 01./15./26./29. Mai, 05./06./16./19. 
Juni, 03./17./31. Juli
HMKV im Dortmunder U | Ebene 3
Öffentliche Führung durch die Ausstellung House of Mirrors

Jeden 2. + 4. Sonntag im Monat, 16:00– 16:30
Termine im Einzelnen: 10./24. April, 08./22. Mai, 12./26. Juni, 10./24. Juli
Instagram | Online
Live Online-Führung durch die Ausstellung House of Mirrors via Instagram 
Live-Story. Einfach auf dem HMKV-Profil @hmkv_de teilnehmen.
 
* eine Anmeldung unter ev...@hmkv.de ist erforderlich

Vgl. https://hmkv.de/veranstaltungen.html für ausführliche und aktuelle 
Informationen zu den Terminen.



-- 
rohrpost - deutschsprachige Liste zur Kultur digitaler Medien und Netze
Archiv: http://www.nettime.org/rohrpost 
http://post.in-mind.de/pipermail/rohrpost/
Ent/Subskribieren: http://post.in-mind.de/cgi-bin/mailman/listinfo/rohrpost/

Antwort per Email an