Transparenz bei KI-Inhalten
Albert Einstein, Alice Salomon und Robert Koch: Mit KI wieder präsent in Berlin
Die Szene wirkt realistisch: Zu sehen ist eine Straßenansicht Berlins, im Hintergrund Fernsehturm und Hochhäuser, auf der Straße Autos und eine Straßenbahn. An einer Häuserwand prangt großformatig ein Graffiti: Albert Einstein posiert dort in bekannter Haltung, mit ausgetreckter Zunge. Diese Berliner Ansicht an der Prenzlauer Allee existiert tatsächlich – bis auf ein Detail: Die Häuserwand zeigt im Original nicht Albert Einstein, sondern Fragmente eines Street-Art-Werks.
Das Werk mit dem berühmten Physiker ist eine Kombination aus einer echten Fotografie und einer KI-generierten Abbildung. Einstein ist mithilfe des KI-Programms „Supermachine“ in das Bild gelangt, das der Fotograf Michael Zalewski erstellt hat. Es ist Teil einer Bilderserie, die namhafte Wissenschaftler*innen wie Rudolf Virchow, Max Planck, Lise Meitner, Alice Salomon oder Robert Koch mit Portraits im Berliner Stadtraum präsentiert. Sie alle wirkten um die Jahrhundertwende in Berlin, verbrachten hier zum Teil die wichtigste Zeit in ihrer Karriere und prägten mit ihren herausragenden Arbeiten den Berliner Forschungsraum. Die Bilderserie erinnert an diese bedeutenden Persönlichkeiten und platziert sie dort, wo sie einst wirkten: mitten in Berlin.
Mit Prompts entsteht das perfekte Bild
„Am Anfang steht die Idee“, erklärt Michael Zalewski die Entstehung solcher Bilder. Diese Bildidee wird in einem „Prompt“ – also einer möglichst genauen Beschreibung – in Textform in die Bild-KI eingegeben. Welche Motive soll das Bild zeigen? Hintergrund, Tageszeit, sogar Belichtungszeit, Kameramodell oder Fotografiestil können im Prompt vorgegeben werden. Aus den eingegebenen Informationen errechnet die KI ein Bild, das meistens nicht sofort den Vorstellungen entspricht. Mit weiteren Prompts fließen immer detailliertere Informationen in die KI, die das Bild darauf aufbauend optimiert und anpasst. Bis alles stimmt, können mehrere Stunden Arbeit vergehen. „Besonders am Anfang sind die Einarbeitung in die Programme und das Prompten sehr aufwendig“, beschreibt Michael Zalewski seine Erfahrungen. „Wenn man häufig damit arbeitet, geht es schneller.“ So manche Bildidee könne mit KI leichter, schneller und kostengünstiger umgesetzt werden.
Für das perfekte Graffiti von Albert Einstein benötigte Michael Zalewski mehrere Anläufe und Prompts. „Mal war die Nase schief, der Gesichtsausdruck komisch oder die Häuserwand gefiel mir nicht.“ Am Ende war der Fotograf zufrieden und setzte das entstandene Graffiti mit einem Bildbearbeitungsprogramm in eine Originalfotografie ein. Dem Ergebnis ist nicht anzusehen, dass ein Teil des Bildes mithilfe von KI entstand und nachträglich eingefügt wurde.
Die zwei Seiten der Medaille
Mit KI-Tools und den Inhalten, die daraus entstehen, beschäftigt sich auch die Wissenschaftlerin Dr. Dafna Burema. Die Soziologin forscht als Postdoc im Exzellenzcluster Science of Intelligence (SCIoI) an der Technischen Universität Berlin. Ihre Forschungsfragen drehen sich rund um das menschliche Verhalten und die Gesellschaft im Kontext von Technologien: „Ich schaue mir an, wie und warum Menschen künstliche Intelligenz erschaffen und habe vor allem auch einen Blick auf die damit verbundenen ethischen Fragen. Werden ethische Gesichtspunkte beim Kreieren von KI-Tools berücksichtig und richtig angewendet? Sind die neuen Technologien hilfreich oder nicht?“
KI ist schon im Alltag angekommen
Bereits heute nutze nahezu jeder Mensch im Alltag unbewusst KI – in Streamingdiensten, beim Online-Shoppen, über Spamfilter oder beim Navigieren. Inzwischen sei es nahezu unmöglich, keine KI anzuwenden, sagt Dafna Burema. Generative KI geht allerdings einen Schritt weiter: Sie erstellt auf Basis von Trainingsdaten völlig neue Inhalte – Texte, Bilder, Musik oder Videos.
Für die Wissenschaftskommunikation können solche KI-Tools sehr hilfreich sein: Komplexe und umfangreiche wissenschaftliche Publikationen lassen sich etwa durch Textprogramme rasch übersetzen, vereinfachen und kürzen, so dass sie auch für Laien verständlich werden. Bildprogramme kreieren mithilfe der richtigen Prompts Abbildungen von schwer zu beobachtenden Phänomenen oder abstrakten Konzepten. Sie können Daten und Muster veranschaulichen und die unterschiedlichsten Zielgruppen ansprechen. KI kann also dazu beitragen, dass Forschung und ihre Ergebnisse verständlicher und zugänglicher kommuniziert werden.
Doch es gibt auch Risiken wie etwa Manipulationen von Inhalten oder das Vortäuschen von falschen Tatsachen. Der Datenschutz und das Recht am geistigen Eigentum sind weitere Kritikpunkte, die häufig angeführt werden, wenn es um die Nutzung von KI geht. Die Modelle werden meist mit Texten, Bildern, Kunstwerken und Daten trainiert, ohne die Erlaubnis der Urheber*innen und Eigentümer*innen einzuholen. Auch die Frage der Transparenz ist bedeutend: Müssen KI-Inhalte als solche gekennzeichnet werden oder dürfen Nutzer*innen darüber im Unklaren gelassen werden, dass das, was sie lesen oder betrachten, nicht von einem Menschen geschaffen wurde? Und schließlich sind KI-Inhalte nicht unfehlbar. Der Begriff „KI-Bias“ beschreibt, wie menschliche Vorurteile KI-Algorithmen beeinflussen und zu verzerrten Ergebnissen führen, die dann beispielsweise bestimmte soziale Gruppen benachteiligen können.
Transparenz ist wichtig
„In dem Forschungsfeld KI und Ethik geht es darum, all diese Unsicherheiten und Grauzonen genauer zu betrachten und Leitlinien und Regeln für das Nutzen von KI zu entwickeln“, beschreibt Dafna Burema eine ihrer Forschungsaufgaben, die sich an der Schnittstelle von Soziologie und Technologie bewegt. „Und auch um die Frage, ob und warum wir KI überhaupt wollen und brauchen.“
Dafna Burema hält Transparenz für eines der wichtigsten Kriterien im Umgang mit KI. „Viele Probleme und Risiken resultieren daraus, dass die Menschen nicht wissen, dass sie mit einer künstlichen Intelligenz interagieren oder Inhalte konsumieren, die mit KI erzeugt wurden.“ Bots - also automatisierte Softwareprogramme -, Deep Fakes und Fake News sind die Negativbeispiele, die mithilfe von KI in enormen Mengen auf Knopfdruck erzeugt werden können und sich vor allem in den Sozialen Medien rasant verbreiten. Andererseits sei KI in der Lage, Inhalte für sehr viele Menschen erst zugänglich zu machen und Wissenschaftler*innen dabei zu unterstützen, ihre Ergebnisse und Botschaften an eine breite Bevölkerung zu kommunizieren, ist Dafna Burema überzeugt. „KI kann auch demokratisierend wirken“, betont die Forscherin. „Etwa, wenn Sprachbarrieren mithilfe von Chat- oder Übersetzungsprogrammen überwunden werden.“ Letztendlich sei KI – wie viele technologische Errungenschaften – ein Instrument, dass Risiken in sich berge, gleichzeitig aber viel Gutes bewirken könne. „Es hat zwei Seiten und wir müssen sorgsam und auch kritisch damit umgehen“, fasst die Forscherin zusammen. „Dabei sollten wir nicht zu pessimistisch sein, denn die Vorteile von KI sind in vielen Bereichen enorm.“
Michael Zalewski
Michael Zalewski studierte Fotografie an der Hochschule für Grafik und Buchkunst in Leipzig und arbeitet seit 1999 als Fotograf und Künstler in Berlin. Sein Schwerpunkt liegt in der Architektur- und Sachfotografie.
Dr. Dafna Burema
Dr. Dafna Burema ist Soziologin und forscht im Exzellenzcluster Science of Intelligence (SCIoI) an der Technischen Universität Berlin. Sie beschäftigt sich mit den sozialen Auswirkungen von KI und anderen neuen Technologien.