Springe direkt zu Inhalt

Rückblick BUA Open Space #2: KI & Ethik

„Alexa, sag mir: Wie gestalten wir KI fair und verantwortungsvoll?“ – um KI und Ethik ging es in der zweiten Ausgabe der Salonreihe BUA Open Space der Berlin University Alliance

Sprachassistenten, smarte Produktionsplanung und die personalisierten Vorschläge vom Streaming-Dienst: Künstliche Intelligenz ist in unserem täglichen (Arbeits-)leben angekommen. Doch mit diesen Innovationen kommen auch viele Fragen: Wie stellen wir sicher, dass KI gerecht und verantwortungsvoll entwickelt wird? Wie vermeiden wir, dass sie bestehende Vorurteile verstärkt? Und wie begegnen wir der Skepsis vieler Menschen gegenüber KI?

Künstliche Intelligenz – für die einen sind damit alptraumhafte Vorstellungen einer dystopischen Zukunft verbunden, in der die Menschen permanent überwacht und kontrolliert werden. Andere verbinden mit KI die Hoffnung auf eine bessere Zukunft, in der Algorithmen dabei helfen, komplexe Probleme zu lösen, die medizinische Versorgung zu verbessern und die Produktion effizienter zu gestalten. Welchen Blick hat die Wissenschaft auf dieses Thema? Und welche Perspektiven kommen aus der Zivilgesellschaft, der Politik und der Wirtschaft?

Am 25. September lud die Berlin University Alliance alle Interessierten dazu ein, sich über KI und Ethik auszutauschen – in der zweiten Ausgabe der Salonreihe BUA Open Space, die zum Thema passend auf dem Merantix AI Campus in Berlin stattfand.

BUA-Sprecher Prof. Günter M. Ziegler, Präsident der FU Berlin, betonte gleich zu Beginn, wie wichtig das Themenfeld im Berliner Exzellenzverbund ist: „Die Frage nach einer verantwortungsvollen und gerechten Gestaltung von KI ist eine der zentralen Herausforderungen unserer Zeit und betrifft uns alle.“ Damit verbunden seien nicht nur technische, sondern auch ethische, rechtliche und wissenschaftliche Dimensionen. Im Verbund, gemeinsam mit Wissenschaftler*innen unterschiedlicher Disziplinen und der Stadtgesellschaft, müssten all diese Aspekte diskutiert und in eine öffentliche Debatte eingebracht werden.

Rund 80 Besucher*innen nahmen an diesem Abend die Einladung dazu an. Auf dem Podium teilten Dr. Dafna Burema (TU Berlin) und Jonas Frenkel (Universität Potsdam) vom Exzellenzcluster Science of Intelligence ihre Expertise als Wissenschaftler*innen. Laura Möller, Leiterin des Künstliche Intelligenz Entrepreneurship Zentrums K.I.E.Z., brachte die Perspektive der praktischen Anwendung ein, die sie täglich in der Zusammenarbeit mit Startups erlebt, die KI-Produkte entwickeln. Moderator Mads Pankow leitete durch den Abend und baute geschickt Brücken ins Publikum hinein, für das ebenfalls ein Platz auf dem Podium reserviert war. Verschiedene Teilnehmer*innen nutzten abwechselnd die Gelegenheit, um ihre Fragen an die Expert*innen zu stellen und mitzudiskutieren.

Verantwortung, Transparenz und Missbrauch

Künstliche Intelligenz ist nicht frei von Fehlern. Wer aber trägt die Verantwortung dafür, wenn die KI etwa manipuliert statt zu unterstützen oder ungerecht bewertet, statt objektiv zu sein? Die Soziologin Dafna Burema untersucht genau solche Fragen und sagte: „Wenn KI versagt, kann das technische, manchmal aber auch soziale Ursachen haben.“ Wenn etwa eine Überwachungs-KI aufgrund von Hautfarbe oder anderen Merkmalen Menschen ungerecht bewertet oder verdächtigt, liegt die Ursache im sogenannten KI-Bias. Voreingenommene Bewertungen entstehen dabei durch menschliche Vorurteile, die über Trainingsdaten in den KI-Algorithmus hineinprogrammiert werden und so zu verzerrten Ergebnissen führen. „Ganz oft gibt es aber keine Transparenz, woher die Daten stammen. Und das ist ein Problem“, betonte die Forscherin.

Wie verletzend und manipulierend eine falsch programmierte KI sein kann, konnten die Besucher*innen selbst ausprobieren: Mit der interaktiven Installation „Observee In Situ“ schufen der Künstler Jun Suzuki und die Künstlerin Emilia Gentis eine gruselige KI-Variante, die die Gäste scannte und ein ernüchterndes Urteil zu Aussehen, Modegeschmack oder Verdächtigkeit fällte. Die der Programmierung innewohnenden Vorurteile ließen die Gäste zusammenschrecken, regten gleichzeitig aber zum Nachdenken über mögliche Motive, potenzielle Gefahren und Risiken von KI an.

Jonas Frenkel erforscht als Psychologe Roboter-Mensch-Interaktionen und entwickelt mithilfe von KI Therapieroboter für autistische Kinder. Er erklärte, wie die KI-Algorithmen dabei helfen könnten, die Therapie für jedes einzelne Kind so anzupassen, dass über Stimme und Verhalten Vertrauen vermittelt wird. „Gerade die reduzierte soziale Komplexität machen die Therapieroboter in der Autismus-Therapie zu einem wertvollen Instrument, das den Kindern Sicherheit gibt“, erklärte er. Gleichzeitig ist sich der Forscher bewusst, dass seine Ergebnisse auch missbraucht werden könnten, um etwa mit besonders angenehmen Stimmen den Verkauf von Produkten anzukurbeln.

Zwei Drittel haben Bedenken gegenüber KI

„Wenn man als Gründerin oder Gründer keine Verantwortung übernimmt, ist man schnell weg vom Fenster“ beantwortete Laura Möller die Frage danach, wer die Verantwortung für Fehler der KI übernehmen muss. „Startups können großen Einfluss auf die Konsument*innen haben. Sie müssen bereits früh darauf achten, dass sie Aspekte wie Ethik, Transparenz und Robustheit ihrer Daten in ihre Firmen-DNA einbauen.“ Doch regelt der Markt tatsächlich alles selbst? Oder brauchen wir staatliche Regulierung, um mögliche Gefahren und Missbrauch von KI abzuwehren? Braucht es gar eine eigene KI, die andere KIs reguliert und überwacht? Was muss ich als Nutzerin und Nutzer über KI wissen, um bewusst und verantwortungsvoll damit umgehen zu können? Welche Kompetenzen muss ich dafür erlernen? Um diese Fragen entspann sich eine rege Diskussion, die schnell deutlich machte: Vieles ist noch offen, gesetzlich noch nicht geregelt und auch wissenschaftlich noch nicht ausreichend untersucht.

Zum Ende des Abends teilte Moderator Mads Pankow noch eine ernüchternde Zahl aus einer Umfrage: Knapp zwei Drittel aller Menschen in Deutschland glauben demnach, dass ihr Leben durch KI eher schlechter als besser wird. Wie sahen es die Expert*innen auf dem Podium? „KI ist wie das Internet“, erklärte Dafna Burema. Auch dort gebe es gute und schlechte Seiten. „Man kann damit auch sehr viel Schönes machen.“ Jonas Frenkel betonte: „KI kann Aufgaben übernehmen, auf die ich gar keine Lust habe. Etwa nach einem Fehler in einem seitenlangen Computercode suchen oder lange Texte kurz zusammenfassen.“ Laura Möller ergänzte mit einem Schmunzeln: „Es gibt inzwischen übrigens auch die ersten KI-Roboter, die Wäsche zusammenlegen können.“

Wir bedanken uns bei allen Beteiligten!

Warum KI auch in der Wissenschaftskommunikation Chancen bietet und was die Forscherin Dafna Burema außerdem dazu sagt, ist im Einblick KI auf der BUA-Webseite zu lesen.