Der Verein D64 startet seine Themenreihe zu Künstlicher Intelligenz. Ein junges Publikum folgt der offenen Einladung ins betahaus, das Thema zu diskutieren und so die politische Agenda mitzugestalten. Ich stelle nach der Veranstaltung fest: Gerade in Bezug auf ethische Aspekte herrscht noch Redebedarf.

Mit “Hallo liebe Genossen” begrüßt Brigitte Zypries letzten Samstag im betahaus das Publikum zur Veranstaltung “Künstliche Intelligenz: Technik, Ethik, Recht “ des Vereins D64 – Zentrum für digitalen Fortschritt. Zu viel Parteipolitik für eine Twitter-Nutzerin: “Man wird bei der #D64KI mit “Genosse” angesprochen, ich glaube ich gehe gleich”. Zumindest zu ihr spüre ich nun eine gedankliche Verbundenheit, immerhin hat sie meinen humoristischen Nerv getroffen. Einfach aufstehen und gehen, so radikal reagiert dann doch keiner. Alle bleiben. Schließlich sollen die Teilnehmer hier die ersten politischen Handlungsempfehlungen für ein Positionspapier erarbeiten, das der digital-politische Verein der kommenden Bundesregierung im Herbst vorlegen will.

Einen inhaltlichen Faux Pas leistet sich die Bundeswirtschaftsministerin prompt, indem sie behauptet, man könne doch “wenn’s mal schief geht mit der KI” den Maschinen die Schuld geben. Kurzes Raunen im Raum, und auch in mir regt sich der Gedanke, dass gerade dieses Auslagern von Verantwortung eben nicht die Lösung sein kann und wir deshalb hier sind, um andere Möglichkeiten zu eruieren.

Das volle betahaus am ersten frühlingshaften Samstag im Jahr zeigt das rege Interesse eines durchaus jungen Publikums.

Das volle betahaus am ersten frühlingshaften Samstag im Jahr zeigt reges Interesse am Thema. (Bild entnommen aus dem Tweet von Henning Tillmann)

Aus vier angebotenen Workshops entscheide ich mich für einen, in dem IBM die technische Seite der KI beleuchten will. Zunächst gibt’s im Vortragsstil einen groben Abriss über die Entwicklung der KI. Wir schauen ein kurzes Video, in dem Watson 2011 in der Quizshow Jeopardy gnadenlos gegen seine Mitspieler gewinnt. Beeindruckender finde ich allerdings die Feststellung, dass das erste Chat-Bot-Programm Eliza, das psychische Probleme mit seinem digitalen Gegenüber bespricht, bereits 1966 entwickelt wurde. Experten sehen das Potential für KI in der Psychologie auch heute noch. So soll ein Chat-Bot Menschen bei Depressionen helfen, oder Facebook erkennen können, wenn ein Nutzer suizidgefährdet ist. Der Erfolgsnachweis solch virtueller Therapien steht allerdings noch aus. Mal mit dem Computer-Therapeuten von damals herumzuspielen, ist dennoch unterhaltsam.

Wenn man so wie ich mal nachts nicht schlafen kann, hilft einem der Chat-Bot leider auch nicht wirklich weiter. Spaß macht das Herumspielen trotzdem.

Wenn man so wie ich mal nachts nicht schlafen kann, hilft einem der Chat-Bot leider auch nicht wirklich weiter. Spaß macht das Herumspielen trotzdem.

Im anschließenden Plenum frage ich, ob der KI zwecks viel diskutierter Entwicklungen um Hate-Speech und Fake News nicht eine besondere gesellschaftliche Relevanz zukommt, und wie es das Unternehmen mit solchen Themen hält. Die Antwort ist frustrierend: Damit beschäftige man sich bei IBM nicht, schließlich sei man Hersteller von Infrastruktur, so Dr. Dirk Michelsen. Auch beim Thema Datenschutz berufe man sich auf den Kunden, wenn dieser kein Geld dafür ausgeben wolle, sei es nicht IBMs Aufgabe, das anzuzweifeln. Ich verstehe zwar, dass ein Unternehmen sich auf sein Kerngeschäft konzentriert und dort auch die Prioritäten liegen. Etwas mehr unternehmerische Gesellschaftsverantwortung ist dennoch wünschenswert. Der Tenor “none of my business” zieht sich so lange, bis sich die Runde schließlich zum Q&A über die Rechenleistung, Ausstattung und physische Größe von IBMs Watson entwickelt (hier sei zu betonen, dass man zwischen dem originalen Watson und der heutigen Watson-Produktpalette von IBM unterscheiden muss). Mit Blick auf den Dreiklang der Veranstaltung kommt mir das Thema Ethik hier zu kurz.

Nun kann nur das Abschlusspanel noch etwas reißen. Hier diskutieren die Workshop-Geber mit den D64-Vertretern über Lösungen, die die Regierung bereitstellen kann, um die künftige Entwicklung von KI zu steuern. Stephan Noller bringt staatliche Regulierung ins Spiel. Laut eigener Aussage arbeitet er mit seinem Internet of Things-Start-Up ubirch gerade an einer Technologie, die den weiblichen Eisprung mittels Sensorik präzise voraussagen soll. Dazu müssen viele Daten ausgewertet werden, Noller ist also mit Big Data und KI betraut. Den Staat durch mehr Gesetzgebung im Bereich Künstlicher Intelligenz in die Pflicht zu nehmen ist sicher keine schlechte Idee, Selbstregulierung der Wirtschaft ist nicht ausreichend.

Das Thema “Wem gehören meine Daten eigentlich” illustriert die Wissenschaftlerin Dr. Judith Simon von der Universität Hamburg an einem Vergleich: “Wenn das Auto vor meiner Tür mir gehört, darf ich es auch verkaufen. Mein Körper gehört auch mir, meine Organe zu verkaufen, ist dennoch illegal.” Hier ist eingängig, wer die Rechte an einer Sache besitzt und in welcher Form man über sie verfügen darf. Solch simple Modelle von individuellem Besitz funktionierten im Kontext von Daten allerdings nicht, die Relationalität sei eine andere, so Simon. Ein Gut wie Privatsphäre müsse geschützt werden. Dass Privatsphäre und Datenschutz nicht zum Luxusgut verkommen, dürfte wohl im Interesse der Allgemeinheit sein.

Abschließend wird das Statement “Technik ist erstmal wertneutral” aus einem der Workshops moralisch zur Diskussion gestellt. Hier zeigt sich nochmals, dass ethische Fragen bei KI eine größere Rolle spielen müssen. Bei unterschiedlichen Interessen ist es wichtig, dass es einen Advokaten gibt, der sich dafür einsetzt. Dabei ist Multiperspektivität wichtig, die Debatte muss mit verschiedenen Akteuren geführt werden. Das sehen die “Genossen” wohl auch so, dieser Tag ist schließlich erst der Auftakt der Veranstaltungsreihe. Ich habe jedenfalls vor, auch beim nächsten Mal dabei zu sein. Auf das Positionspapier im Herbst bin ich schon jetzt gespannt.