08 Jun 2023

Hybrides Fachgespräch ChatGPT & Co nachhaltig und demokratisch gestalten

  • Der Koalitionsvertrag der Ampel betont das Ziel einer nachhaltigen Digitalisierung, will die Demokratie stärken und verstärkt gegen Desinformation und Hass im Netz kämpfen.
  • KI-Systeme wie ChatGPT stellen uns hier vor große Herausforderungen. EU-Regulierung muss sich daher nach den Maßstäben von Klimaschutz, Grundrechten und Demokratie ausrichten.
  • Im Rahmen des Fachgespräches haben wir mit Expert*innen und Kolleg*innen im EU-Parlament über die Ausgestaltung und Folgen des EU-Gesetzes über Künstliche Intelligenz diskutiert.

In Vorbereitung auf den Endspurt zur EU-Verordnung zu Künstlicher Intelligenz (KI) haben wir die grünen Perspektiven aus Berlin und Brüssel an einen Tisch mit Zivilgesellschaft, Wissenschaft und Verwaltung gebracht. Im Dialog mit den Expert*innen identifizierten Tabea Rößner MdB und Sergey Lagodinsky MdEP die Knackpunkte für die weiteren Verhandlungen auf EU-Ebene – und skizzierten die Zukunft einer „AI made in Europe“.

Im Zentrum stand die Frage, wie es gelingen kann, den weiteren Gesetzgebungsprozess im Sinne des Gemeinwohls zu gestalten – und dabei insbesondere die Ziele von Nachhaltigkeit und Stärkung demokratischer Meinungsbildung in den Fokus zu rücken. Nachdem das Europäische Parlament (EP) am 14. Juni über seine Position zur KI-Verordnung abgestimmt hat, stehen nun die Trilogverhandlungen an: Seine finale Form wird der sogenannte AI Act damit in diesen Verhandlungen zwischen Rat und Parlament, unter Beteiligung der EU-Kommission, erhalten.

In ihrer Begrüßung umriss Tabea Rößner den aktuellen Diskurs und die politischen Herausforderungen von KI. Durch die Fülle an Anwendungen generativer KI wie ChatGPT, Bard oder MidJourney sei das Thema mittlerweile in aller Munde. KI komme immer stärker im Alltag der Menschen an.

Insofern erreiche das umfangreiche Regelwerk der EU genau zu richtigen Zeit die Schlussgerade. So wenig wie wir heute Kraftfahrzeuge, Impfstoffe oder Lebensmittel ungeprüft im europäischen Binnenmarkt akzeptieren, sollten wir auch bei der KI ein ungeregeltes Marktumfeld akzeptieren. Nur so könnten vertrauenswürdige und gemeinwohlorientierte Geschäftsmodelle mit KI entstehen, die sich im internationalen Wettbewerb als „AI made in Europe“ als Standortvorteil erweisen könnten.

Im Ergebnis müsse KI den Menschen und dem Planeten dienen – nicht umgekehrt. Für die letzten Meter komme es nun darauf an, die richtige Balance zwischen dem Schutz der Grundrechte und der Innovationsförderung zu finden.

Sergey Lagodinsky betonte zunächst die Relevanz des öffentlichen Austauschs über ein konkretes Regelwerk zwischen Brüssel und Berlin. In einer Welt, die scheinbar zwischen Digitaloptimist*innen und –pessimist*innen aufgeteilt sei, sollten Grüne in den Parlamenten stets als Digitalrealist*innen agieren. Gemeinsames Ziel für das Fachgespräch sei es, alle Perspektiven aus Zivilgesellschaft, Bevölkerung und Wirtschaft zusammenzubringen und die vorhandenen Zielkonflikte im Bereich KI gemeinwohlorientiert aufzulösen.

Er berichtete eindrücklich davon, wie er sich als Schattenberichterstatter für die Grünen/EFA im Europaparlament vehement für Nachhaltigkeitsanforderungen an KI-Systeme habe einsetzen müssen. Dabei ließ er insbesondere Revue passieren, wie es gelingen konnte, entgegen dem großen politischen Widerstand Forderungen nach einer Aufzeichnung des Energie- und Ressourcenverbrauchs bei hochriskanten KI-Anwendungen durchzusetzen. Auch die grünen Forderungen nach Standards zur Reduktion des CO2-Ausstoßes habe er durchsetzen können.

Panel "KI und Nachhaltigkeit"

Zu Beginn des ersten Panels ging Sergey Lagodinsky näher darauf ein, wie generative KI-Systeme wie etwa ChatGPT, Midjourney und Dall-E für einen rasanten Anstieg des Verbrauchs verantwortlich zeichnen. Auch wenn diese Anwendungen erst in 2023 auf den Markt gekommen seien, halte er es rückblickend weiterhin für kritisch, dass die Europäische Kommission in ihrem ersten Entwurf aus 2021 , überhaupt keine regulatorischen Schritte für die Einhaltung der Klimaziele vorgezeichnet habe – und betonte im Gegenzug die grünen Verhandlungserfolge im Vorfeld des Trilogs.

Daran anknüpfend wies Prof. Dr. Lynn Kaack (Hertie School of Governance & Mitgründerin ClimateChange.AI) darauf hin, dass einerseits direkte Emissionen wie der Stromverbrauch während der Laufzeit eines Systems zu messen seien, hinzu aber noch der Ressourcenverbrauch durch Hardware komme. Andererseits gäbe es auch indirekte Emissionen, etwa durch die Modalitäten, wie die Algorithmen eingesetzt würden und wie das Training der Modelle ablaufe.

Welche Effizienzsteigerungen sich im Anwendungsfeld „generativer KI“ erreichen ließen, sei aber abhängig von vielen Faktoren und könne schwierige systemische Effekte zeitigen. Zum Beispiel könne ein KI-System dafür zum Einsatz kommen, um effizienter Öl und Gas zu fördern. Das Beispiel zeige, dass auch sehr effiziente und ressourcenschonende Systeme unter dem Strich einen negativen Einfluss aufs Klima hätten. Lynn Kaack würdigte zudem, dass ein Feedback-Papier von ClimateChange.AI in die Positionierung des Europäischen Parlaments eingeflossen sei.

Lars Klingholz vom Verband Bitkom begrüßte die KI-Verordnung als Perspektive, durch die Kombination von drei Faktoren dem Ziel von nachhaltiger KI näher zu kommen. Erstens sollten europaweite und internationale Standards zeitnah verfügbar sein, um bei der Ausgestaltung und Vermarktung von KI-Systemen effektiv zum Einsatz kommen zu können. Zweiten seien Aufsichtsbehörden notwendig, die konkret nachvollziehen könnten, ob die Regulierung in der Praxis funktioniere und dafür auch mit den notwendigen Befugnissen und Ressourcen ausgestattet sind. Dritten bedürfe es sogenannter KI-Reallabore (englisch: Regulatory Sandboxes), in denen Raum für unbürokratisches Feedback von Aufsichtsbehörden sowie Möglichkeiten zum Austausch zwischen Industrie-, Forschungs- und zivilgesellschaftlichen Organisationen sei.

Friederike Rohde vom Institut für ökologische Wirtschaftsforschung sah die KI-Regulierung mit Blick auf die Nachhaltigkeitsperspektive vor unterschiedlichen Herausforderungen: So seien ethische Fragen wie zum gesellschaftlichen Zusammenhalt und zum Thema Diskriminierung aufgekommen. Es sei wichtig im Hinterkopf zu behalten, dass die derzeitigen Systeme komplexe kognitive Zusammenhänge nicht nachbilden könnten und in ihrer Reichweite deshalb notwendig begrenzt seien. Deswegen sprach sie sich dagegen aus, Termini bezogen auf KI zu vermenschlichen. Sie bevorzuge etwa „maschinelles Lernen“ statt „Künstliche Intelligenz“.

Im Anschluss ging Rohde darauf ein, dass sich die Diskussion in den letzten fünf Jahren immer mehr auch um den Energie- und Ressourcenverbrauch von KI drehe. Die immer größeren, komplexeren KI-Modelle basierten auf digitaler Infrastruktur aus Hard- und Software mit einem hohen Ressourcenbedarf. Dies stelle gleichermaßen eine Kostenfrage für die Anwender dar, insbesondere für Unternehmen, die KI einsetzten. Vielfach sei der erhebliche Ressourcenbedarf nur von großen Unternehmen zu bewältigen, was eine Marktkonzentration zur Folge habe. Vor diesem Hintergrund positiv zu bewerten sei daher, dass es mittlerweile immer mehr digitale Tools gäbe, um den Ressourcenverbrauch zu messen. Auch Dokumentationspflichten anhand sog. „model cards“ mit technischen Grundlageninhalten halte sie für ein sinnvolles Transparenzinstrument.

Für einen nachhaltigen KI-Einsatz sei es aber stets auch erforderlich, den Strommix am Markt möglichst grün und nachhaltig zu gestalten. Die Dynamik, die ChatGPT in die Diskussion gebracht habe, bewertete Rohde als durchaus positiv, da so auch ökologische Aspekte Einzug in die Debatte gefunden hätten und sich sogar in der Parlamentsposition zur KI-Regulierung fänden. Abschließend müsse neben großen Unternehmen auch Vereinen und Nichtregierungsorganisationen, die sich für das Allgemeinwohl einsetzten, Zugang zu den Vorteilen von KI gewährt werden, unter anderem mithilfe von freier und Open Source-KI.

In der anschließenden Diskussion befassten sich die Panelist*innen mit den Fragen der Teilnehmer*innen zu Standardisierung, dem Wasserverbrauch für digitale Geschäftsmodelle, „consumption caps“ und Rebound-Effekten sowie mit dem Einfluss des Nutzungsverhaltens auf den Ressourcenverbrauch generativer KI-Modelle.

 Zum Abschluss des ersten Panels rief Sergey Lagodinsky noch einmal dazu auf, sich gerade jetzt in den politischen Prozess einzubringen. Denn gerade Stimmen aus der Forschung, der Zivilgesellschaft, sowie der bisweilen unterrepräsentierten kleinen und mittleren Unternehmen müssten noch deutlich mehr Gehör finden.

Panel II: „KI, Demokratie und Meinungsbildung“

Zum Auftakt des zweiten Panels skizzierte Tabea Rößner das Zusammenspiel generativer KI-Modelle mit grundsätzlichen Herausforderungen für die Demokratie im digitalen Zeitalter. Viele Stimmen sähen Risiken für einen offenen Meinungsaustausch, den rationalen Diskurs und die Medienvielfalt, die es sachgerecht zu adressieren gelte.

Prof. Dr. Natali Helberger (Institut für Informationsrecht, AI, Universität Amsterdam) führte ein, dass aus ihrer Sicht eine Risikoabschätzung von generativer KI drei Ebenen betrachten sollte: Die Ebene der Bürger*innen, die Ebene des breiten Medienökosystems und die Infrastrukturebene. Hier sei relevant, dass KI existierende Machtgefälle im Medienbereich weiter verstärken könne. Die Infrastrukturebene sei darüber hinaus von US-amerikanischen Unternehmen dominiert, die Clouds, Apps und Modelle herstellten und vermarkteten, so dass eine Machtkonzentration auf einige wenige Unternehmen zu befürchten sei. Zudem sei wichtig, wen man bei einer Risikoabschätzung beteilige, hier sollte auf Unabhängigkeit und Vielfalt, insbesondere im Hinblick auf die damit einhergehende Standardsetzung, geachtet werden.

Die Thesen seiner Vorrednerin bekräftigte Prof. Dr. Urs Gasser (TUM Think Tank Uni München) und ergänzte zudem, dass die Risikobewertung für KI-Modelle derzeit noch ganz am Anfang stünde. Es sei unklar, welche Auswirkungen ChatGPT und Co. auf die sozialen Medien und die Zukunft des Journalismus im Detail haben werde. Zugleich rief er dazu auf, nicht nur über regulatorische Leitplanken nachzudenken, sondern als Gesellschaft auch gezielt Ressourcen in den Wissensaustausch, Zugangsrechte und in das Störfallmanagement zu investieren. Als guten Grundansatz nannte er Netzwerkmodelle für die Echtzeit-Risikobewertung, wie sie im Bereich Cybersecurity schon weit verbreitet seien.

Um den demokratiefördernden Nutzen von KI zu stärken, schlug er eine Serie von „Grand Challenges“ für gemeinwohlorientierte Use Cases vor, finanziert etwa aus einem Innovationsfonds, den (auch) die großen IT-Konzerne befüllen könnten. Besonders sinnvolle KI-Systeme könnten auch bei staatlichen Institutionen zum Einsatz kommen, um das Vertrauen in die Technologie zu stärken. Ein dritter wichtiger Punkt sei die Stärkung von Reallaboren und Innovationseinheiten sowie die Erweiterung ihrer Mandate. Denn ohne einen klaren Fokus auf Partizipation und Kompetenzaufbau könne KI keine Erfolgsgeschichte werden.

In ihrem Statement unterstrich Prof. Dr. Katharina Kleinen-von Königslöw (Institut für Journalistik und Kommunikationswissenschaften Uni Hamburg), dass die Nutzenden des hybriden Ökosystems (inkl. sozialer Netzwerke) momentan überfordert seien von dem Einfluss generativer KI. Bestehende Heuristiken müssten sich kurzfristig ändern, um mit den neuen Informationsmöglichkeiten besser umgehen zu können. Vor dem Hintergrund des schwindenden Vertrauens in spezifische Medienanbieter sei bisweilen unklar geworden, welche Medien aufgrund welcher Kriterien als vertrauenswürdig gelten könnten und sollten.

Nun rüttele generative KI zusätzlich an der immer noch bestehenden Intuition, vor allem Bildern und Videos, danach Audio und schließlich Text zu vertrauen. Diese Hierarchie sei mit generativer KI nicht mehr viel Wert, so dass dies insgesamt zu einer Schwächung der Medienlandschaft mit schwerwiegenden Folgen führen könne. Hier könne Digital Literacy und mehr politisches Bewusstsein eine „Brandmauer gegen den Irrsinn“ bieten.

Die Herausforderungen KI-basierter Technologien für den Journalismus stellte Matthias Spielkamp (AlgorithmWatch) dar. Der Journalismus stünde vor einem Ressourcenproblem, weil viele der früheren Einnahmen mittlerweile an Plattformanbieter flössen. Gleichzeitig sei ein zunehmender Vertrauensverlust in klassischen Journalismus zu verzeichnen. Die hohe Eigendynamik der neuen Informations-Vertriebsplattformen führe darüber hinaus zu einer Polarisierung und Kommerzialisierung der Inhalte.

Vor diesem Hintergrund seien und blieben Themen wie Medienkompetenz und guter Journalismus sehr wichtig. Im Bereich der Regulierung seien mit dem Digital Services Act und der KI-Verordnung bereits wichtige Vorhaben auf dem Tableau, die es weiterhin kritisch zu begleiten gelte. Zudem wies Spielkamp darauf hin, dass in Standardisierungsgremien, die an der Umsetzung der Vorgaben der KI-Verordnung in „harmonisierte Standards“ beteiligt seien, die digitale Zivilgesellschaft noch unterrepräsentiert sei. Eine partizipative und ausgewogene Beteiligung lasse die Struktur der Standardisierungsorganisationen kaum zu. Hinzu trete der hohe Aufwand der aktiven Mitarbeit an technischen Standards. Auf allen Ebenen bedürfe es weiterer Partizipationsmöglichkeiten, gezielter Befähigung der Zivilgesellschaft zur Teilnahme an Normierungsprozessen und des Aufbaus digitaler Kompetenzen.

In der sich anschließenden Diskussion standen unter anderem Datenzugriffsrechte gegenüber Plattformen, die Risikobewertung digitaler Dienste nach dem DSA, urheberrechtliche Fragen im Umgang mit generativer KI, Kennzeichnungspflichten und die Rechtsdurchsetzung im Vordergrund.

Verbunden mit der abschließenden Danksagung für die rege Beteiligung am Fachgespräch lenkten Tabea Rößner und Sergey Lagodinsky den Blick auf die besonderen Herausforderungen von KI in Bezug auf die Nachhaltigkeitsziele. Zugleich seien die aktuell viel diskutierten Auswirkungen auf Demokratie und Medienvielfalt weiterhin intensiv zivilgesellschaftlich wie parlamentarisch zu begleiten – nicht zuletzt mit Blick auf die bevorstehenden Trilogverhandlungen in Brüssel.

Uhrzeit Programm
10.00

Begrüßung:

Katharina Dröge, MdB
Fraktionsvorsitzende B90/Die Grünen

10.05.

Politische Einführung

Tabea Rößner MdB
Bündnis 90/Die Grünen Bundestagsfraktion

und

Dr. Sergey Lagodinsky MdEP
Die Grünen/EFA Im Europäischen Parlament

10.10.

Panel I: "KI und Nachhaltigkeit"

Politische Einführung: Dr. Sergey Lagodinsky MdEP

Diskussion:

Prof. Dr. Lynn Kaack
Assistant Professor of Computer Science and Public Policy
Hertie School 

Friederike Rohde 
Wissenschaftliche Mitarbeiterin
Institut für ökologische Wirtschaftsforschung

Lukas Klingholz
Leiter Cloud & Künstliche Intelligenz Bitkom e.V.

Moderation: Dr. Sergey Lagodinsky MdEP

11.20 Pause
11.40

Panel II: "KI, Demokratie & Meinungsbildung"

Kurze Einführung: Tabea Rößner, MdB

Diskussion:

Prof. Dr. Urs Gasser
TUM Think Tank, Hochschule für Politik München

Matthias Spielkamp
Gründer und Geschäftsführer AlgorithmWatch                                                                                

Prof. Katharina Kleinen-von Königslöw
Institut für Journalistik und Kommunikationswissenschaften
Universität Hamburg

Prof. Dr. Natali Helberger
Institut für Informationsrecht, AI, Universität Amsterdam                                                                                                                                   

Moderation: Tabea Rößner MdB

12.50

Abschlussworte: Tabea Rößner MdB und Sergey Lagodinsky MdEP

13.00 Ende der Veranstaltung