Blog

Herausforderung KI, zum Zweiten

Autor: Arnaud Gariépy (SAGW)
Gesellschaft – Kultur – Sprache Big Data

Künstliche Intelligenz (KI) und ihre Tools stellen unsere Gesellschaft vor grosse Herausforderungen. Zentral ist die Frage nach der Transparenz von Algorithmen und ihrer Funktionsweise; ebenso diejenige nach der Verlässlichkeit von Quellen und produziertem Inhalt.

2023 haben auch wir – wie so viele andere – mit den Bildgeneratoren der künstlichen Intelligenz (KI) experimentiert. Wir liessen beispielsweise die Illustrationen der SAGW-Newsletter von Dall-E, einem KI-Tool der Firma OpenAI, erstellen. Über kontextbezogene Beschreibungen – sogenannte Prompts – lassen sich damit Bilder und Illustrationen in verschiedenen Stilen generieren, zum Beispiel: «A fish tries in vain to climb a tree outside the water» (Newsletter 2023, Nr. 2). Die Ergebnisse waren vielversprechend und die Arbeit ging – wenn auch etwas anders als gewohnt – ziemlich spielerisch von der Hand. Was hat sich seitdem geändert?

Dall-E ist heute kostenpflichtig und gehört zu Microsoft, dem Hauptaktionär von OpenAI. Der andere, weltweit bekannte Dienst des kalifornischen Unternehmens, ChatGPT, wuchs in der Zwischenzeit auf über 180 Millionen monatliche Nutzerinnen und Nutzer an. So hat sich OpenAI vom gemeinnützigen Forschungslabor zum florierenden Unternehmen im Silicon Valley mit einem Marktwert von 29 Milliarden US-Dollar entwickelt. Der anfänglich gelebte Idealismus fiel dem Erfolg und dem steigenden Kapitalbedarf zum Opfer.

Der Elefant im Raum: die Ethik-Frage

Eine grosse Stärke dieser generativen KIs liegt darin, dass sie riesige Datenmengen verarbeiten, einordnen und abrufen sowie nahezu unbegrenzt Inhalte und Analysen erstellen können. Doch hängen Kommunikation und Informationen immer stark von ihrem Kontext ab: Von wem stammt der Inhalt? Wie und mit welchen Quellen wurde er erstellt? 

Ganz allgemein betrachtet ist die heutige KI eine Black Box mit sehr hohem disruptivem Potenzial, dessen mögliches Ausmass wir noch immer nicht genau abschätzen können. Wir werden uns deshalb anpassen müssen, werden lernen, neue Innovationen in unserem Alltag zu akzeptieren und die sozioökonomischen Folgen so gut wie möglich zu bewältigen. Die Entwicklung lässt sich nicht mehr aufhalten. Denn Millionen von Menschen arbeiten jeden Tag kostenlos für die KI, der sie ihre Ideen, Daten und Gedanken zur Verfügung stellen. Der Wissenschafts- und Techniksoziologe Florian Jaton schrieb dazu 2023: «Wenn digitale Daten das schwarze Gold unseres Jahrhunderts sind, sollten wir deren Nutzung durch Algorithmen – und die Erstellung derselben – nicht allein den IT-Spezialisten und der Privatwirtschaft überlassen.» 

Das Thema ist komplex und betrifft mehr als nur den Datenschutz. Auch der transparente Zugang zu Informationen für jede und jeden bleibt ein gordischer Knoten, den es zu durchtrennen gilt. Im März 2024 veröffentlichte die Denkfabrik Reatch ein Whitepaper mit Blick auf die Schweizer Politik. Die Studie zeigt, dass sich die Ein-wohnerinnen und Einwohner in der Schweizer zunehmend über Websuchmaschi-nen und Chatbots informieren. Anhand welcher Kriterien diese KI-basierten Systeme (allen voran Google) ihre Ergebnisse jedoch personalisieren, ist nicht nachvollziehbar.

Aus akademischer Sicht stellt sich die Frage der wissenschaftlichen Integrität: Wie soll man im Zeitalter KI-generierter Inhalte lehren und bewerten? Einige akademische Institutionen haben sich bereits dazu positioniert. Swissuniversities plädiert für einen pragmatischen Umgang, sowohl bei der Lehre als auch der Forschung. Die UNIGE hat Grundsätze für den Umgang mit KI erarbeitet und einen online Leitfaden erstellt. Und das DSI Strategy Lab der Universität Zürich hat zum Thema KI ein Positionspapier mit Empfehlungen für Lernende, Lehrende und Forschende publiziert.
 

Eine transparente Open-Source-KI?

Die von der ETH Zürich und EPFL lancierte «Swiss AI»-Initiative hat sich zum Ziel gesetzt, die digitale Souveränität und Forschungsfreiheit in der Schweiz sicherzustellen. Die Initiative möchte neue sogenannte Large-Language-Modelle (LLM) entwickeln und trainieren. Diese sollen transparent sein, nachvollziehbare Ergebnisse liefern und dabei rechtliche, ethische und wissenschaftliche Standards einhalten. «Wir müssen bei der KI eine Vorreiterrolle übernehmen und diese nicht einigen wenigen multinationalen Technologiekonzernen überlassen», erklärte Christan Wolfrum, ETH-Vizepräsident für Forschung, in einer Pressemitteilung.

Ob es nun um generative KI oder andere Formen von künstlicher Superintelligenz geht, wir müssen in einem nächsten Schritt eine grundlegende und vielleicht existenzielle Herausforderung angehen: Die KI-Technologie darf nicht zu einem Instrument werden, dass uns entfremdet und womöglich unserer Überwachung dient – so wie wir es aus dystopischen Visionen kennen, die meist fatal ausgehen. Bereits im Mai 2023 hielten es die OpenAI-Mitbegründer Sam Altman, Greg Brockman und Ilya Sutskever durchaus für «denkbar, dass KI-Systeme in den nächsten zehn Jahren in den meisten Bereichen das Kompetenzniveau von Experten übertreffen werden».1 Gleichzeitig machten sie sich für die Schaffung einer internationalen Regulierungsbehörde stark, um potenzielle Risiken steuern zu können. UNO-Generalsekretär António Guterres sagte im Juli 2023 bei einer Debatte im Sicherheitsrat : «Die Risiken von KI-Systemen sind ein sehr wichtiges Thema. Und die Wechselwirkungen zwischen KI, Atomwaffen, Biotechnologie, Neurotechnologie und Robotik sind sehr alarmierend. Die generative KI hat ein enormes Potenzial, das für Gutes wie auch Böses genutzt werden kann. Selbst ihre Schöpfer warnten vor weitaus grösseren, potenziell katastrophalen und existenziellen Risiken, die vor uns liegen.»2

Seither hat sich einiges getan. Im März 2024 verabschiedete das Europäische Parlament mit dem KI-Gesetz den ersten verbindliche Rechtsrahmen weltweit. Obwohl noch nicht alle Fragen bezüglich der Umsetzung geklärt sind, sollen seine Bestimmungen als Leitplanken für Themen wie Datenschutz, Urheberrecht und Sicherheit dienen. Auch die UNO hat eine erste Resolution verabschiedet, um klare, international geltende Regeln für die Entwicklung von KI aufzustellen, die auch die Menschenrechte berücksichtigt (die militärische Nutzung aber explizit ausklammert).

Wir sehen uns aktuell aber noch nicht in dem von Shoshanna Zuboff prognostizierten «Zeitalter des Überwachungskapitalismus»3 oder einer Gesellschaft à la George Orwell. In einer demokratischen Gesellschaft hängt der Umgang mit KI in erster Linie von der politischen Führung und dem rechtlichen Rahmen ab. Doch die Zeit drängt. Zudem wäre es – auf einem Planeten mit begrenzten Ressourcen – sinnvoll, vor der Entwicklung neuer Technologien auch die Frage nach dem Warum zu stellen: Welche Innovationen brauchen wir? Und um Michael Schaepman, Rektor der Universität Zürich zu zitieren: «Es ist Zeit, wieder Humanities zu sagen4

 

Referenzen

[1] «Governance of superintelligence», in OpenAI blog, 22.05.2023:
https://openai.com/index/governance-of-superintelligence/ (abgerufen am 19.08.2024).

[2] Siehe auch: Entwicklungsprogramm der Vereinten Nationen (2022), BERICHT ÜBER DIE MENSCHLICHE ENTWICKLUNG: Ein unsicheres Leben in unsicheren Zeiten: In einer Welt im Wandel die Zukunft gestalten, New York.

[3] Granjon, Fabien (2021): Sur L’Âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir de Shoshana Zuboff, in Questions de communication, (n° 40) (2), S. 455-472. 
https://doi.org/10.4000/questionsdecommunication.27359 

[4] Mariani, Carlo et al.: Es ist Zeit, wieder Humanities zu sagen, in Zürcher Studierendenzeitung, 23.09.2023: 
https://www.zsonline.ch/2023/09/28/es-ist-zeit-wieder-humanities-zu-sagen (abgerufen am 15.08.2024).

Open Access

Dies ist eine Open-Access-Publikation, lizenziert unter CreativeCommons CC BY-SA 4.0.

Disclaimer

Die Blogbeiträge können Meinungsäusserungen der AutorInnen enthalten und stellen nicht grundsätzlich die Position der jeweiligen Arbeitgeberin oder der SAGW dar.