«Ein Entwicklungsstopp gefährdet die Transparenz»

In einem offenen Brief fordern Tech-Gr?ssen aus Wissenschaft und Wirtschaft einen Stopp des Trainings neuer KI-Sprachmodelle, die leistungsf?higer sind als GPT-4. Andreas Krause und Alexander Ilic vom ETH AI Center halten dies f¨¹r schwer durchsetzbar und mit Risiken verbunden.

Andreas Krause und Alexander Ilic auf dem Gang eines leeren Büros
Andreas Krause (l.) und Alexander Ilic (r.). (Bild: Nicola Pitaro / ETH Z¨¹rich)

ETH-News: Herr Krause, Tech-Gr?ssen fordern in einem externe Seiteoffenen Brief ein Moratorium f¨¹r das Training von Systemen K¨¹nstlicher Intelligenz (KI), die leistungsst?rker als GPT-4 sind. Ist eine so drastische Massnahme angebracht?
Andreas Krause: Ich bezweifle, dass diese Forderung durchsetzbar ist, da hinter der Entwicklung grosse kommerzielle und strategische Interessen stehen. Zudem ist es schwierig festzulegen was konkret eingeschr?nkt werden soll ohne Wettbewerbsverzerrung zu betreiben und Innovation in der Anwendung zu gef?hrden. Auch wenn ein solches Moratorium beschlossen werden w¨¹rde, k?nnte wohl niemand sicherstellen, dass nicht weiter verdeckt am Training solcher Modelle gearbeitet wird.

Das w¨¹rde zu weniger Transparenz f¨¹hren.
Krause: Genau. Das birgt die Gefahr, dass die Entwicklung, die vorher weitgehend offen und transparent war, unzug?nglicher und intransparenter wird. Dadurch w?re es beispielsweise kaum mehr m?glich nachzuvollziehen, auf Basis welcher Daten die aktuellen Modelle trainiert wurden und welche Biases, also Verzerrungen, damit verbunden sind. Diese Tendenz gibt es schon jetzt.

Ein Entwicklungsstopp ist also keine gute Idee.
Alexander Ilic: Nein, denn bei den aktuellen Sprachmodellen gibt es grosse Fragezeichen hinsichtlich ihrer Vertrauensw¨¹rdigkeit, Zuverl?ssigkeit und Nachvollziehbarkeit. Diese Elemente sind von grosser Bedeutung und m¨¹ssen unbedingt noch st?rker erforscht werden und ¨¹ber Fachbereichsgrenzen hinweg kritisch diskutiert werden.

Was schlagen sie als Alternative vor?
Krause: Zum einen ist die Grundlagenforschung gefordert, um die n?chste Generation von sichererer, vertrauensw¨¹rdigerer KI-Technologie zu entwickeln. Zum anderen sollten wir die interdisziplin?re Forschung vorantreiben und zeigen, wie man diese Technologien gewinnbringend f¨¹r den Menschen einsetzen kann. Erst wenn KI verl?sslich und vertrauensw¨¹rdig ist, kann sie zum Beispiel im Gesundheitswesen sinnvoll eingesetzt werden und den Menschen als n¨¹tzliches Werkzeug dienen.

Welche Rolle spielt das AI Center der ETH Z¨¹rich dabei?
Krause: Am ETH AI Center verbinden wir beides, Grundlagen- und interdisziplin?re Forschung. Das Ziel des Centers ist es, Technologien und Anwendungsgebiete zu f?rdern, die der Allgemeinheit helfen. Zudem ist unsere Forschung offen und transparent.

Ilic: Wir wollen dem Trend entgegenwirken, dass KI-Forschung immer mehr hinter verschlossenen T¨¹ren stattfindet und setzen auf offene, interdisziplin?re Zusammenarbeit zwischen Forschung, Industrie und Start-ups. Wir glauben, dass insbesondere an Schnittstellen von Disziplinen wie zum Beispiel KI und Medizin oder KI und Geisteswissenschaften wichtige Beitr?ge entstehen. Wir haben deshalb ein Fellowship Programm geschaffen, bei dem wir die weltweit besten Talente anziehen und am ETH AI Center zusammenbringen. Mit einem Frauenanteil von 50 Prozent und Mitarbeitenden aus ¨¹ber 26 L?ndern konnten wir auch von Anfang an eine Kultur schaffen, die Chancen und Risken von KI kritisch diskutiert und verantwortungsvoll mitgestaltet.

Die Verfasser:innen fordern ausserdem, dass w?hrend des Stopps eine unabh?ngige Pr¨¹fungsinstanz Sicherheitsprotokolle f¨¹r das Design von k¨¹nstlichen Intelligenzen erarbeiten soll. Was halten sie davon?
Ilic: Die Entwicklung von Pr¨¹fungsverfahren und die Zertifizierung KI-basierter Technologie ist sicher ein wichtiges Thema, und muss im Kontext konkreter Anwendungen verfolgt werden. Es ist aber auch wichtig, dass wir neue Sprachmodelle auf eine transparente Art und Weise trainieren und die Forschung aktiv mitgestalten, anstatt sich lediglich der Kontrolle und ?berpr¨¹fung bereits bestehender Sprachmodelle zu widmen. Nur so k?nnen wir sicherstellen, dass die Systeme vertrauensw¨¹rdiger, sicherer und verl?sslicher werden. Die grossen Firmen verfolgen kommerzielle Interessen und werden sich daher eher auf die gr?ssten M?rkte und kulturellen, sprachlichen Regionen konzentrieren. Wir haben uns daher dem Europ?ischen KI-Forschungsnetzwerk ELLIS angeschlossen, um die KI-Welt nach europ?ischen Werten mitzupr?gen. Es gibt aber hier noch viel Potenzial, um das Thema Diversit?t noch weiter zu f?rdern. Man k?nnte beispielsweise gezielt offene Datens?tze aufbauen zu unterschiedlichen Kultur- und Sprachkreisen oder bei Feedback durch Menschen darauf achten, aus welchen Kulturkreisen die befragten Personen stammen, um sp?ter Biases zu verringern. Man wird kommerzielle Anbieter nicht dazu zwingen k?nnen, dies selbst zu tun. Aber die Forschung k?nnte es Firmen durch den offenen und transparenten Umgang mit den eigenen Daten erleichtern, ihre Systeme vertrauensw¨¹rdiger zu machen.

Im offenen Brief wird auch davor gewarnt, dass neue Sprachmodelle Propaganda und Unwahrheiten verbreiten k?nnten. Stimmen sie dem zu?
Krause: Bei den generativen KI-Modellen hat in den letzten Monaten eine rasante Entwicklung stattgefunden: Texte und Bilder k?nnen generiert werden, die immer realistischer wirken. Diese k?nnen tats?chlich f¨¹r Desinformationskampagnen genutzt werden. Obwohl auch daran geforscht wird, wie man solche generierten Texte und Bilder erkennen kann, stellt diese Entwicklung ein reales Risiko dar.

Die Verfasser:innen sehen auch die Gefahr, dass Menschen durch den Einsatz von KI ihre Jobs verlieren oder gar irgendwann ganz von Maschinen ersetzt werden k?nnten. Ist das nicht ¨¹berzogen?
Krause: Mich st?rt, dass ernstzunehmende Gefahren, wie beispielsweise die Sorge vor Desinformation, und Science-Fiction, wie der Welt¨¹bernahme durch Maschinen, ¨¹ber einen Kamm geschoren werden. Dies erschwert eine fundierte Diskussion und einen Dialog ¨¹ber die tats?chlichen Risiken. KI wird die Berufswelt sicher nachhaltig ver?ndern. Es ist immer schwieriger sich vorzustellen, welche neuen Jobs und Berufsfelder entstehen als welche bestehenden Aufgaben von Automatisierung betroffen sein k?nnten.

Ilic: ?hnliche Bedenken gab es auch in der Vergangenheit im Kontext neuer Technologien, wie der Industrialisierung oder der Digitalisierung. Es wird eher so sein, dass Personen im Job durch andere ersetzt werden, die mit KI umgehen k?nnen, als dass KI den Job komplett ersetzt. Daher wird es entscheidend sein, die Bev?lkerung und die Wirtschaft bei dieser Transformation zu unterst¨¹tzen.

Andreas Krause ist Vorsteher des ETH AI Center und Professor f¨¹r Informatik an der ETH Z¨¹rich, wo er die Gruppe "Learning & Adaptive Systems" leitet.

Alexander Ilic ist der Gesch?ftsf¨¹hrer des ETH AI Centers der ETH Z¨¹rich.

JavaScript wurde auf Ihrem Browser deaktiviert