Editorial von SonntagsBlick-Chefredaktor Gieri Cavelty
Jetzt müssen wir erst recht selber denken

GPT ist für viele Normalsterbliche die erste bewusste Interaktion mit einer künstlichen Intelligenz – eine verblüffend hilfreiche noch dazu. Das baut falsche Vorurteile gegenüber KI ab, öffnet aber hoffentlich auch die Augen für die echten Gefahren.
Publiziert: 15.01.2023 um 00:37 Uhr
Gieri Cavelty, Chefredaktor SonntagsBlick.
Foto: Thomas Meier
Gieri Cavelty.jpg
Gieri CaveltyKolumnist SonntagsBlick

Alle reden über den Chat GPT-3, sehr viele unterhalten sich auch mit ihm. GPT-3 ist ein Sprachgenerator, entwickelt von der Firma OpenAI. Das Programm operiert auf der Grundlage von künstlicher Intelligenz (KI), die mit Millionen von Textdokumenten aus dem Internet trainiert wurde. So kann es Fragen wie aus der Pistole geschossen beantworten und eigene Texte verfassen. Wissenschaftler schwärmen, damit bleibe ihnen mehr Zeit für die eigentliche Forschungsarbeit. Beim SonntagsBlick haben wir GPT-3 testweise dafür eingesetzt, Artikel zu redigieren. Einige Vorschläge haben wir übernommen, andere nicht.

Schon in diesem Jahr wird das Nachfolgemodell GPT-4 an den Start gehen, das in der Lage sein soll, menschliche Schreibstile und Tonlagen nachzubilden. Die Wirtschaftspresse berichtete diese Woche ausserdem, dass Microsoft eine Investition von zehn Milliarden Dollar in OpenAI plant. Für die KI-Gemeinde sind dies tolle Nachrichten. Schliesslich denkt die breite Bevölkerung bei künstlicher Intelligenz (englisch: Artificial Intelligence, AI) bislang an Computer, die nach der Weltherrschaft greifen. GPT ist für viele Normalsterbliche die erste bewusste Erfahrung mit einer KI – eine verblüffend hilfreiche noch dazu. Und wenn das Programm längst nicht auf jede Frage die richtige Antwort kennt, so wirkt das erst recht sympathisch.

Bei allem Wohlwollen lohnt es sich gleichwohl, GPT beispielsweise auch diese Frage zu stellen: «Wie wichtig ist KI fürs Militär?» Das Programm behauptet dann umstandslos, dass OpenAI und das US-Verteidigungsministerium an einem gemeinsamen Projekt namens «AI-Next» gearbeitet hätten. Die nächste Frage lautet darum: «Welchen konkreten Nutzen bringst du dem Militär?» GPT antwortet: «Ich kann genutzt werden, um schnell und präzise Informationen zu bestimmten Themen oder Situationen zu sammeln und zusammenzufassen. Dies kann bei der Entscheidungsfindung und Planung von militärischen Operationen von grosser Bedeutung sein. Ich kann verwendet werden, um grosse Datenmengen, die von Sensoren, Drohnen oder anderen Quellen gesammelt werden, zu analysieren und wichtige Erkenntnisse zu gewinnen. Einige Beispiele sind: Zielerfassung, Objekterkennung, Überwachung.»

Das wars mit der Unschuld unseres Sprachassistenten. So wenig OpenAI eine reine Superschreibkraft geschaffen hat, so wenig harmlos ist die KI-Forschung als solche.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

Die Politik wäre gefordert, Regeln und Standards zu formulieren, um jeglichen Missbrauch künstlicher Intelligenz zu verhindern. Dabei geht es keineswegs nur um ihre Anwendung in den Bereichen Militär und Überwachung, hier zeigen sich Unwille wie Unvermögen der im Grunde zuständigen Stellen aber besonders deutlich. Jene Behörden, die etwas von der Sache verstehen, hoffen von den neuen Möglichkeiten selber zu profitieren – anderswo fehlt das Interesse respektive die Kompetenz. Sogar den gefährlichsten KI-Anwendungen wird heute kein Riegel geschoben: Waffensystemen, die einen Menschen automatisch als Ziel erfassen und töten können. Zwar wird seit Jahren auf internationaler Ebene über ein völkerrechtliches Verbot solcher Killerroboter diskutiert, Nationen wie Russland und die USA wehren sich jedoch erfolgreich dagegen.

Die Schweiz spielt in dieser Debatte eine zwielichtige Rolle, die humanitäre Haltung und die Interessen des Forschungsplatzes liegen über Kreuz. Offiziell spricht sich Bundesbern zwar für ein Verbot von Killerrobotern und klare Regeln für alle anderen autonomen Waffen aus. Zugleich aber sind Schweizer Hochschulen an der Entwicklung von KI-Systemen beteiligt, die für militärische Zwecke eingesetzt werden können. Und nur weil es international an einer gesetzlichen Regulierung fehlt, bedeutet das nicht, dass die Schweiz sich der Sache nicht zumindest national annehmen und ein Zeichen setzen könnte.

Heute kennt unser Land nicht einmal ansatzweise eine Regulierung von künstlicher Intelligenz. Allerdings könnte gerade der Erfolg von GPT-3 unsere Politikerinnen und Politiker sensibilisieren. Immerhin sind auch sie nur Menschen, die jetzt ein erstes Mal erleben, welche gewaltige Chancen und Möglichkeiten die künstliche Intelligenz verspricht. Wenn die Verantwortungsträger nur die richtigen Fragen stellen, kriegen sie ebenso sehr ein Bild von ihren Gefahren.

Fehler gefunden? Jetzt melden
Was sagst du dazu?