Cybersicherheit und Biowaffen
OpenAI-Chef warnt vor negativen Folgen durch KI

Der Chef des ChatGPT-Entwicklers OpenAI geht davon aus, dass es künftig mehr von Künstlicher Intelligenz als von Menschen erstellte Inhalte geben wird. Die Gesellschaft müsse sich auch auf negative Folgen des KI-Booms vorbereiten.
Publiziert: 22.02.2024 um 03:23 Uhr
|
Aktualisiert: 22.02.2024 um 08:56 Uhr
Der Chef des ChatGPT-Entwicklers OpenAI, Sam Altman (rechts), geht davon aus, dass es künftig mehr von Künstlicher Intelligenz als von Menschen erstellte Inhalte geben wird. Die Gesellschaft müsse sich auch auf negative Folgen des KI-Booms vorbereiten.
Foto: Michael Liedtke

Das betonte Sam Altman am Mittwoch bei einer Veranstaltung des Chip-Riesen Intel. So könne es in absehbarer Zukunft potenziell negative Auswirkungen auf Wahlen geben. Man nehme auch Risiken zum Beispiel bei Cybersicherheit und Biowaffen ernster. Künstliche Intelligenz werde «keine nur gute Geschichte sein», sagte Altman im Gespräch mit Intel-Chef Pat Gelsinger. Aber unterm Strich werde es eine positive Entwicklung, zeigte er sich überzeugt.

Denn mit Hilfe Künstlicher Intelligenz werde man wissenschaftliche Forschung beschleunigen, Krankheiten heilen und Bildung verbessern können, betonte Altman. «Ich denke, es ist schwierig, sich heute vorzustellen, wie viel besser die Zukunft sein wird.»

Man brauche aber noch mehr als bei anderen Technologien eine regulierende Rolle von Regierungen – und zwar jetzt, während die KI-Modelle noch relativ schwach seien. Es dürfe nicht so laufen, dass zum Beispiel OpenAI heimlich im Keller eine KI entwickele, die schlauer als Menschen sei und sie plötzlich auf die Welt loslasse. Die Gesellschaft und ihre Institutionen müssten die Zeit bekommen, sich schrittweise an die Entwicklung anzupassen.

Aktuelles GPT4-Modell«nicht besonders gut»

ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen. Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte.

Ein Nachteil: Die Software gibt manchmal auch völlig falsche Antworten aus, selbst wenn sie nur korrekte Informationen als Basis hatte. Am Dienstag etwa produzierte ChatGPT durch einen Programmierfehler zeitweise zum Teil völlig sinnlose Sätze. Die Software-Entwicklung wird inzwischen oft mit KI-Hilfe erfolgreich automatisiert.

OpenAI wisse, dass das aktuelle GPT4-Modell hinter ChatGPT «nicht besonders gut» sei, räumte Altman ein. Aber die Technologie werde sich mit jeder Generation verbessern. Der OpenAI-Chef widersprach einem jüngst erschienenen Medienbericht, wonach die Firma Kapital für die Bestellung von Halbleitern im Wert von mehreren Billionen Dollar mobilisieren wolle. Es stimme aber, dass die Welt viel mehr Rechenleistung für Künstliche Intelligenz als heute brauchen werde.

(SDA)

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Fehler gefunden? Jetzt melden
Was sagst du dazu?