Darum gehts
- OpenAI dementiert Berichte über Änderungen bei ChatGPT-Ratschlägen zu Recht und Medizin
- Aktualisierte Nutzungsbedingungen fassen bestehende Richtlinien für OpenAI-Produkte zusammen
- Änderung der Nutzungsbedingungen am 29. Oktober verwirrte einige Nutzer
OpenAI hat Berichte dementiert, die behaupteten, ChatGPT dürfe keine rechtlichen oder medizinischen Ratschläge mehr erteilen.
Die entsprechenden Fake-News verbreitete sich in den letzten Tagen auf 𝕏 und gewissen Online-Medien wie ein Lauffeuer.
«Das stimmt nicht. Entgegen anderslautenden Spekulationen handelt es sich hierbei nicht um eine neue Änderung unserer Nutzungsbedingungen», stellt Karan Singhal, Gesundheits-Chef von OpenAI, in einem Tweet klar. «Das Verhalten der Modelle bleibt unverändert.»
Blick hat auch bei einer OpenAI-Pressesprecherin nachgefragt und bekam dieselbe Antwort.
Die Verwirrung entstand laut dem US-Techblog «The Verge» nach einer Aktualisierung der Nutzungsbedingungen am 29. Oktober. Diese untersagen die «Erteilung massgeschneiderter Ratschläge, die eine Lizenz erfordern, wie rechtliche oder medizinische Beratung, ohne angemessene Beteiligung eines lizenzierten Fachmanns». Laut OpenAI stellt dies jedoch keine Änderung der bisherigen Richtlinien dar.
Singhal betonte auf der Plattform X: «ChatGPT war nie ein Ersatz für professionelle Beratung, wird aber weiterhin eine grossartige Ressource sein, um Menschen beim Verständnis von rechtlichen und gesundheitlichen Informationen zu helfen.»
Die ganze Aufregung hätte vermieden werden können, wenn die Leute einfach «Dr. ChatGPT» mit ihren Wehwehchen befragt hätten. Dann gibt die KI brav Antwort, wie früher. Und das erstaunlich gut, wie auch der Autor dieses Artikels erfahren hat, als er sich nach Schmerzen in der Brust dank einer ChatGPT-Diagnose selber im Notfall eingeliefert hat.
«ChatGPT darf nicht als qualifizierter Arzt auftreten»
Wir haben ChatGPT direkt befragt, was erlaubt ist:
- ChatGPT darf allgemeine Gesundheitsinformationen liefern, etwa über typische Symptome, Prävention oder Ernährung.
- Es kann helfen, medizinische Fachbegriffe zu verstehen, Entscheidungsfragen vorzubereiten oder Hintergründe zu erklären.
- Es kann Benutzer motivieren, ärztliche Hilfe in Anspruch zu nehmen.
… und was weiterhin nicht:
- ChatGPT darf nicht als qualifizierter Arzt, Therapeut oder Diagnostiker auftreten.
- Es darf nicht zuverlässig für akute oder ernsthafte Erkrankungen, Notfälle oder therapiebegleitend verwendet werden, ohne menschliche Aufsicht.
- Die Genauigkeit kann variieren; Studien zeigen, dass Fehler passieren können – Warnung also geboten.
Fazit: ChatGPT gibt weiter Rat – im Zweifelsfall empfiehlt sich aber trotzdem ein Arztbesuch.