Professor Martin Vetterli erklärt
Gibt es digitale Vorurteile?

Martin Vetterli ist Präsident der EPFL in Lausanne und führender Experte für Digitalisierung. Jede Woche erklärt er Begriffe aus der digitalen Welt.
Publiziert: 13.05.2018 um 14:29 Uhr
|
Aktualisiert: 14.09.2018 um 15:56 Uhr
Sind Computer in der Lage, den IQ einer Person mit einem Foto abzuleiten, ganz ohne Vorurteile?
Foto: Getty Images/Westend61 RM
Martin Vetterli
Martin VetterliPräsident der EPFL Lausanne

Eine der bemerkenswertesten Leistungen des kognitiven Systems ist seine Fähigkeit zur Verallge­meinerung. Um beispielsweise eine Katze zu erkennen, muss man nicht zwingend alle möglichen Katzenrassen studiert haben. Sogar eine noch nie zuvor gesehene, merkwürdig aussehende Katze ohne Fell können wir ziemlich leicht als das identifizieren, was sie ist: eine Katze.

Doch diese menschliche Fähigkeit ist anfällig für Vorurteile. Im Zeitalter der künstlichen Intelligenz stellt sich die Frage: Können auch Computer und Algorithmen Vorurteile ­haben? Maschinen erreichen bei gewissen Aufgaben nahezu die Leistungsfähigkeit von Menschen. Dazu zählen das Erkennen eines Objekts oder das Verstehen einer Sprache.

Kann ein Computer anhand von Fotos den IQ einer Person ableiten?

Diese Aufgaben beruhen, ähnlich wie das oben genannte Katzenbeispiel, auf der Fähigkeit des Computers, Regeln aus einer begrenzten Reihe abzuleiten. Es ist verlockend, darauf zu spekulieren, dass uns die künstliche Intelligenz eines Tages Algorithmen mit einer vergleichbaren Fähigkeit bieten kann – jedoch ohne menschliche Vorurteile. Leider ist die Sache nicht ganz so einfach.

Nehmen wir beispielsweise an, dass ich einen Computer so programmieren möchte, dass er den IQ einer Person lediglich aus einem Foto des Gesichts ableitet – ich weiss, klingt lächerlich, aber solche Ansätze gibt es leider. Um dies zu tun, bereite ich eine Reihe mit Hunderten von Bildern vor, die unterschiedliche Personen sowie deren IQ zeigen, so dass ich einen Algorithmus darauf trainieren kann, einen unbekannten Zusammenhang zwischen dem Gesichtstyp und dem IQ aufzuspüren. Findet der Algorithmus einen Zusammenhang, dann ist das System in der Lage, bei jedem Gesicht anhand eines Fotos den IQ zu schätzen.

Ideal wäre natürlich ein Datensatz mit möglichst vielen Menschen aller Intelligenzniveaus. Nehmen wir jedoch an, dass aufgrund von Unachtsamkeit, aus Versehen (oder aus Menschlichkeit!) ein Datensatz verwendet wurde, der viele Fotos von intelligenten Menschen mit schwarzen Haaren und nur einige wenige Fotos von intelligenten Menschen mit blonden Haaren enthält.

Maschinen sind nur so intelligent, wie es ihnen ihr Erfahrungsschatz ermöglicht

Maschinen könnten nun die Schlussfolgerung ziehen, dass schwarzes Haar generell ein Indikator für einen hohen IQ ist! Solche Fälle von Diskriminierung durch Algorithmen sind in der Vergangenheit bereits aufgetreten, zum Beispiel als auf einer Webseite mit Stellenanzeigen männlichen Bewerbern automatisch höhere Gehälter angeboten wurden.

Glücklicherweise ist dieses Phänomen mit dem Namen «algorithmischer Fehler» bestens bekannt und wird wissenschaftlich intensiv untersucht. Aus diesem Fehler zu schliessen, dass Algorithmen fehlerhaft sind, wäre aber falsch! Es zeigt lediglich, dass das System die Fehler oder Vorurteile reflektiert, die ein Forscher in die Auswahl eines Lerndatensatzes einbaut.

­Maschinen sind – genauso wie Menschen – nur so intelligent, wie es ihnen ihr Erfahrungsschatz ermöglicht. Wenn ein Algorithmus mit einer verzerrten Welt konfrontiert ist, wird er nicht besser als ein engstirniger Fanatiker sein.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Fehler gefunden? Jetzt melden
Was sagst du dazu?