Apple sagt der Kinderpornografie den Kampf an! Das Unternehmen hat ein neues System entwickelt, das verbotene Inhalte auf den Geräten von Usern erkennen soll.
Bilder, die in der iCloud gespeichert werden sollen, werden neu zuerst mit einer Datenbank abgeglichen, berichtet «BBC». Die Datenbank, die von Apple zusammengestellt wurde, enthält bereits bekannte kinderpornografische Bilder.
Damit das System das Bild richtig abgleichen kann, soll eine Datei namens «Hashes» auf das Benutzergerät geladen werden. Das ist eine Art digitaler Fingerabdruck des Bildes. Das System kann so potenzielle Ähnlichkeiten erkennen.
Tiefe Fehlerquote
Gibt es eine Übereinstimmung, wird das verdächtige Foto mit einem Zertifikat versehen. Im nächsten Schritt können dann Apple-Mitarbeiter das Foto manuell überprüfen. Handelt es sich beim Bild tatsächlich um kinderpornografisches Material, wird die Polizei eingeschaltet und das Konto des User gelöscht.
Gegenüber «BBC» gibt Apple an, dass das System eine extrem hohe Genauigkeit habe. Die jährliche Fehlerquote würde bei 1 : 1 Billion liegen.
Das System diene laut Apple vorbeugenden Zwecken. Es soll den Eltern eine Sicherheit geben, wenn ihre Kinder sich im Netz bewegen. Beispielsweise kann Apple die Verbreitung eines Bildes, das über Chat verschickt wird, verhindern und so die Kinder schützen.
Wird das System auch in der Schweiz benutzt?
Das Tool würde mit dem neuen Betriebssystem auf die Geräte übertragen werden. Apple versichert, ausschliesslich auf verbotene Daten zuzugreifen und keine Nutzer auszuspionieren. Vorerst werde das System nur US-Nutzern zur Verfügung stehen. In der Schweiz kommt es aus Datenschutz Gründen nicht zum Einsatz.
Matthew Green, Sicherheitsforscher an der Johns Hopkins University, sagt: «Unabhängig davon, was Apples langfristige Pläne sind, hat es ein sehr klares Signal gesendet.» (was)