Apple meldet, dass die Einführung des Programms zur Erkennung von Bildern sexuellen Missbrauchs an Kindern verschoben sei. Es werde mehr Zeit benötigt, um das System zu überarbeiten, bevor es in Betrieb genommen wird. 

Erst letzten Monat informierte Apple über die neue Funktion namens «Neural Hash». Sie soll Bilder sexuellen Missbrauchs auf dem iPhone erkennen, bevor diese in die iCloud hochgeladen werden, um so Kinder zu schützen. Im Erkennungsfall kann in den USA eine Meldung direkt an das National Center for Missing and Exploited Children (NCMEC) erfolgen.

Partner-Inhalte
 
 
 
 
 
 

Die Ankündigung hatte für grosse Kritik gesorgt: Befürchtet wird, Apple könnte die Funktion auch zur Meldung von anderen Inhalten nutzen. Am Ende könnten beispielsweise Polizeibehörden einen deutlich ausgeweiteten Zugriff auf private Informationen von Anwendern erhalten. Die Electronic Frontier Foundation EFF bezeichnet die neuen Funktionen etwa als «Türöffner zu deinem Privatleben».

Apple plant die Scan-Anwendung in Kombination mit zwei weiteren Funktionen zu lancieren, welche die Verbreitung von Bildern sexuellen Missbrauchs an Kindern stoppen soll. Ein Bestandteil ist der Ausbau von Siri und der Suchfunktionen in Apples Betriebssystemen. Dies soll Kindern und Eltern Hilfestellungen im Umgang mit unsicheren Situationen bieten.

Zusätzlich ist eine Erweiterung der Nachrichten-App angedacht, welche Fotos mit sexuellen Inhalten erkennt. Das Bild wird dem Kind zunächst verschwommen und mit einem Warnhinweis versehen ausgespielt. Zudem sollen die Eltern parallel dazu ebenfalls eine Nachricht erhalten mit der Möglichkeit, das Foto zuzulassen. Ähnliches soll für Bilder gelten, die vom Natel des Kindes aus versendet werden.

Die Funktionen sollte vorerst nur in den USA aktiv sein.

(bloomberg/ske)