CSAM Scanning – was ist das?

1 min
 
Tags: CSAM Scanning Apple Missbrauchsfotos Erkennung Überwachung Kinderschutzfunktion

In letzter Zeit wurden immer wieder kritische Stimmen im Zusammenhang mit dem CSAM Scanning laut, hauptsächlich stehen damit iPhones im Fokus. Es wurde sogar dazu aufgerufen, diese geplante Funktion für diesen speziellen Scan komplett zurückzunehmen. Ansonsten ist die vertrauliche Kommunikation beeinträchtigt. Apple plant aber trotzdem neue Kinderschutzfunktionen, wie diese. Gemeint ist damit die geplante lokale Erkennung von so genannten Missbrauchsfotos. Es ist also tatsächlich vom Kindesmissbrauch die Rede, gleichzeitig wird mit dieser neuen Funktion aber auch die vertrauliche und sichere Kommunikation untergraben. Der Bundestagsausschuss hat mit den Plänen von Apple ein grosses Problem.

Vertrauliche Kommunikation gerät ins Wanken

Die vertrauliche Kommunikation steht im direkten Rampenlicht. Das Ziel ist es nämlich, dass Apple über diese neue Funktion sämtliche Inhalte scannen kann. Damit sind alle Nutzer betroffen. Dieser Plan steht im Zusammenhang mit einer direkten Überwachung. Die Befürchtungen sind, dass die Kommunikation somit zum größten Überwachungsinstrument überhaupt werden könnte. Apple verspricht hingegen, dass diese Funktionen eng begrenzt sein sollen. Bürgerrechtsorganisationen sehen hier allerdings eine Hintertür. Diese Scanfunktion kann nämlich je nach Bedarf ausgeweitet werden.

Keine Aussage von Apple

Diese so genannte neue Kinderschutzfunktion von Apple ist übrigens bereits für den Herbst geplant. Bekannte Missbrauchsmaterialen, sowie ein Nacktbildfilter kommen ins Spiel. Teilweise arbeitet die Software sowohl auf dem iPad, als auf dem iPhone. Wenn ein bestimmter Schwellenwert erreicht wird, schickt Apple eine Information weiter und kann die entsprechenden Bilder sichten. Anschliessend werden entsprechende zuständige Behörden informiert.