RIS51: Apple und die CSAM-Detektion

Tobias und Jens haben sich wieder zu einer Aufnahme zusammen gefunden. In den letzten Wochen gab es recht viele Themen, die sich für die Sendung eignen. Wir diskutieren einiges an und wenden uns dann Apple zu.

In neueren Varianten des Betriebssystems soll es eine Erkennung von Child Sexual Abuse Material (CSAM, dokumentierter Kindesmissbrauch) geben. Das Erkennungsystem prüft dabei lokale Dateien vor dem Upload in die iCloud. Wir diskutieren die Vor- und Nachteile dieses Ansatzes.

Shownotes

CSAM-Detektion