Tobias und Jens haben sich wieder zu einer Aufnahme zusammen gefunden. In den letzten Wochen gab es recht viele Themen, die sich für die Sendung eignen. Wir diskutieren einiges an und wenden uns dann Apple zu.
In neueren Varianten des Betriebssystems soll es eine Erkennung von Child Sexual Abuse Material (CSAM, dokumentierter Kindesmissbrauch) geben. Das Erkennungsystem prüft dabei lokale Dateien vor dem Upload in die iCloud. Wir diskutieren die Vor- und Nachteile dieses Ansatzes.
Shownotes
- RIS46: Signal, Cellebrite & Co.
- Ricochet
- Ricochet Refresh
- Onion Service version 2 deprecation timeline
- Administrator per Plug and Play
- Adminrechte bekommt man auch mit Steelseries-Mäusen
- Ransomware: Last Week Tonight with John Oliver (HBO)
- Tor Browser: Neue Version mit Sicherheitsupdates erschienen
- New Stable Releases: Tor 0.3.5.16, 0.4.5.10 and 0.4.6.
- Potential consensus divergence from Ed25519 edge cases
CSAM-Detektion
- Opinion: We built a system like Apple’s to flag child sexual abuse material — and concluded the tech was dangerous
- Identifying Harmful Media in End-to-End Encrypted Communication: Efficient Private Membership Computation
- Princeton University says it knows Apple’s CSAM system is dangerous – because it built one
- https://twitter.com/KimZetter/status/1428550157650464769
- AppleNeuralHash2ONNX: Reverse-Engineered Apple NeuralHash, in ONNX and Python
- https://twitter.com/carmelatroncoso/status/1423554819969671169
- https://twitter.com/EinsteinsAttic/status/1424289040078094341
- Speak Out Against Apple’s Mass Surveillance Plans
- NCMEC
- US vs. Ackerman (Begründung, dass NCMEC quasi staatlich ist)
- Expanded Protections for Children
- Apple’s Plan to “Think Different” About Encryption Opens a Backdoor to Your Private Life
- RevHashNet: Perceptually de-hashing real-valued image hashes for similarity retrieval
- LNP403 Leichte Schläge auf den Hinterkopf
- Auslegungssache 45: der c’t-Datenschutz-Podcast über Apples iPhone-Scanningpläne