Apple und CSAM – richtig oder falsch?

Apple steht gerade ziemlich in der Kritik wegen ihrem Vorstoß, lokal auf dem Smartphone nach Bildern zu scannen, bei denen es sich um CSAM (Child Sexual Abuse Material) handeln könnte. Apple Child Safety Webseite.

Sobald das überprüfte Bild einen bestimmten Schwellenwert überschritten hat, werden die zuständigen Behörden informiert. Apple ist bekannt dafür, in vielen Fällen das Richtige zu tun (Spoiler: Apple-Fanboy hier), sind allerdings viele besorgt, dass dieses der erste Schritt ist, der den Behörden einen Fuß in der Tür gibt, die bisher als gut verschlossen und geschützt angesehen wurde. Auch scheint es, dass es für Apple danach schwieriger werden wird, ihre Anti-FBI-Backdoor-Haltung weiter aufrecht zu halten.

Mehr Infos bei The Verge.

Beitrag 9 der #100DaysToOffload Herausforderung.