EU-raad stelt voor om CSAM-scanning te verplichten, maar met ernstige tekortkomingen
De EU-raad heeft onlangs een voorstel gedaan om verplichte CSAM-scanning (Child Sexual Abuse Material) van berichten en bestanden op online platforms te implementeren. Echter, deskundigen en privacyvoorvechters hebben ernstige bezwaren geuit tegen het voorstel vanwege de potentiële privacy- en veiligheidsrisico’s die ermee gepaard gaan.
Belangrijkste punten van kritiek op het voorstel:
- Er is bezorgdheid dat de voorgestelde maatregelen de privacy van gebruikers kunnen schenden en mogelijk leiden tot misbruik van de gescande gegevens.
- Het voorstel legt de verantwoordelijkheid voor de implementatie van de CSAM-scanning bij de online platforms, wat tot aanzienlijke kosten en operationele uitdagingen kan leiden.
- Deskundigen suggereren dat er effectievere en privacyvriendelijkere methoden zijn om CSAM op te sporen, zoals end-to-end encryptie met ingebouwde veiligheidsmaatregelen.
Al met al roept het voorstel van de EU-raad veel vragen op over de balans tussen privacybescherming en het bestrijden van kindermisbruik online. Het is belangrijk dat er een zorgvuldige afweging wordt gemaakt tussen deze twee aspecten om ervoor te zorgen dat de rechten en veiligheid van gebruikers worden gewaarborgd.
Lees meer over het laatste AI-nieuws hier.