Alla bilder du skickar ska sökas igenom och matchas mot ett arkiv av bilder. Om det finns match så registreras du och påföljd kommer. Alltså scannas allt och leverantörer måste möjliggöra detta. Problemet är inte är det scannas problemet är att du inte kan ha en krypterad tjänst som och möjliggör detta, det går inte ihop. Vilket gör att denna bakdörr som skapas kan nyttjas i sin tur av andra. Det som är ännu värre är att det går att kringgå detta på mindre än 5 min genom att ladda ned samma program från en annan butik, tex fdroid...
Så en lag som påverkar de flesta människor till denna grad som denna verkar göra och har så låg träffsäkerhet mot det man vill komma åt är i mina ögon helt värdelös
Ja och sen tänkte väl den där Ylva sig att det skulle tas fram maskininlärning/ai som ska reagera på innehåll som kan vara misstänksamt (typ dina semesterbilder med barnen som du skickar till mormor) och då skickas till ett nyinrättat EU-center där människor ska granska eventuella träffar. Självklart inte acceptabelt.
Läs mer här
https://chatcontrol.se/faq/general/
Till exempel delarna om feldetektering.
Matcha mot känt material kommer den inte kunna göra tillförlitligt utan att jämföra hur själva bilden ser ut (alltså blanda in maskin/ai och skapa neuralhash). En uträknad hash/checksumma för bilden ändras ju genom att bara ändra en pixel eller metadata sparat osynligt men visst, den kommer kunna detektera exakta kopior av känt material med hög tillförlitlighet. Det är när man blandar in detektering av okänt material som det blir väldigt svajigt (den måste kolla allt) och listan för vad som ska matchas och vad som är känt, vem styr den listan nu och i framtiden?
Observera att jag skriver om två olika sätt att räkna ut en hash på. Man kan räkna ut den bara på själva datan eller "titta på" bilden. Det sista krävs för att den ska kunna identifiera bilder som liknar varandra och där kommer en osäkerhet in i ekvationen. Oavsett så behöver något räkna ut något baserat på den unika filen och för det krävs det någon funktion som faktiskt gör det och jämför med något känt, eller okänt. Typ "innehåller bilden någon som är minderårig som har för lite kläder på sig". Självklart kan inte modellen avgöra ålder exakt eller om ett minderårigt par skickar bilder till varandra, du skickar bilder från semestern med ungarna till mormor, nakenbilder på dig själv eller vad som helst. Ska alltså det skickas vidare till ett center där någon ska titta på bilderna? Jag förstår absolut tanken med att motverka barnporr/csam, det är förstås bra men inte på det här sättet. Det här ska ju inte bara vara begränsat till filer utan även köras på text som jag har förstått det.