West Virginia a intentat un proces împotriva Apple, acuzând compania că nu a prevenit stocarea şi distribuirea de materiale cu abuz sexual asupra copiilor (CSAM) prin dispozitivele iOS şi serviciile iCloud, transmite CNBC.
Procurorul general John "JB” McCuskey, republican, afirmă că Apple a prioritizat imaginea de apărare a confidenţialităţii şi propriile interese comerciale în detrimentul siguranţei copiilor, în timp ce alte companii mari de tehnologie, precum Google, Microsoft şi Dropbox, au fost mai proactive prin utilizarea sistemelor precum PhotoDNA, notează CNBC.
Dezvoltat în 2009 de Microsoft şi Dartmouth College, PhotoDNA identifică automat imagini CSAM deja raportate autorităţilor printr-un sistem de „amprentare digitală şi comparare”, conform CNBC.
Apple testase în 2021 un mecanism propriu de detectare a CSAM, capabil să raporteze automat conţinutul ilegal încărcat în iCloud către Centrul Naţional pentru Copii Dispăruţi şi Exploataţi din SUA, potrivit CNBC.
Compania a renunţat însă la implementare după critici din partea activiştilor pentru confidenţialitate, care au avertizat că tehnologia ar putea fi folosită pentru supraveghere guvernamentală sau cenzură, notează CNBC.
Decizia Apple de a abandona sistemul a generat critici în lanţ. În 2024, organizaţia britanică National Society for the Prevention of Cruelty to Children a acuzat Apple că nu monitorizează şi nu raportează corespunzător CSAM, transmite CNBC. Tot în 2024, mii de supravieţuitori ai abuzurilor sexuale asupra minorilor au dat Apple în judecată în California, susţinând că renunţarea la detectarea automată a permis proliferarea materialelor abuzive, conform CNBC.
Dacă procesul intentat de West Virginia va avea succes, Apple ar putea fi forţată să îşi modifice designul produselor sau politicile de securitate. Statul solicită despăgubiri punitive şi obligaţia ca Apple să implementeze soluţii eficiente de detectare a CSAM, notează CNBC.
Într-un răspuns transmis prin e-mail, Apple a declarat pentru CNBC că protejarea utilizatorilor, în special a copiilor, este „centrală pentru ceea ce facem”, subliniind funcţiile existente de control parental şi sistemul Communication Safety, care intervine automat când este detectată nuditate în mesaje, fotografii sau apeluri FaceTime, potrivit CNBC.
„Inovăm în fiecare zi pentru a combate ameninţările în continuă schimbare şi pentru a menţine cea mai sigură şi de încredere platformă pentru copii”, a transmis un purtător de cuvânt al companiei, conform CNBC.



















































Opinia Cititorului