Centrul pentru Standarde şi Inovare AI (CAISI) din Statele Unite a încheiat acorduri cu Google DeepMind, Microsoft şi xAI pentru testarea modelelor AI înainte de lansarea publică, iar această apropiere dintre autorităţile federale şi marile companii tehnologice alimentează îngrijorări privind o posibilă captură regulatorie în domeniul inteligenţei artificiale.
Acordurile anunţate marţi de Centrul pentru Standarde şi Inovare AI (CAISI) din cadrul Departamentului de Comerţ al Statelor Unite cu Google DeepMind, Microsoft şi xAI prevăd testarea unor modele AI avansate înainte de lansarea publică, conform anunţului National Institute of Standards and Technology (NIST)[1].
Potrivit NIST, scopul programului este evaluarea riscurilor privind securitatea naţională şi siguranţa sistemelor AI, inclusiv prin acces la versiuni ale modelelor cu măsuri de protecţie reduse sau eliminate[1].
Totuşi, literatura academică recentă avertizează că tocmai astfel de parteneriate dintre autorităţi şi actorii dominanţi ai industriei pot crea condiţii favorabile capturii regulatorii.
Cercetătorii arată că reglementarea tehnologiilor emergente este vulnerabilă la influenţa disproporţionată a companiilor cu putere economică şi politică majoră, conform studiului publicat în AI & Society[2].
Mecanismele de influenţă identificate de cercetători includ stabilirea agendei de reglementare, activităţile de advocacy şi lobbying, influenţarea mediului academic şi controlul informaţiilor disponibile decidenţilor, potrivit cercetării realizate de Kevin Wei, Carson Ezell, Nicholas Gabrieli şi Chinmay Deshpande, publicată pe ArXiv şi analizată de RAND Corporation[3][4].
Cercetătorii notează că experţii intervievaţi s-au declarat preocupaţi în special de riscul ca influenţa industriei să conducă la reglementări slabe, întârziate sau orientate disproporţionat către obiective favorabile marilor companii AI, conform AI & Society[2].
Mecanismele de influenţă în practică
Acordurile CAISI ilustrează această problemă prin faptul că firmele dominante din industrie primesc acces privilegiat la procesul de dezvoltare şi testare a standardelor de siguranţă AI.
Publicaţia Prism avertizează că implicarea directă a marilor laboratoare AI în arhitectura sistemului federal de testare le poate oferi influenţă asupra regulilor care le vor reglementa ulterior activitatea[5].
Îngrijorările privind relaţia dintre industrie şi reglementare au apărut deja în dezbaterea americană despre AI.
Harvard Law Review observă că liderii companiilor AI au susţinut public necesitatea reglementării, în timp ce o parte a clasei politice americane s-a arătat dispusă să acorde industriei un rol important în elaborarea regulilor viitoare[6].
Precedente în reglementarea digitală
Literatura privind reglementarea tehnologică arată că efectele legislaţiei pot fi distribuite inegal între actorii din piaţă.
AI & Society citează cercetări potrivit cărora Regulamentul General privind Protecţia Datelor (GDPR) a afectat disproporţionat firmele mici din sectorul IT, consolidând indirect poziţia companiilor dominante[2].
În Irlanda, autoritatea pentru protecţia datelor (DPC), responsabilă de supravegherea multor giganţi tehnologici americani care au sedii europene în această ţară, a fost criticată în repetate rânduri de organizaţii civice şi activişti pentru ritmul lent al aplicării GDPR împotriva marilor platforme digitale, potrivit relatărilor Reuters, Politico Europe şi NOYB[7][8][9].
Consecinţe pentru securitatea naţională
Potrivit NIST, acordurile permit evaluarea aprofundată a capacităţilor şi riscurilor asociate modelelor AI de frontieră, inclusiv în domeniul securităţii naţionale[1].
Criticii acestei abordări avertizează însă că dependenţa autorităţilor de expertiza şi infrastructura companiilor dominante poate afecta independenţa procesului de reglementare şi evaluare.
Riscurile identificate în literatura academică includ reglementări insuficiente, întârzierea intervenţiei statului sau consolidarea avantajelor competitive ale actorilor deja dominanţi, potrivit cercetării analizate de RAND Corporation[4].
Ca soluţie, cercetătorii recomandă dezvoltarea unei capacităţi tehnice independente în interiorul administraţiilor publice şi al societăţii civile, pentru a reduce dependenţa de expertiza furnizată de industrie, conform studiului publicat pe ArXiv[3].
SURSE CITATE:
[1] NIST - "CAISI Signs Agreements Regarding Frontier AI National Security Testing”
[https://www.nist.gov/news-events/news/2026/05/caisi-signs-agreements-regarding-frontier-ai-national-security-testing](https://www.nist.gov/news-events/news/2026/05/caisi-signs-agreements-regarding-frontier-ai-national-security-testing)
[2] AI & Society - "AI safety and regulatory capture”
[https://link.springer.com/article/10.1007/s00146-025-02534-0](https://link.springer.com/article/10.1007/s00146-025-02534-0)
[3] ArXiv - "How Do AI Companies Fine-Tune Policy? Examining Regulatory Capture in AI Governance”
[https://arxiv.org/abs/2410.13042](https://arxiv.org/abs/2410.13042)
[4] RAND Corporation - analiză asupra influenţei industriei AI în politica publică americană
[https://www.rand.org/](https://www.rand.org/)
[5] Prism - "U.S. expands AI model testing deals with Google DeepMind”
[https://www.prismnews.com/news/us-expands-ai-model-testing-deals-with-google-deepmind](https://www.prismnews.com/news/us-expands-ai-model-testing-deals-with-google-deepmind)
[6] Harvard Law Review - "Co-Governance and the Future of AI Regulation”
[https://harvardlawreview.org/print/vol-138/co-governance-and-the-future-of-ai-regulation/](https://harvardlawreview.org/print/vol-138/co-governance-and-the-future-of-ai-regulation/)
[7] Reuters - relatări privind criticile aduse DPC Irlanda
[https://www.reuters.com/](https://www.reuters.com/)
[8] Politico Europe - articole privind aplicarea GDPR în Irlanda
[https://www.politico.eu/](https://www.politico.eu/)
[9] NOYB - organizaţie europeană pentru drepturi digitale
[https://noyb.eu/](https://noyb.eu/)

















































Opinia Cititorului