Miliardarii din domeniul tehnologiei concurează pentru a dezvolta AI „superinteligent”, ridicând uriaşe probleme etice şi de securitate. De la controlul armelor nucleare, la înlocuirea a milioane de locuri de muncă şi până la crearea unor virusuri mortale, dezvoltarea necontrolată a AI-ului ar putea avea consecinţe catastrofale pentru întreaga omenire, potrivit action.eko.org.
Experţii de top şi oamenii de ştiinţă trag un semnal de alarmă. Peste 800 de laureaţi Nobel, CEO‑uri, lideri religioşi şi personalităţi publice au semnat Declaraţia privind Superinteligenţa, cerând oprirea dezvoltării AI-ului avansat până când acesta va fi sigur.
Sondajele recente arată că trei sferturi dintre adulţii din SUA doresc reglementări stricte privind dezvoltarea AI, preferând supraveghere similară cu cea a medicamentelor, în locul auto-reglementării industriei tech. Aproape două treimi (64%) consideră că AI superuman nu ar trebui dezvoltat până când nu se dovedeşte că este sigur şi controlabil - sau că nu ar trebui dezvoltat niciodată.
Lobbyiştii Big Tech susţin că o moratorie ar putea oferi un avantaj actorilor rău intenţionaţi sau statelor. Totuşi, experţii avertizează că potenţialul catastrofal al AI-ului avansat afectează întreaga omenire, indiferent de ţara care îl dezvoltă.
Printre cei peste 800 de semnatari iniţiali ai Declaraţiei privind Superinteligenţa se numără lideri militari retraşi, consilieri de securitate, jurnalişti, academicieni, factori de decizie, preoţi şi CEO‑uri. Declaraţia cere prohibiţia dezvoltării superinteligenţei până când se îndeplinesc două condiţii esenţiale:
Există un consens ştiinţific larg că AI-ul va fi dezvoltat în mod sigur şi controlabil, şi
Există susţinere publică puternică.
Până în prezent, campania a strâns peste 26.629 de semnături, numărul fiind în continuă creştere, pentru a determina guvernele şi corporaţiile să acţioneze responsabil.
Doar luna trecută, Jeff Bezos (Amazon) şi Sam Altman (OpenAI) au recunoscut existenţa unei bule de investiţii în AI. Pe măsură ce presiunea asupra companiilor de AI de a tăia colţurile, de a ascunde greşeli şi de a ignora avertismentele creşte, experţii avertizează că riscurile se amplifică.
Mesajul acestora este că lumea are nevoie de AI sigur şi bine gestionat, concentrat pe rezolvarea problemelor reale în sănătate, educaţie şi alte domenii critice, nu de experimente necontrolate care ar putea ameninţa umanitatea.






















































1. fără titlu
(mesaj trimis de Vîjeu el Condor! în data de 25.10.2025, 11:56)
riscul este dat de certitudinea Academiei de Științe moscovite care recuperează rapid și ajunge la egalitate în capabilități litografice cu ASML:ul olandez astfel încât armata Federației obține Ochiul-a-tot-Văzător din Cosmos de-l poate repera pe circarul cu brevet de comediant Zelensky pe oriunde în UE și-l împușcă cu satelitul ca să putem și noi íoropenii să ne revenim cu nivelul de trai ce se depreciază pe zi-ce-trece pentru o cauză pierdută și non-inteligibilă: Slava !
2. fără titlu
(mesaj trimis de anonim în data de 25.10.2025, 11:57)
Nu exista nicio opinie publica puternica. Toata lumea foloseste AI-ul intr-un mod distractiv. La scoala toata lumea il foloseste. Eu ma indoiesc ca opinia publica este atat de mult impotriva dezvoltarii AI.