
Creşterea explozivă a numărului sistemelor de inteligenţă artificială (IA) din ultimii ani a condus la crearea unui segment de piaţă care aminteşte de alte bule speculative din sectorul tehnologiilor înalte.
Şi atunci au fost promisiuni nenumărate, preluate în grabă de investitorii care nu doreau să piardă o şansă unică.
Este acum altfel, în condiţiile în care autorii sistemelor IA susţin că acestea vor revoluţiona nu doar aproape toate sectoarele economice, ci şi modul în care va funcţiona societatea?
Poate că un verdict este încă prematur, însă o serie de lucrări ştiinţifice recente ridică semne de întrebare atât din perspectiva capacităţii sistemelor IA de a fi cu adevărat inteligente, cât şi din punct de vedere al impactului cognitiv şi de raţionament asupra persoanelor care le utilizează frecvent şi ajung la un anumit grad de dependenţă.
În ceea ce priveşte capacitatea IA de a manifesta cu adevărat inteligenţă, cercetătorii de la Apple au publicat lucrarea "The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity", unde evaluează capacitatea celor două tipuri de sisteme IA utilizate cel mai frecvent, respectiv LLM (Large language model, Model lingvistic mare) şi LRM (Large reasoning model, Model mare de raţionament), pentru rezolvarea unor probleme cu diferite grade de complexitate.
Autorii afirmă că, "în ciuda mecanismelor sofisticate de autoreflecţie, aceste modele nu reuşesc să dezvolte capacităţi de raţionament generalizabile dincolo de anumite praguri de complexitate", în condiţiile în care au observat că modelele LLM depăşesc LRM pentru problemele de complexitate scăzută, LRM-urile stau foarte bine la problemele de complexitate medie, dar ambele modele "se prăbuşesc la complexitate ridicată".
În opinia lor, mult mai îngrijorător este faptul că "efortul de raţionament se reduce pe măsură ce problemele se apropie de complexitatea critică, sugerând o limită inerentă de scalare a calculului în LRM-uri".
Cu alte cuvinte, modelele de inteligenţă artificială, chiar şi cele mai avansate modele de raţionament de mari dimensiuni, nu sunt altceva decât "nişte papagali foarte talentaţi, care nu au practic nicio capacitate reală de raţionament", după cum subliniază antreprenorul Arnaud Bertrand pe contul său de Twitter.
Pentru Arnaud este bizar faptul că modelele au renunţat destul de repede când s-au confruntat cu probleme dificile, în ciuda bugetelor de calcul nelimitate, spre deosebire de om, care îşi măreşte efortul în acest caz.
Rezultatele studiului de la Apple are implicaţii profunde pentru viitorul IA aşa cum este prezentat acum, după cum mai scrie antreprenorul francez, şi este deosebit de îngrijorătoare perspectiva alocării greşite a unui capital de trilioane de dolari.
Mai mult, utilizarea intensivă a sistemelor IA are efecte negative din punct de vedere neural, lingvistic şi comportamental în procesul de învăţare, aşa cum arată o echipă de cercetători de la MIT în studiul "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task".
Participanţilor li s-a cerut să scrie eseuri şi au fost împărţiţi în trei grupuri: utilizare doar LLM, utilizare doar motor de căutare şi fără niciun fel de asistenţă, doar creierul.
Ulterior, celor fără niciun fel de asistenţă li s-a cerut să utilizeze LLM, iar utilizatorilor LLM li s-a cerut să scrie eseul fără asistenţă. Sarcina cognitivă a participanţilor a fost evaluată în toate etapele cu ajutorul electroencefalogramei (EEG).
Concluzia cercetătorilor de la MIT a fost că participanţii care şi-au folosit doar creierul au prezentat cele mai puternice reţele neuronale şi cele mai distribuite, în timp ce utilizatorii motoarelor de căutare au arătat un angajament moderat.
Cea mai slabă conectivitate s-a înregistrat pentru utilizatorii LLM, care au avut dificultăţi în a cita din propriile eseuri, iar autorii studiului avertizează că poate fi vorba despre o scădere a capacităţii de învăţare a utilizatorilor.
Acesta este contextul în care The Economist a scris recent că "evaluările IA sunt la limita nebuniei". Unul dintre exemplele oferite este compania Thinking Machines Lab (TML), înfiinţată de Mira Murati, fost director de tehnologie la OpenAI. TML a atras de la investitori circa 2 miliarde de dolari, pe fondul unei evaluări "de piaţă" de circa 10 miliarde, cu toate că nu a prezentat o strategie şi nu are venituri.
Mult mai celebrul OpenAI, despre care The Economist scrie că "a ars 5 miliarde de dolari anul trecut", este evaluat la circa 300 de miliarde de dolari.
Potenţialul veniturilor este foarte greu de estimat, după cum mai arată revista britanică, deoarece clienţii experimentează în paralel cu mai multe sisteme IA, iar concurenţa de pe piaţă este descrisă drept "feroce".
Cu toate acestea, "disponibilitatea investitorilor de a trece cu vederea pierderile reflectă convingerea lor că piaţa potenţială pentru IA este enormă şi costurile vor continua să scadă", după cum mai arată The Economist.
Din punct de vedere al costurilor, presiunea cea mai mare vine din China, unde marii jucători, cum sunt DeepSeek sau Alibaba, oferă gratuit codul său pentru utilizare, modificare şi vizualizare.
Un alt aspect deosebit de important a fost prezentat de Wall Street Journal, într-un articol sub titlul"China Is Quickly Eroding America's Lead in the Global AI Race".
Aici se arată că "industria chineză de inteligenţă artificială se concentrează mult mai mult pe utilizarea IA pentru a crea aplicaţii practice, în timp ce companiile americane de inteligenţă artificială acordă prioritate urmăririi unor descoperiri majore în cursa pentru crearea unei superinteligenţe artificiale".
În plus, companiile chineze oferă sisteme IA cel puţin la fel de bune precum cele dezvoltate în SUA, dar la preţuri mult mai reduse, în condiţiile în care beneficiază de sprijinul autorităţilor pentru crearea unui întreg lanţ IA, care să depindă cât mai puţin posibil de tehnologiile americane.
WSJ mai subliniază că "fragmentarea inteligenţei artificiale la nivel mondial îi costă deja pe producătorii occidentali de cipuri pentru calculatoare şi alte componente hardware miliarde de dolari în vânzări pierdute", iar "adoptarea modelelor chinezeşti la nivel global ar putea însemna, de asemenea, pierderi de cotă de piaţă şi de câştiguri pentru firmele americane legate de inteligenţa artificială, precum Google şi Meta".
Directorul general de la OpenAI a venit şi cu un argument politic în confruntarea dintre sistemele IA din SUA şi China. "Vrem să ne asigurăm că inteligenţa artificială democratică învinge inteligenţa artificială autoritară", a declarat recent Sam Altman.
Dar va fi suficientă această chemare la luptă pentru a crea cadrul în care inteligenţa artificială să nu fie doar o altă bulă speculativă pe pieţele de capital americane?
1. Comentariu eliminat conform regulamentului
(mesaj trimis de Redacţia în data de 03.07.2025, 02:30)
...
2. fără titlu
(mesaj trimis de pensionar în data de 03.07.2025, 03:18)
Ma bucur ca OMUL, ,creat de catre Dumnezeu, nu poate fi depasit !
3. Mda
(mesaj trimis de Oarecare în data de 03.07.2025, 05:59)
O fi inteligența artificială "un papagal foarte talentat", dar ușor ușor îi va transforma pe oameni în niște biete ființe bipede humanoide lipsite de harul gândirii și al rațiunii.
Astfel va fi încălcată prima lege a vizionarului Asimov care spune că robotul nu trebuie să facă rău omului. Răul de fapt a fost deja făcut. Îndobitocirea se petrece sub ochii noștri prin utilizarea internetului și a mijloacelor de comunicare online de către prostime în scopuri infantile. Dependență totală. Spre ce ne îndreptăm și cu IA e clar.