Dezvoltatorul chinez de inteligenţă artificială DeepSeek a anunţat că a cheltuit 294.000 de dolari pentru antrenarea modelului său R1, o sumă mult sub costurile declarate de rivalii americani, scrie Reuters.
Datele au fost publicate într-o versiune revizuită a unui articol din revista Nature, care precizează că antrenarea s-a realizat pe un cluster de 512 cipuri Nvidia H800, timp de 80 de ore. Într-un document suplimentar, compania a recunoscut şi utilizarea unor GPU-uri A100 în fazele pregătitoare.
Comparativ, Sam Altman, CEO OpenAI, a afirmat în 2023 că instruirea modelelor fundamentale ale companiei sale a costat „mult mai mult” de 100 de milioane de dolari.
Dezvăluirile DeepSeek reaprind dezbaterea privind avansul Chinei în cursa globală a inteligenţei artificiale şi ridică semne de întrebare legate de accesul la tehnologii interzise de SUA. De asemenea, compania răspunde acuzaţiilor că ar fi folosit tehnica de „distilare” a modelelor rivale - inclusiv a OpenAI - susţinând că aceasta permite performanţe ridicate cu resurse reduse, conform sursei citate.
Lansarea R1, axat pe raţionament, a avut loc în ianuarie şi a provocat o undă de şoc pe pieţele tehnologice, investitorii temându-se că modelele ieftine ale DeepSeek ar putea submina dominaţia americană în domeniu.
Opinia Cititorului