OpenAI a început recent să închirieze cipuri de inteligenţă artificială dezvoltate de Google pentru a alimenta ChatGPT şi alte produse, a declarat vineri pentru Reuters o sursă apropiată situaţiei.
OpenAI, cunoscut pentru ChatGPT, era până acum unul dintre cei mai mari utilizatori ai procesoarelor Nvidia (GPU), atât pentru antrenarea modelelor AI, cât şi pentru inferenţă (utilizarea modelelor antrenate pentru a face predicţii).
Recent însă, compania a început să folosească cipuri TPU (tensor processing units) închiriate prin Google Cloud, într-o mişcare care marchează o colaborare surprinzătoare între rivali din domeniul AI. Google, la rândul său, îşi extinde disponibilitatea publică a TPU-urilor - anterior folosite doar intern - atrăgând clienţi precum Apple, Anthropic şi Safe Superintelligence (ultimele două fondate de foşti angajaţi OpenAI).
Aceasta este prima utilizare semnificativă de cipuri non-Nvidia de către OpenAI şi marchează o uşoară distanţare faţă de Microsoft, principalul partener şi investitor al companiei. Potrivit The Information, TPU-urile pot oferi o alternativă mai ieftină pentru inferenţă, deşi Google nu pune la dispoziţia OpenAI cele mai performante versiuni ale acestor cipuri.
Google a refuzat să comenteze, iar OpenAI nu a răspuns imediat solicitărilor Reuters.
Opinia Cititorului