Noile cipuri de la Nvidia folosite în inteligența artificială au performanțe de aproape trei ori mai bune decât generația anterioară

Cele mai noi cipuri de la Nvidia au făcut progrese semnificative în antrenarea sistemelor mari de inteligență artificială, potrivit unor date publicate miercuri. Numărul de cipuri necesare pentru antrenarea modelelor mari de limbaj a scăzut considerabil.

MLCommons, o organizație non-profit care publică teste de performanță pentru sisteme de inteligență artificială, a lansat noi date despre cipurile de la Nvidia, Advanced Micro Devices și alți producători, în contextul procesului de antrenare — adică atunci când sistemele AI sunt "hrănite" cu cantități mari de date pentru a învăța.

Rezultatele arată că noile cipuri Blackwell de la Nvidia sunt, per cip, de peste două ori mai rapide decât generația anterioară, Hopper.

În cele mai rapide teste, 2.496 de cipuri Blackwell au finalizat ”antrenmentul” cu date în doar 27 de minute. În schimb, ar fi fost nevoie de mai mult de trei ori mai multe cipuri din generația anterioară pentru a obține un timp similar.

Piața se concentrează din ce în ce mai mult pe folosirea AI, iar numărul de cipuri necesare pentru antrenare rămâne un aspect esențial pentru competiție. De exemplu, compania chineză DeepSeek susține că a creat un chatbot competitiv folosind mult mai puține cipuri decât rivalii americani.

Acestea sunt primele rezultate publicate de MLCommons referitoare la modul în care cipurile performează în antrenarea unor modele AI complexe, cum ar fi Llama 3.1 405B — un model open-source lansat de Meta, care are un număr foarte mare de „parametri” și oferă o imagine clară asupra capacității de antrenare a cipurilor în sarcini extrem de dificile (cu trilioane de parametri).

Nvidia și partenerii săi au fost singurii care au trimis date privind antrenarea unui model atât de mare.

Într-o conferință de presă, Chetan Kapoor, director de produs la CoreWeave — companie care a colaborat cu Nvidia — a declarat că industria AI se îndreaptă spre folosirea unor grupuri mai mici de cipuri organizate în subsisteme, pentru a antrena părți separate ale modelelor AI, în loc să folosească grupuri mari și omogene de peste 100.000 de cipuri.

„Prin această metodă, reușesc să accelereze antrenarea sau să reducă timpul necesar pentru modele uriașe, cu trilioane de parametri,” a spus Kapoor.

DefenseRomania App

Fii primul care află cele mai importante știri din domeniu cu aplicația DefenseRomania. Downloadează aplicația DefenseRomania de pe telefonul tău Android (Magazin Play) sau iOS (App Store) și ești la un click distanță de noi în permanență

Get it on App Store
Get it on Google Play

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DefenseRomania și pe Google News


Articole Recomandate


CONTACT | POLITICA DE CONFIDENȚIALITATE | POLITICA COOKIES |

Copyright 2025 - Toate drepturile rezervate.
pixel