TehnoȘtiri

META CONSTRUIEȘTE CEL MAI MARE SUPERCOMPUTER PE BAZĂ DE INTELIGENȚĂ ARTIFICIALĂ

(c) Meta

Compania Meta construiește cel mai puternic supercomputer pe bază de inteligență artificială (IA) din lume. Acesta va fi utilizat pentru a dezvolta instrumente mai bune de recunoaștere a vorbirii, pentru a traduce automat între diferite limbi și pentru a ajuta la construirea metaversului, spațiul virtual 3D al companiei.

Deși este departe de a fi complet, AI Research SuperCluster (RSC) este în funcțiune și a depășit deja cel mai rapid supercomputer al companiei Meta. Acel sistem a fost dezvoltat în anul 2017 și include 22.000 de unități de procesare grafică (GPU), care, în ciuda faptului că sunt proiectate pentru rularea de jocuri, sunt instrumente extrem de eficiente pentru antrenarea modelelor de inteligență artificială.

În prezent, deși RSC are în componență doar 6080 de GPU-uri, acestea sunt mai puternice decât cele din componența sistemului mai vechi. Noul supercomputer este deja de trei ori mai rapid decât predecesorul său în ceea ce privește antrenarea modelelor AI mari. Performanța sa actuală este similară cu cea a supercomputerului Perlmutter din cadrul Centrului Național de Calcul Științific în Cercetare Energetică din California, care, în prezent, se află pe locul cinci în top500 global al supercomputerelor.

Odată finalizat, RSC va avea în componență 16.000 de GPU-uri și va fi de aproape trei ori mai puternic decât în prezent. Reprezentanții companiei Meta au declarat faptul că RSC va fi cel mai rapid supercomputer optimizat pentru sisteme pe bază inteligență artificială din lume și că acesta a înregistra viteze de până la 5 exaflopi.

Supercalculatoarele pot fi proiectate pentru a excela la anumite sarcini. Sistemul companiei Meta este specializat pe antrenarea și rularea modelor IA complexe. Deși la momentul finalizării proiectului vor exista computere mai puternice, nu va fi niciunul care să împărtășească arhitectura exactă sau utilizarea prevăzută a RSC.

În ultimii ani, cercetările din domeniu IA s-u concentrat pe scalarea și dezvoltarea unor sisteme din ce în ce mai puternice, utilizate pentru a antrena modele. Modelul Megatron-Turing Natural Language Generation, una dintre cele mai mari rețele neuronale, are în componență 530 de miliarde de parametri. Acestea sunt echivalente cu conexiunile dintre celulele creierului. Oficialii din cadrul organizației Meta au declarat faptul că RSC va rula modele cu trilioane de parametri.

James Knight din cadrul Universității din Sussex, Marea Britanie, a declarat faptul că deși supercomputerul propus este „uriaș”, este posibil ca acesta să nu depășească unele dintre provocările din cercetarea IA. „Un sistem atât de mare le va permite să construiască modele mai mari. Cu toate acestea, nu cred că doar creșterea dimensiunii modelelor de limbaj va aborda problemele bine documentate ale modelelor existente, precum limbajul sexist și rasist sau incapacitatea de a efectua cu succes o serie de teste de bază ale raționamentului logic”, a adăugat acesta.