Unele progrese ale inteligenței artificiale din ultimul deceniu ar putea fi iluzorii
În ultimul deceniu, inteligența artificială și învățarea automată au apărut ca focare majore de cercetare, impulsionate de progresele în calculul GPU, algoritmi software și designul hardware specializat. Noi date sugerează că cel puțin unele dintre îmbunătățirile algoritmice din ultimul deceniu ar fi putut fi mai mici decât se credea anterior.
Cercetătorii care lucrează pentru a valida îmbunătățirile pe termen lung ale diferiților algoritmi de inteligență artificială au descoperit multiple situații în care actualizări modeste ale vechilor soluții le-au permis să egaleze abordările mai noi care se presupunea că le-au depășit. Echipa a comparat 81 de algoritmi diferiți de pruning lansați pe o perioadă de zece ani și nu a găsit nicio dovadă clară și neechivocă de îmbunătățire în această perioadă de timp.
Potrivit lui David Blalock, un student absolvent de informatică de la MIT care a lucrat la proiect, după cincizeci de lucrări „a devenit clar că nu era evident nici măcar care era stadiul actual al tehnologiei”. Consilierul lui Blalock, Dr. John Guttag, s-a arătat surprins de veste și a declarat pentru Science: „Este vechiul fierăstrău, nu-i așa? Dacă nu poți măsura ceva, este greu să faci ceva mai bun.”
Probleme ca aceasta, de altfel, sunt exact motivul pentru care inițiativa MLPerf este atât de importantă. Avem nevoie de teste obiective pe care oamenii de știință să le poată folosi pentru o comparație încrucișată validă a modelelor și a performanțelor hardware.
Ce au descoperit cercetătorii, în mod specific, este că, în anumite cazuri, algoritmi mai vechi și mai simpli au fost capabili să țină pasul cu abordările mai noi, odată ce vechile metode au fost modificate pentru a le îmbunătăți performanța. Într-un caz, o comparație a șapte algoritmi de recomandare a mediilor bazate pe rețele neuronale a demonstrat că șase dintre ei erau mai slabi decât algoritmii mai vechi, mai simpli, neuronali. O comparație Cornell a algoritmilor de regăsire a imaginilor a constatat că performanța nu s-a mișcat din 2006, odată ce vechile metode au fost actualizate:
Imagine din Science
Există câteva lucruri pe care vreau să le subliniez aici: În primul rând, există o mulțime de câștiguri ale AI care nu au fost iluzorii, cum ar fi îmbunătățirile aduse upscalerilor video AI, sau progresele remarcate în domeniul camerelor și al viziunii computerizate. GPU-urile sunt mult mai bune la calculele AI decât erau în 2009, iar acceleratoarele specializate și instrucțiunile AVX-512 specifice AI din 2020 nu existau nici în 2009.
Dar nu vorbim despre faptul că hardware-ul a devenit mai mare sau mai bun la executarea algoritmilor AI. Vorbim despre algoritmii de bază în sine și despre cât de multă complexitate este utilă într-un model de AI. De fapt, am învățat ceva despre acest subiect în mod direct; colegul meu David Cardinal și cu mine am lucrat la câteva proiecte legate de AI în legătură cu munca pe care am făcut-o cu Proiectul DS9 Upscale. Îmbunătățirile fundamentale ale algoritmilor sunt dificile și mulți cercetători nu sunt stimulați să testeze pe deplin dacă o nouă metodă este de fapt mai bună decât una veche – la urma urmei, arată mai bine dacă inventezi o metodă complet nouă de a face ceva, decât să pui la punct ceva ce a creat altcineva.
Desigur, nu este la fel de simplu ca și cum ai spune că modelele mai noi nu au contribuit cu nimic util în domeniu. Dacă un cercetător descoperă optimizări care îmbunătățesc performanța pe un model nou și se constată că acele optimizări funcționează și pentru un model vechi, asta nu înseamnă că noul model a fost irelevant. Construirea noului model este modul în care acele optimizări au fost descoperite în primul rând.
Imaginea de mai sus reprezintă ceea ce Gartner numește un ciclu de hype. Inteligența artificială a fost cu siguranță supusă unuia și, având în vedere cât de centrală este această tehnologie pentru ceea ce vedem în prezent la companii precum Nvidia, Google, Facebook, Microsoft și Intel, va fi un subiect de discuție mult timp în viitor. În cazul inteligenței artificiale, am asistat la progrese reale pe diverse subiecte, cum ar fi învățarea computerelor cum să joace jocuri în mod eficient și o mulțime de cercetări privind vehiculele care se conduc singure. Aplicațiile principale pentru consumatori, deocamdată, rămân destul de de nișate.
Nu aș citi această lucrare ca pe o dovadă că AI nu este altceva decât aer cald, dar cu siguranță aș lua cu un grăunte de sare afirmațiile despre faptul că va cuceri universul și ne va înlocui în vârful lanțului trofic. Adevăratele progrese în domeniu – cel puțin în ceea ce privește principiile fundamentale care stau la bază – ar putea fi mai greu de realizat decât au sperat unii.
Creditul imaginii de sus: Getty Images
Acum citiți:
- Level Up: Nvidia’s GameGAN AI de la Nvidia creează Pac-Man fără un motor de joc subiacent
- Microsoft a construit unul dintre cele mai puternice supercomputere din lume pentru a dezvolta o inteligență artificială asemănătoare cu cea umană
- Nvidia prezintă primul său GPU bazat pe amperi, ridicând ștacheta pentru inteligența artificială din centrele de date