Az elmúlt évtizedben elért mesterséges intelligencia-fejlesztések egy része illuzórikus lehetett

dec 11, 2021
admin
Ez az oldal partneri jutalékot kaphat az ezen az oldalon található linkekből. Felhasználási feltételek.

Az elmúlt évtizedben a mesterséges intelligencia és a gépi tanulás a kutatás fő melegágyává vált, a GPU-számítás, a szoftveralgoritmusok és a speciális hardvertervezés terén elért eredményeknek köszönhetően. Új adatok arra utalnak, hogy az elmúlt évtized algoritmikus fejlesztései közül legalább néhány kisebb mértékű lehetett, mint korábban gondolták.

A különböző AI-algoritmusok hosszú távú fejlesztéseinek validálásán dolgozó kutatók több olyan helyzetet is találtak, amikor a régi megoldások szerény frissítései lehetővé tették, hogy azok megfeleljenek az újabb megközelítéseknek, amelyek állítólag felülmúlták azokat. A kutatócsoport tíz év alatt kiadott 81 különböző metszési algoritmust hasonlított össze, és nem találtak egyértelmű és egyértelmű bizonyítékot arra, hogy ez idő alatt javulás történt volna.

A projektben dolgozó David Blalock, az MIT informatikai végzős hallgatója szerint ötven cikk után “világossá vált, hogy nem volt egyértelmű, hogy egyáltalán mi a technika állása”. Blalock tanácsadója, Dr. John Guttag meglepetésének adott hangot a hír hallatán, és a Science-nek elmondta: “Ez a régi fűrész, ugye? Ha valamit nem tudsz mérni, nehéz jobbá tenni.”

Az ehhez hasonló problémák egyébként pontosan ezért olyan fontosak az MLPerf kezdeményezés. Objektív tesztekre van szükségünk, amelyeket a tudósok a modellek és a hardverek teljesítményének érvényes kereszt-összehasonlítására használhatnak.”

A kutatók konkrétan azt találták, hogy bizonyos esetekben a régebbi és egyszerűbb algoritmusok képesek voltak lépést tartani az újabb megközelítésekkel, miután a régi módszereket a teljesítményük javítása érdekében átalakították. Az egyik esetben hét neurális háló alapú médiaajánló algoritmus összehasonlítása azt mutatta, hogy közülük hat rosszabb volt, mint a régebbi, egyszerűbb, nem neurális algoritmusok. A Cornell képkereső algoritmusok összehasonlítása azt találta, hogy a teljesítmény 2006 óta nem mozdult, miután a régi módszereket frissítették:

Image from Science

Az alábbiakban néhány dolgot szeretnék kiemelni: Először is, rengeteg olyan mesterséges intelligencia előrelépés van, ami nem volt illuzórikus, mint például a mesterséges intelligencia videó felskálázók fejlesztése, vagy a kamerák és a számítógépes látás terén elért jelentős előrelépések. A GPU-k sokkal jobbak az AI-számításokban, mint 2009-ben voltak, és a 2020-as speciális gyorsítók és az AI-specifikus AVX-512 utasítások 2009-ben még nem léteztek.

De nem arról beszélünk, hogy a hardver nagyobb vagy jobb lett-e az AI-algoritmusok végrehajtásában. Magukról a mögöttes algoritmusokról beszélünk, és arról, hogy mennyi komplexitás hasznos egy AI modellben. Valójában közvetlenül is tanultam valamit erről a témáról; David Cardinal kollégám és én néhány AI-val kapcsolatos projekten dolgozunk a DS9 Upscale Projecttel végzett munkámhoz kapcsolódóan. Az algoritmusok alapvető fejlesztése nehéz, és sok kutatót nem ösztönöznek arra, hogy teljes mértékben teszteljék, hogy egy új módszer valóban jobb-e, mint egy régi – elvégre jobban néz ki, ha feltalálsz egy teljesen új módszert valaminek a megcsinálására, mintha valami más által létrehozott módszert tuningolnál.

Persze ez nem olyan egyszerű, mint azt mondani, hogy az újabb modellek nem járultak hozzá semmi hasznosal a területhez. Ha egy kutató olyan optimalizációkat fedez fel, amelyek javítják a teljesítményt egy új modellnél, és ezek az optimalizációk egy régi modellnél is működnek, az nem jelenti azt, hogy az új modell irreleváns volt. Az új modell építése az, ahogyan ezeket az optimalizációkat egyáltalán felfedezték.

A fenti kép az, amit a Gartner hype-ciklusnak nevez. A mesterséges intelligencia egyértelműen egy ilyen ciklusnak van kitéve, és tekintve, hogy ez a technológia mennyire központi szerepet játszik abban, amit manapság olyan vállalatoktól látunk, mint az Nvidia, a Google, a Facebook, a Microsoft és az Intel, a jövőben is beszédtéma lesz. A mesterséges intelligencia esetében valódi áttöréseket láthattunk különböző témákban, mint például a számítógépek megtanítása arra, hogyan kell hatékonyan játszani, és egy csomó önvezető járművel kapcsolatos kutatás. A főáramú fogyasztói alkalmazások egyelőre meglehetősen hiánypótlóak maradnak.

Nem tekinteném ezt a tanulmányt bizonyítéknak arra, hogy a mesterséges intelligencia nem más, mint forró levegő, de határozottan fenntartásokkal kezelném azokat az állításokat, amelyek szerint meghódítja az univerzumot, és felvált minket a tápláléklánc csúcsán. A valódi előrelépések a területen – legalábbis az alapvető alapelvek tekintetében – talán nehezebbek lesznek, mint azt egyesek remélték.

Top image credit: Getty Images

Now Read:

  • Level Up: Az Nvidia GameGAN AI Pac-Man-t hoz létre alapjául szolgáló játékmotor nélkül
  • Microsoft a világ egyik legerősebb szuperszámítógépét építette az emberhez hasonló AI kifejlesztésére
  • Nvidia bemutatja első amper alapú GPU-ját, megemeli az adatközponti AI lécét

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.