Některé pokroky v oblasti umělé inteligence v posledním desetiletí mohou být iluzorní
V posledním desetiletí se umělá inteligence a strojové učení staly hlavními ohnisky výzkumu díky pokrokům ve výpočetních procesorech GPU, softwarových algoritmech a specializované konstrukci hardwaru. Nové údaje naznačují, že přinejmenším některá zlepšení algoritmů v uplynulém desetiletí mohla být menší, než se dosud myslelo.
Výzkumníci, kteří se snaží ověřit dlouhodobá zlepšení různých algoritmů umělé inteligence, zjistili několik situací, kdy mírné aktualizace starých řešení umožnily vyrovnat se novějším přístupům, které je údajně překonaly. Tým porovnával 81 různých ořezávacích algoritmů vydaných v průběhu deseti let a nenašel žádný jasný a jednoznačný důkaz o zlepšení za tuto dobu.
Podle Davida Blalocka, postgraduálního studenta informatiky na MIT, který na projektu pracoval, se po padesáti článcích „ukázalo, že není zřejmé, jaký je vůbec stav techniky“. Blalockův poradce, Dr. John Guttag, vyjádřil nad touto zprávou překvapení a řekl časopisu Science: „Je to stará pila, že? Když něco nemůžete změřit, těžko to můžete zlepšit.“
Problémy jako tento jsou mimochodem přesně tím důvodem, proč je iniciativa MLPerf tak důležitá. Potřebujeme objektivní testy, které mohou vědci používat pro validní vzájemné porovnávání modelů a výkonnosti hardwaru.
Výzkumníci konkrétně zjistili, že v některých případech byly starší a jednodušší algoritmy schopny držet krok s novějšími přístupy, jakmile byly staré metody upraveny tak, aby se zlepšil jejich výkon. V jednom případě porovnání sedmi algoritmů pro doporučování médií založených na neuronových sítích ukázalo, že šest z nich bylo horších než starší, jednodušší, neuronové algoritmy. Cornellovo srovnání algoritmů pro vyhledávání obrázků zjistilo, že výkonnost se od roku 2006 nepohnula, jakmile byly staré metody aktualizovány:
Obrázek z časopisu Science
Je zde několik věcí, které chci zdůraznit: Zaprvé, existuje mnoho úspěchů v oblasti umělé inteligence, které nebyly iluzorní, jako například vylepšení upscalerů videa s umělou inteligencí nebo zaznamenané pokroky v oblasti kamer a počítačového vidění. Grafické procesory jsou ve výpočtech AI mnohem lepší než v roce 2009 a specializované akcelerátory a instrukce AVX-512 specifické pro AI v roce 2020 také v roce 2009 neexistovaly.
Ale my se nebavíme o tom, zda se hardware zvětšil nebo zlepšil ve vykonávání algoritmů AI. Mluvíme o samotných základních algoritmech a o tom, jak velká složitost je v modelu AI užitečná. O tomto tématu jsem se vlastně něco dozvěděl přímo já; s kolegou Davidem Cardinalem jsme pracovali na některých projektech souvisejících s AI v souvislosti s prací, kterou jsem dělal na projektu DS9 Upscale. Zásadní vylepšení algoritmů jsou obtížná a mnoho výzkumníků není motivováno k tomu, aby plně otestovali, zda je nová metoda skutečně lepší než stará – koneckonců vypadá lépe, když vymyslíte zcela novou metodu, jak něco udělat, než když vyladíte něco, co vytvořil někdo jiný.
Nejde ovšem ani tak jednoduše říci, že novější modely nepřinesly do oboru nic užitečného. Pokud výzkumník objeví optimalizace, které zlepší výkonnost nového modelu, a zjistí se, že tyto optimalizace fungují i pro starý model, neznamená to, že nový model byl irelevantní. Vytvoření nového modelu je způsob, jakým byly tyto optimalizace vůbec objeveny.
Výše uvedený obrázek je to, co společnost Gartner označuje jako hype cyklus. Umělá inteligence jím rozhodně prošla a vzhledem k tomu, jak zásadní je tato technologie pro to, co v současnosti vidíme u společností jako Nvidia, Google, Facebook, Microsoft a Intel, bude předmětem diskusí i v budoucnosti. V případě umělé inteligence jsme byli svědky skutečných průlomů v různých tématech, jako je výuka počítačů, jak efektivně hrát hry, a celá řada výzkumů v oblasti samořízených vozidel. Hlavní spotřebitelské aplikace zatím zůstávají spíše výklenkem.
Nečetl bych tento článek jako důkaz, že AI je jen horký vzduch, ale rozhodně bych bral tvrzení o tom, že dobude vesmír a nahradí nás na vrcholu potravního řetězce, s rezervou. Skutečný pokrok v této oblasti – alespoň pokud jde o základní principy, na nichž je založena – bude možná těžší, než někteří doufali.
Horní obrázek: Getty Images
Teď si přečtěte:
- Level Up: Nvidia GameGAN AI vytváří Pac-Mana bez základního herního enginu
- Microsoft postavil jeden z nejvýkonnějších superpočítačů na světě, aby vyvinul umělou inteligenci podobnou té lidské
- Nvidia představila svůj první grafický procesor na bázi Ampéru a zvyšuje laťku pro umělou inteligenci v datových centrech