Some AI Advances in the Last Decade May Have Been Illusory

gru 11, 2021
admin
Ta witryna może zarabiać prowizje partnerskie z linków na tej stronie. Warunki korzystania.

W ciągu ostatniej dekady sztuczna inteligencja i uczenie maszynowe wyłoniły się jako główne ośrodki badań, napędzane przez postępy w dziedzinie obliczeń na GPU, algorytmów programowych i specjalistycznych konstrukcji sprzętowych. Nowe dane sugerują, że przynajmniej niektóre z algorytmicznych ulepszeń ostatniej dekady mogły być mniejsze niż wcześniej sądzono.

Badacze pracujący nad walidacją długoterminowych ulepszeń w różnych algorytmach sztucznej inteligencji znaleźli wiele sytuacji, w których skromne aktualizacje starych rozwiązań pozwoliły im dopasować się do nowszych podejść, które rzekomo je zastąpiły. Zespół porównał 81 różnych algorytmów przycinania wydanych w ciągu dziesięciu lat i nie znalazł żadnych wyraźnych i jednoznacznych dowodów na poprawę w tym okresie czasu.

Według Davida Blalocka, absolwenta informatyki na MIT, który pracował nad projektem, po pięćdziesięciu pracach „stało się jasne, że nie było oczywiste, czym w ogóle jest stan techniki.” Doradca Blalock, dr John Guttag, wyraził zdziwienie na wieści i powiedział Science, „To jest stara piła, prawda? Jeśli nie możesz czegoś zmierzyć, trudno uczynić to lepszym.”

Problemy takie jak ten, nawiasem mówiąc, są dokładnie tym, dlaczego inicjatywa MLPerf jest tak ważna. Potrzebujemy obiektywnych testów, które naukowcy mogą wykorzystać do poprawnego porównania modeli i wydajności sprzętu.

Badacze odkryli, że w niektórych przypadkach starsze i prostsze algorytmy były w stanie dotrzymać kroku nowszym podejściom, gdy stare metody zostały zmodyfikowane w celu poprawy ich wydajności. W jednym przypadku, porównanie siedmiu opartych na sieciach neuronowych algorytmów rekomendacji mediów wykazało, że sześć z nich było gorszych od starszych, prostszych, nieneuronowych algorytmów. Porównanie algorytmów wyszukiwania obrazów w Cornell wykazało, że wydajność nie zmieniła się od 2006 roku, gdy stare metody zostały zaktualizowane:

Obraz z Science

Jest kilka rzeczy, które chcę tu podkreślić: Po pierwsze, istnieje wiele zysków AI, które nie były iluzoryczne, jak ulepszenia w upscalerach wideo AI, czy odnotowane postępy w kamerach i wizji komputerowej. Procesory graficzne są znacznie lepsze w obliczeniach AI niż były w 2009 roku, a wyspecjalizowane akceleratory i specyficzne dla AI instrukcje AVX-512 z 2020 roku również nie istniały w 2009 roku.

Ale nie mówimy o tym, czy sprzęt stał się większy lub lepszy w wykonywaniu algorytmów AI. Mówimy o samych algorytmach bazowych i o tym, jak bardzo złożoność jest użyteczna w modelu AI. Właściwie uczyłem się czegoś na ten temat bezpośrednio; mój kolega David Cardinal i ja pracowaliśmy nad pewnymi projektami związanymi z AI w połączeniu z pracą, którą wykonałem w ramach projektu DS9 Upscale. Fundamentalne ulepszenia algorytmów są trudne i wielu badaczy nie ma motywacji, by w pełni sprawdzić, czy nowa metoda jest rzeczywiście lepsza od starej – w końcu lepiej wygląda, gdy wymyślisz zupełnie nową metodę robienia czegoś, niż gdy tuningujesz coś, co stworzył ktoś inny.

Oczywiście, nie jest to tak proste, jak stwierdzenie, że nowsze modele nie wniosły nic użytecznego do dziedziny. Jeśli naukowiec odkryje optymalizacje, które poprawiają wydajność w nowym modelu i okaże się, że te optymalizacje działają również dla starego modelu, nie oznacza to, że nowy model był nieistotny. Budowanie nowego modelu jest sposobem, w jaki te optymalizacje zostały odkryte w pierwszej kolejności.

Powyższy obraz jest tym, co Gartner określa mianem cyklu hype’u. AI zdecydowanie podlega takiemu cyklowi, a biorąc pod uwagę, jak kluczowa jest ta technologia dla tego, co widzimy od firm takich jak Nvidia, Google, Facebook, Microsoft i Intel w tych dniach, będzie to temat dyskusji w przyszłości. W przypadku AI, widzieliśmy prawdziwe przełomy w różnych tematach, takich jak uczenie komputerów jak efektywnie grać w gry, a także całą masę badań nad samojeżdżącymi pojazdami. Główne zastosowania konsumenckie, na razie, pozostają dość niszowe.

Nie odczytywałbym tego dokumentu jako dowodu na to, że AI jest niczym innym jak tylko gorącym powietrzem, ale zdecydowanie wziąłbym twierdzenia o jej podboju wszechświata i zastąpieniu nas na szczycie łańcucha pokarmowego z ziarnem soli. Prawdziwy postęp w tej dziedzinie – przynajmniej jeśli chodzi o podstawowe zasady – może być trudniejszy do osiągnięcia, niż niektórzy mieli nadzieję.

Top image credit: Getty Images

Now Read:

  • Level Up: Sztuczna inteligencja GameGAN firmy Nvidia tworzy Pac-Mana bez silnika gry
  • Microsoft zbudował jeden z najpotężniejszych superkomputerów na świecie, by stworzyć sztuczną inteligencję podobną do ludzkiej
  • Nvidia prezentuje swój pierwszy procesor graficzny oparty na amperach, podnosząc poprzeczkę dla sztucznej inteligencji w centrach danych

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.