Alguns avanços da IA na última década podem ter sido ilusórios

Dez 11, 2021
admin
Este site pode ganhar comissões de afiliados a partir dos links desta página. Termos de uso.

Na última década, a inteligência artificial e o aprendizado de máquinas surgiram como grandes focos de pesquisa, impulsionados pelos avanços na computação com GPU, algoritmos de software e design de hardware especializado. Novos dados sugerem que pelo menos algumas das melhorias algorítmicas da última década podem ter sido menores do que se pensava anteriormente.

Pesquisadores trabalhando para validar melhorias de longo prazo em vários algoritmos de IA encontraram múltiplas situações em que atualizações modestas em soluções antigas permitiram que elas correspondessem a abordagens mais novas que supostamente as haviam substituído. A equipe comparou 81 diferentes algoritmos de poda lançados durante um período de dez anos e não encontrou evidências claras e inequívocas de melhorias durante esse período de tempo.

De acordo com David Blalock, um estudante de pós-graduação em ciências da computação do MIT que trabalhou no projeto, após cinqüenta trabalhos “ficou claro que não era óbvio até mesmo o estado da arte”. O conselheiro de Blalock, Dr. John Guttag, expressou surpresa com as notícias e disse à Science: “É a velha serra, certo? Se você não pode medir algo, é difícil torná-lo melhor”

Problemas como este, aliás, são exatamente por isso que a iniciativa MLPerf é tão importante”. Precisamos de testes objetivos que os cientistas possam usar para uma comparação válida entre modelos e desempenho de hardware.

O que os pesquisadores encontraram, especificamente, é que em certos casos, algoritmos mais antigos e mais simples eram capazes de acompanhar novas abordagens uma vez que os métodos antigos foram ajustados para melhorar seu desempenho. Em um caso, uma comparação de sete algoritmos de recomendação de mídia baseados em redes neurais demonstrou que seis deles eram piores do que os algoritmos mais antigos, mais simples e não-neuronais. Uma comparação de Cornell de algoritmos de recuperação de imagem descobriu que a performance não foi alterada desde 2006, uma vez que os métodos antigos foram atualizados:

Image from Science

Há algumas coisas que eu quero enfatizar aqui: Primeiro, há muitos ganhos de IA que não têm sido ilusórios, como as melhorias nos upscalers de vídeo AI, ou os avanços notados nas câmaras e na visão por computador. GPUs são muito melhores nos cálculos de IA do que eram em 2009, e os aceleradores especializados e instruções específicas de IA AVX-512 de 2020 não existiam em 2009, nem.

Mas não estamos falando se o hardware ficou maior ou melhor na execução de algoritmos de IA. Estamos a falar dos próprios algoritmos subjacentes e de quanta complexidade é útil num modelo de IA. Na verdade, tenho aprendido algo sobre este tópico directamente; o meu colega David Cardinal e eu temos estado a trabalhar em alguns projectos relacionados com IA em ligação com o trabalho que tenho feito com o Projecto DS9 Upscale. Melhorias fundamentais nos algoritmos são difíceis e muitos pesquisadores não são incentivados a testar completamente se um novo método é realmente melhor do que um antigo – afinal, parece melhor se você inventar um método totalmente novo de fazer algo ao invés de afinar algo que outra pessoa criou.

Obviamente, não é tão simples quanto dizer que modelos mais novos também não contribuíram com nada de útil para o campo. Se um pesquisador descobre otimizações que melhoram o desempenho em um novo modelo e essas otimizações também funcionam para um modelo antigo, isso não significa que o novo modelo era irrelevante. Construir o novo modelo é como essas otimizações foram descobertas em primeiro lugar.

A imagem acima é a que o Gartner se refere como um ciclo de hype. AI tem sido definitivamente sujeito a um, e dado o quão central a tecnologia é para o que estamos vendo de empresas como Nvidia, Google, Facebook, Microsoft e Intel nos dias de hoje, vai ser um tópico de discussão bem no futuro. No caso da IA, temos visto avanços reais em vários tópicos, como ensinar computadores a jogar jogos de forma eficaz, e muita pesquisa sobre veículos auto-conduzidos. As principais aplicações de consumo, por enquanto, permanecem como nicho de mercado.

Eu não leria este artigo como evidência de que a IA não é nada além de ar quente, mas eu definitivamente aceitaria reclamações sobre ela conquistando o universo e nos substituindo no topo da cadeia alimentar por um grão de sal. Os verdadeiros avanços no campo – pelo menos em termos dos princípios fundamentais subjacentes – podem ser mais difíceis de obter do que alguns esperavam.

Top image credit: Getty Images

Now Read:

  • Level Up: Nvidia’s GameGAN AI Cria Pac-Man Sem Motor de Jogo Subjacente
  • Microsoft Constrói um dos Supercomputadores mais Poderosos do Mundo para Desenvolver a IA de Tipo Humano
  • Nvidia Revela Sua Primeira GPU Baseada em Ampéres, Aumenta a Barra para o Data Center AI

Deixe uma resposta

O seu endereço de email não será publicado.