Algunos avances de la IA en la última década pueden haber sido ilusorios

Dic 11, 2021
admin
Este sitio puede ganar comisiones de afiliación por los enlaces de esta página. Condiciones de uso.

Durante la última década, la inteligencia artificial y el aprendizaje automático han surgido como grandes focos de investigación, impulsados por los avances en la computación de la GPU, los algoritmos de software y el diseño de hardware especializado. Nuevos datos sugieren que al menos algunas de las mejoras algorítmicas de la última década pueden haber sido menores de lo que se pensaba.

Los investigadores que trabajan para validar las mejoras a largo plazo en varios algoritmos de IA han encontrado múltiples situaciones en las que modestas actualizaciones de soluciones antiguas les permitieron igualar enfoques más nuevos que supuestamente los habían superado. El equipo comparó 81 algoritmos de poda diferentes lanzados a lo largo de un periodo de diez años y no encontró ninguna evidencia clara e inequívoca de mejora a lo largo de ese periodo de tiempo.

Según David Blalock, un estudiante de posgrado de ciencias de la computación en el MIT que trabajó en el proyecto, después de cincuenta artículos «quedó claro que ni siquiera era obvio cuál era el estado del arte.» El asesor de Blalock, el Dr. John Guttag, se mostró sorprendido por la noticia y declaró a Science: «Es la vieja sierra, ¿no? Si no puedes medir algo, es difícil mejorarlo»

Problemas como éste, por cierto, son exactamente la razón por la que la iniciativa MLPerf es tan importante. Necesitamos pruebas objetivas que los científicos puedan utilizar para una comparación cruzada válida de los modelos y el rendimiento del hardware.

Lo que los investigadores encontraron, en concreto, es que en ciertos casos, los algoritmos más antiguos y sencillos eran capaces de seguir el ritmo de los enfoques más nuevos una vez que los métodos antiguos se ajustaban para mejorar su rendimiento. En un caso, una comparación de siete algoritmos de recomendación de medios basados en redes neuronales demostró que seis de ellos eran peores que los algoritmos no neuronales más antiguos y sencillos. Una comparación de algoritmos de recuperación de imágenes realizada por Cornell reveló que el rendimiento no ha variado desde 2006 una vez que se han actualizado los métodos antiguos:

Imagen de Science

Hay algunas cosas que quiero destacar aquí: En primer lugar, hay muchos avances en IA que no han sido ilusorios, como las mejoras en los escaladores de vídeo de IA, o los notables avances en cámaras y visión por ordenador. Las GPU son mucho mejores para los cálculos de IA que en 2009, y los aceleradores especializados y las instrucciones AVX-512 específicas para la IA de 2020 tampoco existían en 2009.

Pero no estamos hablando de si el hardware se ha hecho más grande o mejor para ejecutar algoritmos de IA. Estamos hablando de los propios algoritmos subyacentes y de cuánta complejidad es útil en un modelo de IA. De hecho, he estado aprendiendo algo sobre este tema directamente; mi colega David Cardinal y yo hemos estado trabajando en algunos proyectos relacionados con la IA en relación con el trabajo que he realizado con el proyecto DS9 Upscale. Las mejoras fundamentales de los algoritmos son difíciles y muchos investigadores no están incentivados para probar a fondo si un nuevo método es realmente mejor que uno antiguo; al fin y al cabo, queda mejor si inventas un método totalmente nuevo para hacer algo que si ajustas algo que ha creado otra persona.

Por supuesto, tampoco es tan sencillo como decir que los modelos más nuevos no han aportado nada útil al campo. Si un investigador descubre optimizaciones que mejoran el rendimiento en un nuevo modelo y esas optimizaciones también funcionan en un modelo antiguo, eso no significa que el nuevo modelo sea irrelevante. La construcción del nuevo modelo es la forma en que se descubrieron esas optimizaciones en primer lugar.

La imagen anterior es lo que Gartner denomina ciclo de exageración. La IA ha sido definitivamente objeto de uno, y dado lo central que es la tecnología para lo que estamos viendo de empresas como Nvidia, Google, Facebook, Microsoft e Intel en estos días, va a ser un tema de discusión en el futuro. En el caso de la IA, hemos visto verdaderos avances en varios temas, como enseñar a los ordenadores a jugar con eficacia, y un montón de investigaciones sobre vehículos de autoconducción. Por ahora, las aplicaciones para el consumidor en general siguen siendo un nicho.

Yo no leería este documento como una prueba de que la IA no es más que aire caliente, pero definitivamente tomaría las afirmaciones de que conquistará el universo y nos reemplazará en la cima de la cadena alimenticia con un grano de sal. Los verdaderos avances en este campo -al menos en lo que respecta a los principios fundamentales subyacentes- pueden ser más difíciles de conseguir de lo que algunos esperan.

Crédito de la imagen superior: Getty Images

Ahora lea:

  • Subir de nivel: La IA GameGAN de Nvidia crea Pac-Man sin un motor de juego subyacente
  • Microsoft construyó uno de los superordenadores más potentes del mundo para desarrollar una IA similar a la humana
  • Nvidia presenta su primera GPU basada en amperios y eleva el listón de la IA en los centros de datos

Deja una respuesta

Tu dirección de correo electrónico no será publicada.