News Release

El sistema de IA AlphaCode de Deepmind compite en concursos de programación

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

AlphaCode, un nuevo sistema de Inteligencia Artificial (IA) para desarrollar código informático desarrollado por DeepMind, puede lograr un rendimiento medio similar al de los humanos en la resolución de concursos de programación, informan los investigadores. El desarrollo de una plataforma de codificación asistida por la IA, capaz de crear programas de codificación como respuesta a una descripción de alto nivel de un problema que el código debe resolver, podría tener un gran impacto en la productividad de los programadores. Incluso podría cambiar la cultura de la programación al cambiar el trabajo humano por formulaciones de problemas para que la IA los resuelva. Hasta la fecha, los humanos han tenido que codificar soluciones a los nuevos problemas de programación. Aunque algunos modelos de redes neuronales recientes han demostrado una impresionante capacidad para generar código, su rendimiento sigue siendo bajo en tareas de programación más complejas que requieren pensamiento crítico y capacidad para resolver problemas, como por ejemplo los retos de programación dentro de competiciones en las que suelen participar los programadores humanos. En esta ocasión, Yujia Li y sus colegas de DeepMind han presentado AlphaCode, un sistema de codificación asistido por IA que puede alcanzar un rendimiento similar al de los humanos para resolver problemas de la plataforma Codeforces, que organiza regularmente competiciones internacionales de codificación. Utilizando aprendizaje autosupervisado y una arquitectura de transformadores codificadores-decodificadores, AlphaCode resolvió problemas de lenguaje natural no vistos anteriormente prediciendo iterativamente segmentos de código basados en el segmento anterior y generando millones de soluciones candidatas potenciales. A continuación, dichas soluciones candidatas se filtraron y agruparon validando que superaran funcionalmente casos de prueba sencillos, lo que dio como resultado un máximo de 10 soluciones posibles, todas ellas generadas sin ningún conocimiento incorporado sobre la estructura del código informático. De acuerdo con Li et al., AlphaCode funcionó de manera similar al nivel de un contrincante humano medio al evalurse utilizando los problemas de Codeforces. Se alcanzó una clasificación media general en el 54,3% de los participantes humanos cuando se limitó a 10 soluciones presentadas por problema, aunque el 66% de los problemas resueltos se resolvieron desde el primer intento. "En última instancia, AlphaCode se comporta notablemente bien para retos de codificación nunca antes vistos, independientemente del grado en que AlphaCode entienda 'realmente' la tarea", escribe J. Zico Kolter en una Perspectiva que destaca los puntos fuertes y débiles de AlphaCode. 


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.