Humanos superan a la inteligencia artificial en Olimpiada Internacional de Matemáticas 2025. | ||||||
Cinco jóvenes logran puntuación perfecta en la IMO 2025, superando a IA de Google y OpenAI que solo alcanzaron nivel oro. | ||||||
Miércoles 23 de Julio de 2025 | ||||||
Por: Excelsior | ||||||
![]() |
||||||
Aunque los modelos de Google DeepMind y OpenAI obtuvieron puntajes de nivel oro, cinco estudiantes humanos lograron la puntuación perfecta de 42 puntos, superando a sus rivales artificiales. Humanos vs. IA: el duelo matemático en cifras Un total de 641 estudiantes de 112 países compitieron este año en la IMO. El reto consistió en resolver seis complejos problemas matemáticos, cada uno calificado sobre un máximo de 7 puntos. Cinco concursantes humanos alcanzaron la puntuación perfecta de 42. Alrededor del 10 % de los participantes humanos obtuvieron medallas de oro. Google DeepMind, con su modelo Gemini, consiguió 35 puntos sobre 42, alcanzando el rango de oro. OpenAI, con un modelo experimental de razonamiento, también logró 35 puntos. ¿Cómo participaron los modelos de IA? Los organizadores de la IMO permitieron, por primera vez, la evaluación externa de modelos de IA en paralelo al concurso humano. Las reglas indicaban que los modelos resolvieran los mismos problemas, pero sin supervisión directa por parte del comité de la IMO. Google señaló que su modelo Gemini resolvió cinco de los seis problemas correctamente. La empresa destacó que los evaluadores encontraron las soluciones del modelo “claras, precisas y, en su mayoría, fáciles de seguir”, según declaraciones atribuidas a Gregor Dolinar, presidente de la IMO. OpenAI también informó que sus modelos fueron evaluados por tres exmedallistas de la IMO, quienes calificaron las respuestas sin conocer que habían sido generadas por una IA. Alexander Wei, investigador de OpenAI, aseguró que su evaluación se realizó “bajo las mismas reglas que los concursantes humanos”. Limitaciones y advertencias del comité organizador Aunque reconocieron la calidad de las respuestas generadas por las IA, los organizadores hicieron énfasis en que no pueden certificar el proceso completo de participación de los modelos. En un comunicado, Dolinar afirmó: “La IMO no puede validar los métodos, ni la cantidad de cómputo utilizado, ni si hubo participación humana, ni si los resultados pueden reproducirse.” A pesar de estas reservas, la organización sí reconoció como válidas todas las demostraciones matemáticas correctas, independientemente de su autoría, humana o artificial. Premio de IA y presentación de empresas La IMO 2025 también fue escenario para el Premio de la Olimpiada Matemática de IA, una iniciativa con un fondo de 10 millones de dólares destinada a impulsar el desarrollo de modelos de IA de código abierto para matemáticas avanzadas. El premio fue otorgado a NeMo-Skills, una propuesta de NvidiaAI. Según la descripción presentada por la empresa, NeMo-Skills permite la creación flexible de modelos a gran escala, facilitando la transición entre prototipos locales y experimentos masivos. Además, por primera vez en la historia de la IMO, empresas tecnológicas como Google, OpenAI y Nvidia fueron invitadas a un evento paralelo donde presentaron avances de sus sistemas a los estudiantes participantes. También realizaron pruebas privadas con modelos de código cerrado para evaluar su desempeño en los mismos problemas. ¿Qué significan estos resultados? Aunque los sistemas de IA lograron avances notables en la resolución de problemas matemáticos de alto nivel, el resultado reafirma que el razonamiento humano sigue siendo superior en este tipo de competencias. El hecho de que cinco jóvenes hayan alcanzado la perfección en sus puntajes, mientras que ningún modelo lo logró, refuerza la importancia del pensamiento creativo, la intuición y el rigor que caracterizan a los matemáticos más destacados del mundo. |
||||||
|
||||||
Nos interesa tu opinión |
||||||
![]() |
||||||
> Directorio > Quiénes somos |
® Gobernantes.com Derechos Reservados 2016 |