Nos gusta poner a prueba a los modelos de inteligencia artificial en exámenes que normalmente suelen ser complejos para los seres humanos. En España uno de esos exámenes es precisamente el MIR, que permite acceder a la formación de especialistas galenos en España. ¿Cómo se portan los modelos de IA con ese examen?
Un MIR
especialmente complicado.
El de 2025 dicen los expertos, ha sido un MIR especialmente difícil. Se critica a menudo que el examen suele preguntar aspectos de patologías raras que incluso especialistas con experiencia no manejan.
Poniendo a prueba a los modelos de IA. Julian Isla, contaba en LinkedIn cómo él y su equipo habían querido poner a prueba a varios modelos de IA punteros para ver cómo respondían a las inquietudes del examen. El examen consta de 210 inquietudes tipo test con cuatro posibles respuestas. Algunas de las inquietudes están asociadas a imágenes médicas, y están dedicadas a diversas especialidades médicas.
Versiones varias. De las versiones disponibles del examen han usado la Versión 0 junto a las imágenes incluidas en el cuadernillo de imágenes. Las respuestas de todas las versiones fueron publicadas el lunes en el Ministerio de Sanidad, y se han republicado en sitios web como el de iSanidad, del que se pueden consultar por ejemplo las de la Versión 0.
OpenAI o1 Pro, sobresaliente. El modelo de razonamiento o1 en su versión Pro, la más avanzada, consigue un espectacular 91,7% de respuestas correctas.