OpenAI ha dado un gran paso adelante en la investigación de la inteligencia
artificial al descubrir una manera de entender mejor cómo funcionan sus 'modelos de lenguaje' (el tipo de IA en el que se incluye, por ejemplo, GPT-4). Y es que esta tarea ha sido permanentemente muy complicada debido a la complejidad de estos sistemas, que hasta ahora han sido como una
caja negra
cuyo interior resultaba imposible de observar... incluso para los propios creadores de dichas IA.
Y es que, evaluar y reparar automóviles basándose en las especificaciones de sus componentes, las redes neuronales no se diseñan directamente: en su lugar, se diseñan los algoritmos que las entrenan, resultando en redes que no se comprenden completamente y que no pueden descomponerse fácilmente en partes identificables.
Esto, claro, complica la tarea de razonar sobre la seguridad de la IA del mismo modo en que se podría hacer con la seguridad de un automóvil.
Para entender mejor la IA, los científicos de
OpenAI están buscando "características" o patrones dentro del modelo que puedan interpretarse de manera más fácil. Es como tratar de identificar piezas específicas dentro de una máquina muy compleja.
El CEO de Google afirma que no entienden por qué su inteligencia
artificial aprende cosas inesperadas. Esto son las cajas negras a>
OpenAI ha desarrollado nuevas técnicas para localizar estas cualidades dentro de sus modelos de IA.