Recientemente, OpenAI ha lanzado una nueva familia de modelos de inteligencia artificial llamada ‘Strawberry’, destacando dos versiones: o1-preview y o1-mini. Estos modelos prometen mejorar las habilidades de razonamiento, pero han generado cierta controversia en la comunidad. ¿Por qué? Porque, a diferencia de versiones anteriores, OpenAI ha decidido ocultar la cadena de pensamiento interna de estos modelos, y eso ha provocado todo tipo de especulaciones y teorías.
-¿Qué tiene de especial el modelo o1?
La principal novedad de la familia ‘Strawberry’ es que el modelo o1 ha sido entrenado para abordar problemas de una manera más reflexiva, siguiendo un proceso paso a paso antes de generar una respuesta. Esto es una diferencia importante frente a los modelos anteriores, como GPT-4, que no contaban con un proceso tan explícito de razonamiento.
Ahora, ¿qué significa esto en la práctica? Imagina que le preguntas al modelo o1 cómo resolver un problema matemático. En lugar de dar una respuesta directa, el modelo primero desglosa su razonamiento en varios pasos: analiza los datos, identifica la operación matemática necesaria, y finalmente llega a una solución. Pero, aquí está la cuestión: esta cadena de pensamiento no se muestra al usuario tal cual; en su lugar, se presenta una interpretación filtrada que ha sido creada por un segundo modelo de inteligencia artificial.
-El misterio detrás de la ocultación de la cadena de pensamiento
Esto es lo que ha causado revuelo entre los entusiastas y profesionales de la IA. OpenAI ha tomado la decisión de no mostrar la cadena de pensamiento ‘cruda’ de su modelo o1. ¿Por qué? Según la empresa, hay varias razones, como la mejora de la experiencia del usuario, el mantenimiento de una ventaja competitiva, y la prevención de que otros modelos puedan entrenarse utilizando estas cadenas de razonamiento.
Pero, honestamente, yo creo que este movimiento tiene más que ver con el control y la privacidad de su tecnología. No es raro en la industria que empresas protejan su ‘receta secreta’. Y en este caso, la cadena de razonamiento del modelo o1 es vista como un activo valioso que podría ser explotado por otros desarrolladores o competidores.
Uno de los ejemplos más interesantes es el uso de o1-preview para tareas complejas que requieren múltiples pasos de pensamiento. Imagina que estás organizando un evento y necesitas planificar toda la logística, desde la selección del lugar hasta el menú y la gestión de invitados. Un modelo típico te daría recomendaciones generales, pero o1 podría desglosar cada tarea, considerando múltiples variables, y darte una estrategia paso a paso.
Otra posible aplicación es en la resolución de problemas técnicos. Por ejemplo, si eres un desarrollador de software enfrentando un bug difícil de rastrear, podrías usar o1 para analizar el problema, considerando cada línea de código y cómo interactúan entre sí, antes de sugerir posibles soluciones.
OpenAI ha enviado advertencias por correo electrónico y ha amenazado con prohibir el acceso a aquellos que intenten descubrir cómo funciona su nuevo modelo. Esto incluye el uso de técnicas como ‘jailbreaking’ o ‘inyección de prompts’ para intentar ver la cadena de razonamiento oculta.
Algunos usuarios han recibido estas advertencias simplemente por preguntar al modelo o1 sobre su proceso de razonamiento. En mi opinión, esta es una medida bastante extrema. OpenAI argumenta que necesita esta restricción para poder monitorear y mejorar su tecnología internamente, pero esto también podría verse como una forma de evitar que se expongan posibles fallos o vulnerabilidades en su sistema.
-La comunidad y su frustración
Esto nos lleva a un punto importante: la frustración de la comunidad de desarrolladores y entusiastas de la inteligencia artificial. Muchos creen que la falta de transparencia por parte de OpenAI representa un paso atrás. ¿Cómo podemos confiar en la inteligencia artificial si no sabemos cómo llega a sus conclusiones?
Una de las preocupaciones que OpenAI menciona es la ventaja competitiva. Saben que mostrar la cadena de razonamiento en bruto podría ser un tesoro para otros desarrolladores que buscan entrenar sus propios modelos de IA. Esto ya ha pasado antes en la industria: modelos como GPT-4 han sido utilizados como referencia para crear otras inteligencias artificiales, incluso en violación de los términos de servicio de OpenAI.
Yo creo que esto demuestra lo feroz que es la competencia en el campo de la inteligencia artificial. Cada empresa quiere mantener sus cartas ocultas, pero al mismo tiempo, la comunidad necesita cierta apertura para mejorar y desarrollar tecnologías más seguras y efectivas.
Entonces, ¿es justo que OpenAI oculte estos procesos? Algunos dirán que es su derecho proteger su propiedad intelectual. Otros, como yo, creemos que la transparencia es fundamental para el desarrollo ético de la inteligencia artificial. Si queremos confiar en estas tecnologías y usarlas para mejorar nuestras vidas, necesitamos entender cómo funcionan, al menos en un nivel básico.
¿Tú qué opinas? ¿Prefieres un modelo de IA que sea una ‘caja negra’ con promesas de eficiencia, o uno que sea más transparente, aunque con sus limitaciones?