OpenAI está tratando de arreglar cómo funciona la IA y hacerla más útil

OpenAI ha hecho algo que nadie hubiera esperado: ralentizó el proceso de darle una respuesta con la esperanza de que lo haga bien. Los nuevos modelos OpenAI o1-preview están diseñados para lo que OpenAI llama problemas difíciles tareas complejas en temas como ciencia, codificación y matemáticas. Estos nuevos modelos se lanzan a través de Servicio chatGPT junto con el acceso a través de la API de OpenAI y todavía están en desarrollo, pero esta es una idea prometedora.

Me encanta la idea de que una de las compañías que hizo que la IA fuera tan mala en realidad está haciendo algo para mejorarla. La gente piensa en la IA como una especie de misterio científico, pero en esencia, es lo mismo que cualquier otro software informático complejo. No hay magia; un programa de computadora acepta entradas y envía salidas en función de la forma en que se escribe el software.

Lo Es parece como magia para nosotros porque estamos acostumbrados a ver la salida de software de una manera diferente. Cuando actúa como un ser humano, parece extraño y futurista, y eso es realmente genial. Todos quieren ser Tony Stark y tener conversaciones con su computadora. Desafortunadamente, la prisa por lanzar el tipo genial de IA que parece conversacional ha resaltado lo malo que puede ser. Algunas compañías lo llaman una alucinación (no del tipo divertido, desafortunadamente), pero no importa qué etiqueta se coloque en él, las respuestas que obtenemos de la IA a menudo son hilarantemente incorrectas o incluso incorrectas de una manera más preocupante.

OpenAI dice que es Modelo GPT-4 solo pudo obtener el 13% de la Olimpiada Internacional de Matemáticas preguntas de examen correctas. Eso es probablemente mejor de lo que la mayoría de la gente anotaría, pero una computadora debería ser capaz de puntuar con mayor precisión cuando se trata de matemáticas. La nueva vista previa de OpenAI o1 pudo obtener el 83% de las preguntas correctas. Ese es un salto dramático y destaca la efectividad de los nuevos modelos.

Afortunadamente, OpenAI es fiel a su nombre y ha compartido cómo estos modelos «piensan.» En un artículo sobre las capacidades de razonamiento del nuevo modelo, puede desplazarse a la sección «Chain-of-Thought» para ver un vistazo al proceso. Encontré la sección de seguridad particularmente interesante ya que el modelo ha utilizado algunos rieles de seguridad para asegurarse de que no le está diciendo cómo hacer arsénico casero como lo hará el modelo GPT-4 (no intente hacer arsénico casero). Esto llevará a derrotar los trucos actuales utilizados para que los modelos de IA conversacionales rompan sus propias reglas una vez que estén completos.

En general, la industria necesitaba esto. Derrek Lee, de Android Central, señaló que es interesante que cuando queremos información al instante, OpenAI esté dispuesto a ralentizar un poco las cosas, permitiendo que AI «piense» en proporcionarnos mejores respuestas. Tiene toda la razón. Esto se siente como un caso de una empresa de tecnología haciendo lo correcto, incluso si los resultados no son óptimos.

No creo que esto tenga ningún efecto de la noche a la mañana, y no estoy convencido de que haya un objetivo puramente altruista en el trabajo. OpenAI quiere que su nuevo LLM sea mejor en las tareas que el modelo actual hace mal. Un efecto secundario es una IA conversacional más segura y mejor que lo hace bien con más frecuencia. Tomaré ese comercio, y esperaré que Google haga algo similar para demostrar que también lo entiende La IA necesita mejorar. La IA no desaparecerá hasta que alguien sueñe con algo más nuevo y más rentable. Las empresas también podrían trabajar para hacerlo lo mejor posible.