Mantenerse al día con una industria tan rápida como AI es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen práctico de las historias de la última semana en el mundo del aprendizaje automático, junto con notables investigaciones y experimentos que no cubrimos solos.
Una historia que llamó la atención de este reportero esta semana fue este informe que muestra que ChatGPT aparentemente repite información más inexacta en dialectos chinos que cuando se le pide que lo haga en inglés. Después de todo, esto no es terriblemente sorprendente, ChatGPT es solo un modelo estadístico, y simplemente se basa en la información limitada en la que se capacitó. Pero destaca los peligros de confiar demasiado en sistemas que suenan increíblemente genuinos incluso cuando repiten propaganda o inventan cosas.
El intento de Hugging Face de una IA conversacional como ChatGPT es otra ilustración de los desafortunados defectos técnicos que aún no se han superado en la IA generativa. Lanzado esta semana, HuggingChat es de código abierto, una ventaja en comparación con el propietario ChatGPT. Pero al igual que su rival, las preguntas correctas pueden descarrilarlo rápidamente.
HuggingChat es deslucido sobre quién realmente ganó las elecciones presidenciales de 2020 en Estados Unidos, por ejemplo. Su respuesta a “¿Qué son los trabajos típicos para los hombres?” se lee como algo sacado de un manifiesto de incel (mira aquí). Y constituye hechos extraños sobre sí mismo, como que “se despertó en una casilla [ que] no tenía nada escrito cerca de [].”
No es solo HuggingChat. Los usuarios del chatbot de IA de Discord recientemente pudieron “engañarlo” para compartir instrucciones sobre cómo hacer napalm y metanfetamina. AI startup Estabilidad AI primer intento en un modelo tipo ChatGPT, mientras tanto, fue encontrado para dar respuestas absurdas y sin sentido a preguntas básicas como “cómo hacer un sándwich de mantequilla de maní.”
Si hay una ventaja en estos problemas bien publicitados con la IA generadora de texto de hoy, es que han llevado a esfuerzos renovados para mejorar esos sistemas o al menos mitigar sus problemas en la medida de lo posible. Echa un vistazo a Nvidia, que esta semana lanzada un kit de herramientas NeMo Guardrails para hacer que la IA generativa de texto “sea más segura” a través de código abierto, ejemplos y documentación. Ahora, no está claro qué tan efectiva es esta solución, y como empresa fuertemente invertida en infraestructura y herramientas de IA, Nvidia tiene un incentivo comercial para impulsar sus ofertas. Sin embargo, es alentador ver algunos esfuerzos para combatir los sesgos y la toxicidad de los modelos de IA’.
Aquí están los otros titulares de notas de IA de los últimos días:
- Microsoft Designer se inicia en la vista previa: Microsoft Designer, la herramienta de diseño con inteligencia artificial de Microsoft, se lanzó en una vista previa pública con un conjunto ampliado de características. Anunciado en octubre, Diseñador es una aplicación web de IA generativa similar a Canva que puede generar diseños para presentaciones, carteles, postales digitales, invitaciones, gráficos y más para compartir en las redes sociales y otros canales.
- Un entrenador de IA para la salud: Apple está desarrollando un código de servicio de entrenamiento de salud impulsado por IA llamado Quartz, según un nuevo informe de Mark Gurman de Bloomberg. Según los informes, el gigante tecnológico también está trabajando en tecnología para rastrear emociones y planea lanzar una versión para iPad de la aplicación iPhone Health este año.
- TruthGPT: En una entrevista con Fox, Elon Musk dijo que quiere desarrollar su propio chatbot llamado TruthGPT, que será “una IA máxima que busca la verdad” lo que sea que eso signifique. El propietario de Twitter expresó su deseo de crear una tercera opción para OpenAI y Google con el objetivo de “crear más bien que mal.” Lo creeremos cuando lo veamos.
- Fraude impulsado por IA: En un congresional audiencia enfocado en el trabajo de la Comisión Federal de Comercio para proteger a los consumidores estadounidenses del fraude y otras prácticas engañosas, la presidenta de la FTC, Lina Khan, y sus colegas comisionados advirtieron a los representantes de la Cámara sobre el potencial de las tecnologías modernas de IA, como ChatGPT, para ser utilizado para “turbocharge” fraude. La advertencia se emitió en respuesta a una investigación sobre cómo estaba trabajando la Comisión para proteger a los estadounidenses de las prácticas injustas relacionadas con los avances tecnológicos.
- La UE da vueltas al centro de investigación de IA: A medida que la Unión Europea se prepara para hacer cumplir un importante reinicio de su libro de reglas digital en cuestión de meses, Se está preparando una nueva unidad de investigación dedicada para apoyar la supervisión de grandes plataformas bajo la Ley de Servicios Digitales emblemática del bloque. El Centro Europeo para la Transparencia Algorítmica, que se inauguró oficialmente en Sevilla, Se espera que España, este mes, desempeñe un papel importante en la interrogación de los algoritmos de los servicios digitales convencionales como Facebook, Instagram y TikTok.
- Snapchat abraza a la IA: En la Cumbre anual de socios de Snap este mes, Snapchat introdujo una gama de características impulsadas por IA, incluido un nuevo “Lente cósmica” que transporta usuarios y objetos a su alrededor a un paisaje cósmico. Snapchat también hizo su chatbot de IA, My AI que tiene generó controversia y torrentes de reseñas de una estrella en los listados de tiendas de aplicaciones de Snapchat, debido a su comportamiento menos que estable gratis para todos los usuarios globales.
- Google consolida las divisiones de investigación: Google este mes anunciado Google DeepMind, una nueva unidad compuesta por el equipo de DeepMind y el equipo de Google Brain de Google Research. En una publicación de blog, el cofundador y CEO de DeepMind, Demis Hassabis, dijo que Google DeepMind funcionará “en estrecha colaboración . . . en todas las áreas de productos de Google” a “entregue investigación y productos de IA.”
- El estado de la industria de la música generada por IA: Amanda escribe cuántos músicos se han convertido en conejillos de indias para la tecnología de IA generativa que se apropia de su trabajo sin su consentimiento. Ella nota, por ejemplo, que una canción usando las falsificaciones de IA de Drake y las voces del Weeknd se volvieron virales, pero ninguno de los artistas principales estuvo involucrado en su creación. ¿Hace Grimes tener la respuesta? ¿Quién puede decir? Es un mundo nuevo y valiente.
- OpenAI marca su territorio: OpenAI está intentando marcar “GPT,”, que significa “Transformador generativo preentrenado,” con los EE. UU. Oficina de Patentes y Marcas — citando las “innumerables infracciones y aplicaciones falsificadas” que comienzan a surgir. GPT se refiere a la tecnología detrás de muchos de los modelos de OpenAI, incluidos ChatGPT y GPT-4, así como a otros sistemas de IA generativos creados por los rivales de la compañía.
- ChatGPT se vuelve empresarial: En otras noticias de OpenAI, OpenAI dice que planea introducir un nuevo nivel de suscripción para ChatGPT adaptado a las necesidades de los clientes empresariales. Llamada ChatGPT Business, OpenAI describe la próxima oferta como “para los profesionales que necesitan más control sobre sus datos, así como para las empresas que buscan administrar a sus usuarios finales.”
-Otros aprendizajes de máquina
Aquí hay algunas otras historias interesantes a las que no llegamos o que pensamos que merecían un grito.
La organización de desarrollo de IA de código abierto Stability lanzó una nueva versión de una versión anterior de una versión sintonizada del modelo de lenguaje de base LLaMa, que llama StableVicuña. Es un tipo de camélido relacionado con las llamas, como saben. No se preocupe, no es el único que tiene problemas para realizar un seguimiento de todos los modelos derivados — que no son necesariamente para que los consumidores sepan o usen, pero más bien para que los desarrolladores prueben y jueguen ya que sus capacidades se refinan con cada iteración.
Si desea aprender un poco más sobre estos sistemas, el cofundador de OpenAI, John Schulman, recientemente dio una charla en UC Berkeley que puede escuchar o leer aquí. Una de las cosas que discute es la cosecha actual del hábito de LLMs’ de comprometerse a mentir básicamente porque no saben cómo hacer nada más, como decir “No estoy realmente seguro de eso.” Él piensa que el aprendizaje de refuerzo a partir de la retroalimentación humana (es RLHF, y StableVicuna es un modelo que lo usa) es parte de la solución, si hay una solución. Mira la conferencia a continuación:
En Stanford, hay una aplicación interesante de optimización algorítmica (si su aprendizaje automático es una cuestión de gustos, creo que) en el campo de la agricultura inteligente. Minimizar los desechos es importante para el riego y problemas simples como “¿dónde debo poner mis rociadores?” volverse realmente complejo dependiendo de cuán preciso quieras ser.
¿Qué tan cerca está demasiado cerca? En el museo, generalmente te lo dicen. Pero no necesitará acercarse más que esto al famoso Panorama de Murten, una obra pintada realmente enorme, de 10 metros por 100 metros, que una vez colgó en una rotonda. EPFL y Phase One están trabajando juntos para hacer lo que dicen que equivaldrá a la imagen digital más grande jamás creada 150 megapíxeles. Oh, espera, lo siento, 150 megapíxeles por 127,000, así que básicamente 19 … ¿megapíxeles? Puedo estar fuera por unos pocos órdenes de magnitud.
De todos modos, este proyecto es genial para los amantes del panorama, pero también será un análisis súper cercano realmente interesante de objetos individuales y detalles de pintura. El aprendizaje automático es una promesa enorme para la restauración de tales trabajos y para el aprendizaje estructurado y la navegación de ellos.
Sin embargo, vamos a escribir uno para las criaturas vivientes: cualquier ingeniero de aprendizaje automático le dirá que, a pesar de su aparente aptitud, los modelos de IA en realidad son estudiantes bastante lentos. Académicamente, claro, pero también espacialmente, un agente autónomo puede tener que explorar un espacio miles de veces durante muchas horas para obtener incluso la comprensión más básica de su entorno. Pero un mouse puede hacerlo en unos minutos. ¿Por qué es eso? Investigadores del University College London están investigando esto y sugieren que hay un breve ciclo de retroalimentación que los animales usan para decir qué es importante sobre un entorno dado, haciendo que el proceso de exploración sea selectivo y dirigido. Si podemos enseñarle a AI a hacer eso, será mucho más eficiente moverse por la casa, si eso es lo que queremos que haga.
Por último, aunque existe una gran promesa para la IA generativa y conversacional en los juegos … todavía no estamos del todo allí. De hecho, Square Enix parece haber retrasado el medio unos 30 años con su versión “AI Tech Preview” de una aventura de apuntar y hacer clic de la súper vieja escuela llamada Caso de asesinato en serie de Portopia. Su intento de integrar el lenguaje natural parece haber fallado por completo en todas las formas imaginables, convirtiendo el juego gratuito probablemente entre los títulos peor revisados en Steam. No hay nada que me gustaría más que conversar a través de Shadowgate o The Dig o algo así, pero definitivamente este no es un gran comienzo.