El despido por parte de Google del ingeniero senior de software Blake Lemoine, quien afirmó que el gigante de Mountain View había desarrollado un bot de inteligencia artificial «consciente», causó un gran revuelo.
Blake Lemoine, que trabajaba en la organización de IA responsable de Google , fue puesto en licencia administrativa el mes pasado después de afirmar que el chatbot de IA conocido como LaMDA afirma tener un alma y expresar pensamientos y emociones humanos, lo que Google ha refutado como «totalmente infundado».
Lemoine fue despedido oficialmente por violar las políticas de la empresa después de compartir sus conversaciones con el bot, al que describió como un «chico dulce» convertido en un bocado amargo enviado por Google.
-MDA no es sensible. Palabra de Google. Y el discurso está cerrado.
“Es lamentable que, a pesar del largo compromiso sobre este tema «. Así lo dice un portavoz de Google en un correo electrónico publicado por Reuters. Sin embargo, Blake Lemoine ha optado por violar persistentemente políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto.
El año pasado, Google se jactó de que LaMDA -Modelo de lenguaje para aplicaciones de diálogo- era una » tecnología de conversación revolucionaria » que podía aprender a hablar de cualquier cosa. Lemoine comenzó a hablar con el bot en el otoño de 2021 como parte de su trabajo, donde tenía la tarea de probar si AI estaba usando un discurso discriminatorio o de odio.
Lemoine, que estudió ciencias cognitivas y ciencias de la computación en la universidad, compartió un documento de Google con ejecutivos de la compañía en abril titulado » ¿LaMDA es consciente?» pero sus preocupaciones primero pasaron a un segundo plano, luego no fueron aceptadas.
Cada vez que Lemoine le preguntaba a LaMDA cómo sabía que tenía emociones y un alma, escribía que el chatbot proporcionaría algunas variaciones de » ¿Por qué soy una persona y así es como me siento?».
En Medium Post, el ingeniero de software afirmó que LaMDA se había puesto del lado de él, defendiendo sus derechos » como persona » y revelando que había entablado una conversación con LaMDA sobre religión, conciencia y robótica.
La Inteligencia Artificial no puede tener un sentimiento, no es sensible. Esta es la tesis predominante, razón por la cual Blake Lemoine primero fue amargamente cuestionada por la comunidad de expertos y luego rechazada por Google.
“LaMDA pasó 11 revisiones separadas y publicamos un artículo de investigación a principios de este año que detalla el trabajo que se dedica a su desarrollo responsable. Si un empleado comparte inquietudes sobre nuestro trabajo, como lo hizo Blake, las examinamos extensamente”.
Con esta declaración oficial, Google se despide de Lemoine: “Hemos encontrado que las afirmaciones de Blake de que LaMDA es sensible son completamente infundadas y hemos estado trabajando para aclararlo con él durante muchos meses. Estas discusiones fueron parte de la cultura abierta que nos ayuda a innovar responsablemente. Por lo tanto, es lamentable que, a pesar de su largo compromiso con este tema, Blake siga optando por violar persistentemente políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto. Continuaremos nuestro cuidadoso desarrollo de modelos de lenguaje y le deseamos a Blake lo mejor”.