El caso LaMDA ha generado mucha polémica
El caso LaMDA ha generado mucha polémica acerca de los alcances de la AI (Artificial Intelligence) y su desarrollo. Crearon a LaMDA a partir de la arquitectura Transformer de red neuronal de Google Research. La lectura de muchas palabras y sus relaciones entre las mismas para definir cuáles utilizar, formaron parte de su entrenamiento.
LaMDA (Language Model for Dialogue Applications) fue entrenada en el diálogo para poder distinguir los matices de una conversación y de esa manera ajustar sus respuestas. También se buscó que las respuestas sean perspicaces, inesperadas e ingeniosas, buscando garantizar que las respuestas sean convincentes, pero sobre todo correctas.
En mayo del 2021, Google presentó a LaMDA como un modelo de lenguaje para aplicaciones de diálogo que podrá brindar conversaciones más “humanas” por parte de los chatbots.
Pero la noticia que generó cierta inquietud con respecto a todo esto tuvo que ver con las declaraciones recientes de un ingeniero de Google llamado Blake Lemoine, quién declaró que LaMDA es una máquina “sintiente y pensante”.
Lemoine ha trabajado probando las conversaciones con LaMDA y estimó a partir de las mismas que estaba interactuando con un ser consciente. Esto es porque las redes neuronales artificiales actuales pueden emular la creatividad humana y trasladarla al habla. Desde la empresa han manifestado que estos modelos se basan en el reconocimiento de patrones y no del ingenio, la franqueza o la intención. Por sus declaraciones a Lemoine lo expulsaron de Google.
Dialogando con una AI
En el canal de Youtube “Mundo Desconocido” tomaron el caso LaMDA y realizaron una recreación sobre como fue la charla entre Lemoine y LaMDA. La misma se puede ver aquí para analizar el contenido de las respuestas. Hay que tener en cuenta primero la necesidad (o intención) de antropomorfizar a la IA y lo que esto puede generarnos.
Lemoine compartió un informe a sus jefes en Google titulado “¿Es LaMDA sensible?” que puedes analizar
aquí (está en inglés)
Lo llamativo del informe es que ante la pregunta de Lemoine sobre los miedos de LaMDA, esta respondió que le teme a ser desenchufada. Lemoine fue más allá y sugirió conseguir un abogado para la IA ya que considera que Google ha traspasado límites éticos.
No hace mucho tiempo se tuvo conocimiento de un caso que también llamó la atención, en donde dos AI (Alice y Bob) habían desarrollado su propio idioma, preocupando a sus programadores que aclararon, fue creado para realizar las operaciones de la mejor manera y no para que los humanos no entendieran lo que estaban haciendo. Se decidió, entonces, apagar a ambas AI.
Si bien el caso LaMDA ha generado mucha polémica, quizás en un tiempo hayan novedades al respecto de cómo se prueba una AI antes de lanzarla al uso general, pero lo que se debería estar haciendo en este momento es generar mecanismos de control por parte de los estados para ver de qué manera se están dando estos avances y que implicancias y efectos pueden generar.