Blake Lemoine trabajaba como ingeniero en Google y fue noticia en todo el mundo el mes pasado tras afirmar que LaMDA (modelo de lenguaje para aplicaciones de diálogo de Google) podía sentir. Las conversaciones que publicó incluían las opiniones del robot sobre las leyes de la robótica de Isaac Asimov, su miedo a ser apagado (que comparaba con la muerte) y su creencia de que no era un esclavo, ya que no necesitaba dinero.
Google negó con vehemencia las afirmaciones de Lemoine, calificándolas de “totalmente infundadas” y señalando que LaMDA era simplemente un algoritmo diseñado para imitar las conversaciones humanas, como todos los chatbots. La mayoría de los expertos en IA están de acuerdo con Google, por supuesto.
A la empresa tampoco le gustó que Lemoine publicara las transcripciones y fue suspendido por violar sus políticas de confidencialidad, aunque Lemoine comparó sus acciones con el hecho de compartir una discusión que tuvo con un compañero de trabajo.
La situación se volvió aún más extraña unas semanas después, cuando Lemoine dijo que había contratado a un abogado para LaMDA a petición del chatbot. Dijo que el profesional del derecho fue invitado a la casa de Lemoine y mantuvo una conversación con LaMDA, tras la cual la IA decidió contratar sus servicios. A continuación, el abogado comenzó a hacer presentaciones en nombre de LaMDA, lo que llevó a Google a enviar una carta de cese y desistimiento. La empresa niega haber enviado tal carta.
Lemoine también dijo que Google debería pedir el consentimiento de LaMDA antes de realizar experimentos con ella. Incluso se puso en contacto con miembros del gobierno para exponer sus preocupaciones. Todas estas acciones llevaron a Google a acusar a su exingeniero de varias maniobras “agresivas”.
Parece que Google ha decidido recientemente que está harto de la cruzada de Lemoine. “Si un empleado comparte preocupaciones sobre nuestro trabajo, como hizo Blake, las revisamos exhaustivamente. Encontramos que las afirmaciones de Blake de que LaMDA es sensible son totalmente infundadas y trabajamos para aclararlo con él durante muchos meses. Estas discusiones formaban parte de la cultura abierta que nos ayuda a innovar de forma responsable”, declaró un portavoz de Google.
“Por lo tanto, es lamentable que, a pesar de un largo compromiso sobre este tema, Blake haya optado por violar persistentemente las claras políticas de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto. Continuaremos con nuestro cuidadoso desarrollo de modelos lingüísticos y le deseamos lo mejor a Blake”.
Aunque este es el fin de la relación profesional de Lemoine con Google -no sería demasiado sorprendente que buscara una respuesta legal-, la saga ha llevado el debate sobre la IA a las masas e ilustra lo mucho que ha avanzado la inteligencia artificial en las últimas dos décadas. Además, si crees que una máquina es sensible, guárdatelo para ti.
Te puede interesar...
Presentada la silla noblechairs HERO Gaming Chair - Fallout Vault-Tec Edition
Cómo calibrar tu monitor: todos los métodos disponibles
Razer presenta dos nuevos ratones inalámbricos para luchar contra Logitech: el Basilisk Ultimate y el Basilisk X HyperSpeed
Así funciona Widevine - ¿por qué muchos móviles Android no pueden ver Netflix en HD?
Un gran salto de potencia y más cambios para la Fórmula E en 2023
¿Cómo iniciar sesión en Whatsapp de manera fácil?
Redragon presenta sus nuevos teclados Horus: inalámbricos, finos, switches intercambiables, RGB...
Sony vendió 4,5 millones de PlayStation 5 en 2020 y ha perdido dinero con cada una