¿Puede la IA como LaMDA ser consciente o consciente de sí misma y, de ser así, cómo podría saberlo? ¿Acaso importa?
¿Qué es LaMDA?
LaMDA, abreviatura de Language Model for Dialogue Applications, apareció por primera vez en 2021 en la conferencia de desarrolladores de Google. Se supone que el sistema avanzado de IA ayudará a construir otros chatbots más pequeños. Cuando Google lo presentó por primera vez, anunció planes para integrarlo en todo, ayudando a servicios como Google Assistant y Search a sentirse más humanos, o al menos naturales.Cuando el ingeniero de Google, Blake Lemoine, habló con LaMDA para ver si usaba discurso de odio, se quedó con una impresión diferente. Lemoine afirmó que LaMDA era sensible, y si no supiera que era un bot, pensaría que era un niño de ocho años.
¿LaMDA es realmente consciente?
Entonces, ¿LaMDA es realmente sensible? La mayoría de los expertos que han opinado sobre el tema se muestran escépticos. LaMDA es una plataforma de chat de IA muy avanzada que analiza billones de palabras de Internet, por lo que tiene la habilidad de sonar como una persona real.La sensibilidad es difícil de definir, aunque la mayoría de la gente duda de que la IA haya llegado a ese punto todavía. Sin embargo, la pregunta importante puede no ser si LaMDA es realmente consciente, sino qué diferencia hace si puede engañar a las personas para que piensen que lo es.
Posibles implicaciones legales de LaMDA
La situación de LaMDA plantea muchas cuestiones legales y éticas. Primero, algunas personas pueden cuestionar si Google tuvo razón al poner a Lemoine en licencia por hablar al respecto.De acuerdo con la Sección 740 de la Ley Laboral de Nueva York, las protecciones para denunciantes defienden a los empleados de tales consecuencias si creen que las prácticas de su empleador violan la ley o representan un riesgo significativo para la seguridad pública. La supuesta sensibilidad de LaMDA no cumple con ese requisito legal, pero ¿debería cumplirlo?
Otorgar derechos a la IA es un tema complicado. Si bien la IA puede crear cosas y parecer humano, puede haber algunas situaciones complicadas si estas máquinas tienen protecciones legales. Los derechos legales operan en torno a recompensas y castigos que no afectan a la IA, lo que complica la justicia.
Si un automóvil autónomo atropella a un peatón, ¿es culpable la IA si la ley lo trata como a un humano? Y si es así, estrictamente no le da justicia a la víctima ya que técnicamente no puedes castigar a la IA de la misma manera que lo harías con un humano.
Otra pregunta que surge con LaMDA y chatbots de IA similares es su seguridad. Si estos bots parecen convincentemente reales, es posible que las personas confíen más en ellos y estén dispuestos a brindarles información más confidencial. Eso abre la puerta a una gran cantidad de problemas de privacidad y seguridad si esta tecnología cae en las manos equivocadas.
La inteligencia artificial presenta preguntas éticas complicadas
Las IA como LaMDA se vuelven cada vez más sofisticadas y realistas. A medida que crece esta tendencia, las empresas y los legisladores deben reevaluar cómo tratan a la IA y cómo estas decisiones podrían afectar la justicia y la seguridad.Tal como está, la IA LaMDA de Google puede no ser consciente, pero es lo suficientemente buena como para engañar a las personas para que piensen que lo es, lo que debería generar algunas alarmas.