Pablo Picasso dijo una vez: “Los ordenadores son inútiles. Sólo pueden dar respuestas “.
Una pequeña broma del artista español puede haber sido cierto en el siglo 20, cuando las computadoras eran en su mayor parte las máquinas de calcular y que desempeñaban funciones claramente establecidas, pero ha llegado la era de las nuevas tecnologías.
Los avances tecnológicos en inteligencia artificial, la biotecnología, la nanotecnología, la robótica y la neurociencia – por nombrar unos pocos – tienen a los políticos de izquierda, los hombres de negocios y los grandes consumidores, luchando para comprender plenamente sus implicaciones sociales, económicas y éticas.
Consideremos sólo tres cuestiones: en primer lugar, está la inteligencia artificial, como se cree, Elon Musk, “potencialmente más peligrosos que las armas nucleares”
La idea de que robots de rogue que destruyen a sus creadores ha sido un tema popular de la ciencia ficción durante décadas. Pero ahora algunos científicos serios, tales como Stephen Hawking y algunos emprendedores tecnológicos prominentes, incluyendo a Musk, que dirige Tesla Motors y SpaceX, están expresando sus preocupaciones acerca de esto.
¿Cómo podemos asegurar que la inteligencia artificial se utiliza para propósitos benéficos, en lugar de no éticos? La perspectiva de super-inteligencia es capaz de amenazar a la vida humana.
Al final del año pasado, dijo Musk, Peter Thiel y otros empresarios de Silicon Valley comprometieron $ 1bn para la financiación de una nueva empresa sin fines de lucro, llamada OpenAI, con el objetivo de que la inteligencia artificial debe seguir siendo “una extensión de las voluntades humanas individuales”.
“Es difícil de imaginar podría beneficiar a la sociedad la inteligencia artificial, y es igualmente difícil imaginar lo mucho que podría perjudicar a la sociedad si se construye o se usa incorrectamente.
Musk también ha donado $ 10 millones para el futuro de Life Institute, una organización con sede en Cambridge, Massachusetts, y está estudiando las dimensiones sociales y éticas de la inteligencia artificial.
Una segunda pregunta difícil es cómo construir “elasticidad ética” en los coches auto-conducción. Para mejor o peor, los conductores de automóviles humanos son infinitamente flexibles en la evaluación de la ética de diferentes situaciones – que rompen las reglas “Adelantamiento” para dar más espacio a los ciclistas, por ejemplo.
Pero, ¿cómo deben ser programados los coches de auto-conducción para reaccionar cuando se enfrentan a una crisis real? podrían proporcionar a los propietarios con configuraciones ajustables éticos?
En un discurso el año pasado, Dieter Zetsche, el presidente ejecutivo de la automotriz alemana Daimler, preguntó como un vehículo autónomo debe comportarse “si un accidente es realmente inevitable y que la única opción es una colisión con un coche pequeño o un gran camión, conduciendo a una zanja o en una pared, o el riesgo de chocar con una madre con un cochecito o con una persona de 80 años de edad? “
La Fundación Daimler y Benz ha gastado más de 1,5 M € desde el 2012 para el apoyo a un equipo de 20 científicos que examinan los efectos sociales de la conducción autónoma y algunos de los dilemas éticos que plantea el uso de las nuevas tecnologías.
Estas preguntas han sido previamente el reino de los filósofos morales, como el profesor Michael Sandel en Harvard, cuando se habla de “es un asesinato justificado” Pero ahora las salas de juntas – y los propietarios de automóviles – pueden encontrar cada vez que tienen que debatir los méritos de imperativos categóricos de Kant en comparación con el utilitarismo de Jeremy Bentham.
Los avances en la asistencia sanitaria también crean nuevos dilemas. En caso de fármacos potenciadores de la cognición del ser prohibidos para los usuarios ocasionales. En su libro “se mueven malos”, los neurólogos Barbara Sahakian y Jamie Nicole LaBuzetta destacan los desafíos éticos del uso de drogas inteligentes para mejorar el rendimiento académico.
¿Por qué, se preguntan, qué tomamos una visión tan fuerte contra los atletas que usan esteroides para hacer trampa en los Juegos Olímpicos, pero ignoran a los estudiantes que consumen drogas inteligentes para mejorar su rendimiento cuando están a punto de tomar los exámenes de ingreso a la universidad?
Los estudiantes de la Universidad de Duke en Carolina del Norte han presionado a las autoridades para modificar la política de honestidad académica de la institución a considerar “uso no autorizado de medicamentos con receta” como hacer trampa. Pero otras pocas universidades o empleadores, parecen haber considerado este dilema.
“Estos medicamentos tienen el potencial de cambiar la sociedad de manera dramática e inesperada,” dice Sahakian y LaBuzetta en su libro. “Ahora es el momento de tener una discusión y el debate de la ética de estas ‘drogas inteligentes’ y el papel que deben desempeñar en la sociedad del futuro informada”, concluyen.
Por encima de todas estas preguntas retorcidas existe una mucho más grande: ¿quién es responsable de asegurar que no se abuse de los últimos avances tecnológicos?
Los gobiernos nacionales y los parlamentos, preocupados por las preocupaciones mucho más urgentes como la austeridad fiscal o de los flujos de refugiados, rara vez tienen el ancho de banda política para considerar tales desafíos abstractos, y menos aún para ayudar a establecer estándares o normas internacionales.
Como en tantos otros ámbitos, parece inevitable que la regulación vaya detrás de la realidad. Además, ¿qué es dejar las naciones rebeldes ignoren las normas internacionales y poniendo las tecnologías cibernéticas para usos destructivos?
los departamentos universitarios y centros de investigación ya desempeñan un papel útil en la difusión de los conocimientos y estimulan el debate. Pero a menudo dependen de fondos del sector privado y es poco probable que lleguen a soluciones radicales que los restrinjan en gran medida.
Eso deja en gran medida que las empresas de tecnología se autorregulen. Algunos son, por mucho, las organizaciones mejor situadas para comprender los peligros potenciales de la tecnología y que se puede hacer para contrarrestarlos. Compañías como Google se están formando juntas éticas para ayudar a supervisar sus propias actividades en áreas tales como la inteligencia artificial.
Pero, como hemos visto en el período previo a la crisis financiera de 2008, las instituciones del sector privado a menudo pueden esconderse detrás de una interpretación estricta de la ley.
Algunos bancos también demostraron ser expertos en explotar el arbitraje legal y regulatorio internacional.
Empujar la ley hasta el límite claramente corroído las normas éticas y dio lugar a una serie de abusos en todo el sector financiero.
Por el verano pasado, las instituciones financieras habían pagado más de $ 235bn en multas por el incumplimiento de la normativa, según datos compilados por Reuters.
Como dice un ex banquero: “No todo lo que es legal es ético.”
Este es un tema al que las empresas de tecnología se tienen que enfrentar si esperan que su propia industria es no sufra un latigazo de regulación en el futuro.
La entrada Brave las nuevas tecnología necesitan una nueva ética aparece primero en ChambaLabs.