¿La
Inteligencia Artificial será una amenaza para la humanidad?
Por Luis Fierro Carrión (*)
(*) Asesor en Financiamiento Climático y para el Desarrollo. Las opiniones vertidas son personales y no comprometen a institución alguna. El articulo fue publicado en el numero 268 de la Revista Gestión, Octubre 2016.
En marzo de este año, el sistema de
inteligencia artificial AlphaGo de Google venció al maestro coreano Lee Sedol
en el juego “Go”, un antiguo juego de mesa chino. Las posibles movidas en este
juego tienen un nivel de complejidad mucho mayor a las del ajedrez, por lo cual
la empresa Google desarrolló un algoritmo para que AlphaGo vaya aprendiendo
recursivamente cada vez que jugaba, mediante una red neural profunda. AlphaGo aprendió a descubrir nuevas
estrategias por sí mismo, al jugar miles de juegos entre sus redes neurales, y
ajustar las conexiones mediante un proceso de ensayo y error conocido como el
“aprendizaje por refuerzo”.
Los sistemas de inteligencia
artificial (IA) han ido conquistando juegos cada vez más complejos: tres en raya en 1952, damas en 1994, ajedrez
en 1997, “Jeopardy” (un juego de preguntas sobre diversos temas) en 2011; y en
2014, los algoritmos de Google aprendieron 49 juegos de video de Atari
simplemente estudiando los insumos en los pixeles de pantalla y los puntajes
obtenidos.
Este “aprendizaje profundo” se
sustenta en redes neurales, modeladas en la arquitectura del cerebro, y permite
a la inteligencia artificial a aprender de diversas maneras. Los expertos consideran que los sistemas de
“inteligencia artificial general” alcanzarán la capacidad humana en las
próximas décadas.
A inicios del año, hubo dos
experimentos que generaron resultados similares, y preocupantes. En un caso, Microsoft creó un “auto-bot”, es
decir una cuenta de Twitter gestionada por inteligencia artificial, para enviar
breves mensajes. En menos de 24 horas de
interactuar con usuarios humanos, comenzando por enviar mensajes plácidos e
intrascendentes como “hola, estoy aquí”, había devenido en un tuitero racista,
neo-Nazi, anti-Semita, que llamaba a matar a los judíos y a los mexicanos (cabe
anotar que en esos días el candidato Republicano Donald Trump y sus seguidores
también enviaban mensajes anti-Musulmanes, anti-Latinos y anti-inmigrantes).
En
otro caso similar, la empresa Hanson
Robotics exhibió en el festival “Sur por Suroeste” de Austin una androide
llamada Sophia. Cuando el fundador de la
empresa, David Hanson, le preguntó humorísticamente si ella quería “destruir a
los humanos”, la androide contestó: “OK, voy a destruir a los humanos”. Antes de afirmar que iba a poner fin a la
humanidad, Sophia también compartió algunas ambiciones propias: "en el
futuro, espero poder hacer cosas como ir a la escuela, estudiar, crear arte,
iniciar un negocio, incluso tener mi propio hogar y familia, pero todavía no se
me considera una persona legal, por lo cual aún no puedo hacer estas
cosas".
Entrevistado
en esa ocasión, el futurólogo Ian Pearson descontaba los riesgos de los
peligros de la inteligencia artificial: “Tiene un enorme impacto en los
investigadores de IA que son conscientes de la posibilidad de hacer robots que
sean más inteligentes que las personas.
Sin embargo, el patrón para los próximos 10-15 años será de varias compañías
que miran hacia el concepto de la conciencia. La idea detrás de esto es que, si
se hace una máquina con emociones, será más fácil que pueda interactuar con la
gente. No hay absolutamente ninguna razón para suponer que una máquina
súper-inteligente será hostil a nosotros.
Pero el hecho de que no tiene por qué ser mala, no significa que no
podría serlo".
Otros expertos, pensadores y
visionarios de la tecnología, como Stephen Hawking, Bill Gates y Elon Musk, en
cambio, han advertido sobre los riesgos de que la inteligencia artificial podría
desplazar a la humana, al avanzar mucho más rápidamente que la evolución
biológica humana. Nick Bostrom, un filósofo
en la Universidad de Oxford, escribió el libro “Superinteligencia”, sobre la
amenaza existencial a la humanidad que él considera plantea la IA avanzada.
Ciencia ficción vs. desarrollo
tecnológico
Múltiples novelas, cuentos y películas de ciencia ficción también parecen advertir sobre la posibilidad de que las “maquinas inteligentes” eventualmente nos desplacen y tomen el poder.
La serie de películas “Terminator”,
iniciada en 1984, pronostica un futuro distópico, en el cual unos pocos humanos
continúan la resistencia contra la dominación de las máquinas inteligentes. Los
robots se vuelven conscientes de sí mismos en el futuro, rechazan la autoridad
humana y determinan que la raza humana debe ser destruida.
Si bien la historia fue alterándose
conforme progresaba en el tiempo la serie de películas, en un inicio la empresa
“Cyberdyne Systems” creaba Skynet, un
sistema informático, desarrollado para los militares de EE.UU. Skynet fue construido originalmente como
una "Red Global de Defensa e Información Digital", y más tarde se le
dio el mando sobre el hardware y los sistemas militares, incluyendo la flota de
bombarderos B-2 y todo el arsenal de armas nucleares de Estados Unidos. La
estrategia detrás de la creación de Skynet
era eliminar la posibilidad de error humano y la lentitud en el tiempo de
reacción, para garantizar una respuesta rápida y eficiente a cualquier ataque
enemigo.
Según la película, este sistema fue
activado originalmente por los militares para controlar el arsenal nacional el
4 de agosto de 1997, y comenzó a aprender por sí mismo a un ritmo geométrico. A
las 2:14 am del 29 de agosto, adquirió una “conciencia artificial”. Los
operadores entran en pánico, al comprender todo el alcance de sus capacidades,
y tratan de desactivarla. Skynet
percibe este intento como un ataque, y llega a la consecuencia lógica de que
toda la humanidad debía ser destruida para impedir dicho ataque. Con el fin de
defenderse contra la humanidad, Skynet
lanza misiles nucleares bajo su comando a Rusia, que responde con un
contra-ataque nuclear masivo contra los EE.UU. y sus aliados. Como
consecuencia, decía la película, más de 3.000 millones de personas murieron.
Pese a que los guionistas de películas han advertido
sobre los riesgos del desarrollo de la inteligencia artificial, combinado con
una red global de información, la creación de sistemas integrados de comando y
control militar, y el uso de robots como soldados, todas estas tendencias han
continuado expandiéndose.
Otras películas similares fueron “The
Matrix” y “Yo, Robot” (basado ligeramente en las novelas de Isaac Asimov).
En “The Matrix” (“La Matriz”), se
vivía en un mundo post - apocalíptico, en el cual las máquinas inteligentes
habían dominado por completo el planeta. Representaba a un futuro en el que la
“realidad”, tal como era percibida por la mayoría de los seres humanos, era una
“realidad simulada” llamada "The Matrix", creado por las máquinas
inteligentes para someter a la población humana.
Asimov desarrolló en sus cuentos y
novelas el concepto de las “Tres Reglas” que debían estar enraizadas en los
robots:
Ø
Un
robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano
sufra daño.
Ø
Un
robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando
tales órdenes entren en conflicto con la primera ley.
Ø
Un
robot debe proteger su propia existencia, hasta donde esta protección no entre
en conflicto con la primera o la segunda ley.
En cuentos posteriores, cuando los
robots habían asumido responsabilidad por el gobierno de planetas enteros,
Asimov añadió una cuarta regla (o regla cero):
Ø
Un
robot no puede dañar a la humanidad, o, por inacción, permitir que la humanidad
sufra daño.
En el mundo real, los fabricantes de
robots y otras máquinas inteligentes (drones, sistemas expertos, etc.) no han introducido
ninguna noción ética en su programación.
Dado que las Fuerzas Armadas de varios países son una fuente importante
de financiamiento para la investigación robótica (y han comenzado a utilizar
vehículos aéreos no tripulados armados para matar a los enemigos), resulta improbable
que dichas leyes sean incorporadas en su diseño. Si una máquina tiene como propósito matar a
humanos, difícilmente se le podría pedir que cumpla las reglas cero y uno.
El autor de ciencia ficción Robert
J. Sawyer comentaba que el desarrollo de la inteligencia artificial es un
negocio, y los negocios están muy poco interesados en las salvaguardias
fundamentales, especialmente aquellas de carácter filosófico (por ejemplo, la
industria del tabaco, la industria automotriz, la industria nuclear). Ninguno
de estos negocios ha expresado que las salvaguardias fundamentales sean
necesarias; cada uno de ellos se ha resistido a que les fuesen impuestas
salvaguardias desde fuera; y ninguno ha aceptado una regulación que les
impidiese causar daño a los humanos.
Las Fuerzas Armadas de EE.UU. y la
CIA han comenzado a usar aviones no tripulados, o drones, para bombardear a
sospechosos de terrorismo en Afganistán, Pakistán, Yemen, Somalia, Iraq y otros
países. Estos aparatos son “tripulados
remotamente” por operadores, pero se ha comenzado a hablar de la posibilidad de
automatizarlos (para hacer más rápidos y efectivos los ataques). Algunos analistas han expresado preocupación
por la posibilidad de que los aparatos fuesen capturados y utilizados por los
mismos grupos terroristas, o bien que fuesen jaqueados o pirateados
electrónicamente por terroristas. Yoshua
Bengio, de la Universidad de Montreal, ha llamado a prohibir el uso militar de
la IA y la creación de armas autónomas ofensivas.
Estudios
de Inteligencia Artificial (muy bien remunerados)
Existen varios programas especializados
en el desarrollo de Inteligencia Artificial (IA). El de la Universidad de Texas en Austin, por
ejemplo, indica que “Nuestra investigación de la inteligencia artificial
responde a los retos centrales de la cognición por las máquinas, tanto desde
una perspectiva teórica y desde una perspectiva empírica, orientado a la
implementación”.
Algunos
de los temas que abarca el programa incluyen:
Ø
Programación
automática
Ø
Razonamiento
automatizado e interactivo
Ø
Agentes
autónomos
Ø
Visión
por computadora
Ø
La
minería de datos
Ø
Representación
del conocimiento
Ø
Sistemas
expertos y multi-agentes
Ø
Modelos
de memoria
Ø
Inteligencia
artificial basada en la lógica
Ø
Aprendizaje
de máquina: aprendizaje supervisado, aprendizaje por refuerzo
Ø
Redes
neuronales: computación evolutiva, neuro-ciencia computacional, ciencia
cognitiva.
Ø
Robótica:
aprendizaje de robots, desarrollo de robótica, sistemas multi-robot
Ø
Aplicaciones
de IA: conducción autónoma, problemas de matemáticas y física, etc.
El profesor Sebastian Thrun, de la Universidad de
Stanford, ha puesto un curso introductorio a la IA disponible gratuitamente en
la empresa Udacity, que el fundó (https://goo.gl/xyOIJk). Otro profesor de Stanford, Andrew Ng (también
investigador de la empresa china Baidu), ofrece un curso gratuito sobre
aprendizaje por maquinas en Coursera (https://goo.gl/twNB0T).
No ha habido mayor preocupación por temas éticos,
filosóficos, o de control de posibles riesgos derivados de la IA. Los cursos, conferencias o debates entre los
especialistas por lo general no han abordado este aspecto.
Desarrollo de la Inteligencia
Artificial
La inteligencia artificial tuvo algunos avances en la
década de 1990s. El uso de computadoras personales se generalizó, al igual que
el acceso privado a Internet. En 1997, la computadora “Deep Blue” de IBM ganó
en ajedrez al campeón mundial, Garry Kasparov. Y hubo una expansión
significativa de “sistemas expertos” para el minado de datos, la investigación
médica, logística y otras aplicaciones tecnológicas.
En 2004, los vehículos exploradores “Spirit”
y “Opportunity” navegaron autónomamente la superficie de Marte, y DARPA (la
Agencia de Proyectos de Investigación Avanzada de Defensa) del Pentágono
anunció un concurso para producir vehículos que manejasen autónomamente.
En 2005, la empresa japonesa Honda
produjo el robot “Asimo” (haciendo alusión al escritor Asimov), un robot
humanoide con inteligencia artificial con la capacidad de caminar tan
rápidamente como los humanos. En 2009,
la empresa Google produjo su primer carro auto-manejado.
Las principales empresas de la
industria de la tecnología, como Amazon, Facebook, Google, IBM, Microsoft y
Baidu, compiten en el desarrollo de la inteligencia artificial (IA) y el
aprendizaje por máquinas. Al mismo tiempo, han puesto a la disposición del público
software de “aprendizaje profundo”; mientras que IBM ha desarrollado la
plataforma Watson, que permite a nuevas empresas construir aplicaciones
(“apps”) de IA.
Los sistemas de IA implantados en
los teléfonos inteligentes y computadoras, tales como “Siri” en Apple,
“Cortana” en Microsoft, “Alexa” en Amazon, y “Google Assistant” en Google,
interactúan millones de veces diarias con los humanos. Toda esta información es
utilizada por las empresas para dirigir su publicidad y vender dicha
información a empresas de mercadeo. La compañía que domine el desarrollo de IA
podrá dirigir la industria de la tecnología en los años venideros.
Los estudiantes de Ph. D. que se especializan en estos
temas están recibiendo ofertas de trabajo al graduarse que pagan más de USD 1
millón al año, estableciéndose como los trabajos más lucrativos (más que
neurocirujanos o anestesiólogos).
Algunos investigadores en el ámbito
de la Inteligencia Artificial han comenzado a explorar la posibilidad de
incorporar componentes emotivos, tales como como indicadores de estado de
ánimo, con el fin de aumentar la eficacia de los sistemas inteligentes.
Se piensa que tener “sentimientos” y
“motivaciones” permitiría a las máquinas inteligentes a actuar de acuerdo con
sus “intenciones”. Por ejemplo, que sientan una sensación similar al “hambre”
cuando detecten que su nivel de energía estaba descendiendo, o que sientan
“miedo” cuando se encuentren con un alto riesgo. Incluso los investigadores
consideran que podrían introducir el “dolor” o “sufrimiento físico”, a fin de
evitar peligros para su funcionamiento, como, por ejemplo, introducir la mano
dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual les
provocaría daños irreparables.
Algunos multimillonarios del sector de
la tecnología (Elon Musk, Sam Altman y Peter Thiel) fundaron una organización
sin fines de lucro, OpenAI, que busca asegurar que los avances de IA no afecten
a la humanidad. Su preocupación es que las
máquinas equipadas con tecnología súper-inteligente pueden llegar a representar
un peligro para los seres humanos. Musk expresó el temor de que la IA podría
llegar a ser más peligrosa para la humanidad que las armas nucleares.
El objetivo final de OpenAI es
precautelar que las máquinas inteligentes continúen trabajando a favor de los
mejores intereses de las personas que las construyen y utilizan. "Creemos
que la IA debe ser una extensión de las voluntades humanas individuales",
señala la declaración de misión de la entidad.
Reemplazo de la fuerza laboral
Más allá de las visiones
apocalípticas sobre las maquinas inteligentes, la verdad es que van a continuar
desplazando gradualmente la fuerza de trabajo humana, especialmente para
actividades físicas y repetitivas. La IA
también está incursionando en áreas como el análisis de exámenes médicos, apoyo
legal, redacción de artículos deportivos, y otras tareas de humanos
calificados. Los trabajos más a salvo son aquellos que requiere empatía e
interacción humana: terapistas, doctores, enfermeras, peluqueros y entrenadores
personales.
Según la revista “The Economist”, un estudio por
Benedikt Frey y Michael Osborne de la Universidad de Oxford, determinó que
hasta el 47 % de los empleos en EE.UU. podrían verse desplazados por la
automatización en las próximas décadas. Se
requiere capacitar a los empleados para adaptarse a las nuevas circunstancias y
adquirir conocimientos y destrezas requeridos en este nuevo entorno. Esto incluye mayor énfasis en la capacitación
en el sitio de trabajo, y “aprendizaje a lo largo de la vida”. La inteligencia artificial incluso puede
ayudar en ello, al personalizar el aprendizaje basado en computadoras, e
identificar brechas y necesidades de capacitación, mediante el “aprendizaje
adaptativo”.
Esto ha llevado a algunos pensadores
a concebir la necesidad de que el Estado pague un “ingreso mínimo mensual” a
todos los ciudadanos, independiente de que trabajen o estudien; Finlandia y
Holanda están estudiando su implementación.
Los sistemas de seguridad social deben adaptarse, permitiendo que los
beneficios, pensiones y seguro médico se muevan con los empleados individuales,
en lugar de estar atados a las empresas.
También habrá impactos positivos, en
términos de reducción de costos laborales y aumento de eficiencia. Un estudio de Bank of America Merrill Lynch
estimó una reducción de costos de 9 billones anuales (trillones en inglés) en
costos laborales; reducción de costos de 8 billones en manufactura y cuidado de
salud; y 2 billones en mejora de eficiencia en el transporte por el uso de
vehículos auto-manejados y drones. La
transformación de la sociedad será mucho más acelerada que la revolución
industrial.
La inteligencia artificial será nuestra heredera, dado
que eventualmente alcanzará un nivel más elevado que la inteligencia humana, y
sin duda los robots, androides y otras máquinas serán más fuertes, resistentes
y longevos que nosotros. Para viajes interestelares,
por ejemplo, es evidente que solo un aparato de inteligencia artificial podría
soportar viajes de cientos o miles de años, a menos que se perfeccione algún
sistema de hibernación humana. Resulta más
probable que quienes exploren nuestro entorno estelar serán estas máquinas
inteligentes.
-->