En la sociedad del siglo XXI, la inteligencia artificial ha supuesto tal avance en nuestras vidas que muchas de nuestras actividades diarias no podrían realizarse sin la ayuda de la tecnología. Pero, ¿hasta qué punto es factible la total sustitución de la mente humana? ¿Es posible que las máquinas sean capaces de tomar sus propias decisiones sin el apoyo de los humanos? Estas y más preguntas tratan de responderse en este artículo.

Imagen del modelo T-800 de la saga Terminator

¿Qué es la inteligencia artificial?

Se denomina inteligencia artificial a aquella expresada por las máquinas, sus procesadores y sus softwares en contraste a la inteligencia natural mostrada por seres humanos y algunos animales con cerebros complejos. Este término fue acuñado por John McCarthy en 1956, para designar a ‘la ciencia y el ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes’.

Tipos de inteligencia artificial

Existen varios tipos de inteligencia artificial según Peter Norvig y Stuart J. Russell:

-Sistemas que piensan como humanos: estos sistemas tratan de emular el pensamiento humano en actividades tales como la toma de decisiones, la resolución de problemas y el aprendizaje. Por ejemplo, las redes neuronales artificiales, modelos computacionales basados en un conjunto de unidades conectadas entre sí (neuronas artificiales) capaces de transmitir señales entre ellas.

-Sistemas que actúan como humanos: aquellos sistemas que tratan de actuar como humanos imitando su comportamiento. Por ejemplo, la robótica, rama de la ingeniería mecánica encargada del diseño, construcción, operación, estructura, manufactura y aplicación de los robots.

-Sistemas que piensan racionalmente: son los sistemas que tratan de imitar el pensamiento racional del ser humano mediante el empleo de la lógica. Por ejemplo, los sistemas expertos, que actúan como lo haría un humano experto en un área determinada del conocimiento.

-Sistemas que actúan racionalmente: tratan de emular de forma racional el comportamiento humano. Por ejemplo, los agentes inteligentes, capaces de percibir su entorno y en consonancia, actuar de manera correcta con el objetivo de maximizar un resultado esperado.

Implicaciones filosóficas de la inteligencia artificial

El gran avance tecnológico alcanzado en los albores del siglo XXI, ha generado un gran debate en torno a las implicaciones sociales y éticas de la inteligencia artificial. Durante la Segunda Revolución Industrial, los procesos de producción se automatizaron y provocaron el llamado ‘desempleo tecnológico’ al reemplazar la mano de obra humana por máquinas. Un caso similar podría darse con la inteligencia artificial, abordado desde diferentes perspectivas en la literatura de ciencia ficción. El cuento de ciencia ficción de Isaac Asimov titulado ¡Cómo se divertían! analiza la interacción entre robots y humanos en áreas como la psicopedagogía infantil, además de ironizar sobre nuestra percepción del pasado.

Otras obras como Yo, robot, I.A. Inteligencia artificial o Blade Runner abordan temas como la autoconsciencia de los robots inteligentes o si estos podrían llegar a ser considerados algún día como sujetos de pleno derecho. Por otro lado, la saga cinematográfica Terminator vislumbró un futuro post apocalíptico nada prometedor. En su particular visión, las máquinas tomaban el control sobre sí mismas para decidir la completa aniquilación de la humanidad por considerarla una amenaza. Aunque esto pueda parecer algo pesimista, científicos de la talla de Stephen Hawking han alertado de los peligros a los que nos enfrentamos como especie a consecuencia del inusitado desarrollo de la inteligencia artificial. Veamos el porqué.

Fotograma de la película Blade Runner (1982). Fuente: eldiario

Las tres leyes de la robótica

Posiblemente debido a sus semejanzas con los seres humanos, los robots han ocupado un lugar preferente en cuanto a los temores que suscita la inteligencia artificial. A consecuencia de ello, el escritor Isaac Asimov desarrolló las llamadas tres leyes de la robótica, las cuales han tenido una gran influencia en la literatura, el cine y otros medios. Dichas leyes son las siguientes:

Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Posteriormente, Asimov añadió la ley Cero que precede a todas las demás: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños. La mayoría de expertos considera lógicas las aportaciones de Asimov. Sin embargo, también se plantean dudas acerca de la capacidad del supuesto robot para discernir todas las situaciones y conflictos generados por estas tres leyes.

Por otro lado, todas estas leyes constituyen, según la visión de Asimov, el código moral de los robots concebido como medida de protección para los seres humanos. Pero, ¿podría llegar un momento en que las máquinas sean superiores en capacidad operativa a la mente humana que las ha creado? ¿Acaso no se ha cumplido ya esta profecía? Analicemos varios ejemplos.

Fotograma de la película Yo, robot (2004) en la cual quedan plasmados los conflictos surgidos de las tres leyes de la robótica

Deep Blue versus Garri Kasparov: el duelo del siglo

El eterno dilema de si una máquina puede llegar a superar a la mente humana se ha probado en juegos de estrategia tales como el ajedrez o el go. Entre 1996 y 1997 tuvieron lugar una serie de encuentros entre el entonces campeón del mundo de ajedrez, Garri Kasparov, contra la super computadora apodada Deep Blue. Mediante esta singular competición se quería demostrar si la máquina era capaz de vencer al ser humano. Pero a pesar de las expectativas puestas en esta tecnología puntera, en el primer match Kasparov se impuso a Deep Blue con 3 victorias, 2 empates y una derrota.

En la siguiente ronda, considerada como el ‘más espectacular duelo de ajedrez de la historia’, Deep Blue logró superar al campeón del mundo después de haber sido mejorada tras su primer encuentro. Se dice que Kasparov incluso llegó a afirmar que la máquina fue capaz de ‘pensar’ por sí misma en algún movimiento. Sea como fuere, lo que sí estaba claro es que la inteligencia artificial había sido capaz de derrotar a un ser humano excepcional en el juego del ajedrez. Pero lo mejor estaba todavía por llegar, pues con el milenario juego del go las posibilidades son prácticamente ilimitadas.

Elduelo del siglo’: Garry Kasparov contra la super computadora Deep Blue

AlphaGo, un nivel superior

El go es un juego de tablero de estrategia para dos personas de entre 2500-4.000 años de antigüedad originado en China, cuyo objetivo consiste en controlar el mayor territorio posible. Para ello, se van colocando por turnos en las intersecciones del tablero piezas blancas y negras, según el color asignado a cada jugador. Una vez colocada una ficha, esta ya no se puede mover a no ser que sea capturada por el contrincante. Pese a su aparente simplicidad, el go está considerado como uno de los juegos más complejos que existen.

Después del mítico duelo de Kasparov contra Deep Blue de 1997, la inteligencia artificial iba a dar un salto de gigante a través del milenario juego del go. En el año 2016, se enfrentaron en una serie de partidas el programa AlphaGo contra el jugador de go profesional surcoreano Lee Sedol, resultando en una victoria incontestable por 4-1 a favor de la máquina. Este suceso tuvo un gran eco mediático, pues era la primera ocasión en la que un programa de computación lograba fulminar a un campeón mundial en esta categoría.

El eterno dilema del ser humano: complejo de Frankenstein

Una vez vistos los anteriores ejemplos, cabría preguntarnos hasta donde estamos dispuestos a llegar con el desarrollo imparable de la inteligencia artificial. Es indudable que el progreso de la tecnología ha mejorado nuestro modo de vida a niveles que jamás hubieron imaginado las generaciones anteriores, aunque también existen otros problemas. El multimillonario empresario Bill Gates llegó a comparar la inteligencia artificial con la energía nuclear, en función de sus potenciales riesgos y beneficios para el conjunto de la humanidad.

Pero, ¿podría llegar a constituir la inteligencia artificial una amenaza real para la raza humana? Todavía existen muchos interrogantes en torno a esta eterna cuestión. El llamado ‘complejo de Frankenstein‘ hizo referencia al temor de que las mismas fuerzas creadas por el ser humano para dominar a la naturaleza se vuelvan contra él. Puede que algún día la famosa frase recogida en la novela Frankenstein o el moderno Prometeo de Mary Shelley, se haga realidad: “Tú eres mi creador, pero yo soy tu señor“. El tiempo será el que dictamine si hemos obrado acertadamente.

Mente humana vs mente artificial. Fuente: BBVA

Bibliografía

Asimov, I. (1979). In Memory Yet Green. Doubleday

Bellman, R. (1978). An introduction to artificial intelligence: can computers think?. San Francisco: Boyd & Fraser Pub. Co

Dick, K. P. (1968). ¿Sueñan los androides con ovejas eléctricas?. Doubleday

Redacción BBC Mundo. (2018). ‘4 advertencias de Stephen Hawking sobre los peligros que amenazan a la humanidad’. BBC Mundo. https://www.bbc.com/mundo/noticias-43415617

Rich, E.; Knight, K. (1991). Artificial Intelligence. New York: McGraw-Hill.