Una superinteligencia artificial podría ser incontrolable
Vivimos en el mundo de los algoritmos y la inteligencia artificial. ¿Qué tan lejos llegaremos con esto? ¿Podremos tener siempre bajo control este tipo de tecnología? Unos investigadores del Instituto Max Planck para el Desarrollo Humano se dedicaron a desentrañarlo. El estudió se publicó en la revista ‘ Journal of Artificial Intelligence Research’. Las conclusiones son alarmantes. Dicen que una superinteligencia artificial podría ser incontrolable.
Límites indefinidos
Reglas del tipo ‘no causar daño a los humanos’ serían difíciles de aplicar. Sobre todo si no entendemos la clase de escenarios que se le ocurrirán a la inteligencia artificial (IA). ¿Qué pasará cuando un sistema informático empiece a funcionar a un nivel superior? Saldrá del alcance de nuestros programadores. Y ya no seremos capaces de establecer límites.
«Una superinteligencia plantea un problema. Esto se debe a que una superinteligencia tiene múltiples facetas. Y es potencialmente capaz de movilizar una diversidad de recursos para lograr sus objetivos. Algunos, potencialmente incomprensibles para los humanos. Y mucho menos controlables».
El razonamiento se basa en el ‘problema de la detención’ presentado por Alan Turing en 1936. El problema se centra en saber si un programa de computadora llegará o no a una conclusión y respuesta. Aquí, por lo tanto, se detendría. Pero, ¿y si se repite eternamente tratando de encontrar una?
Turing lo demostró matemáticamente. Es imposible encontrar la forma de saber eso para cada programa potencial futuro. Lo cual nos lleva de vuelta a la IA super inteligente. Podría contener todos los programas informáticos posibles de forma simultánea.
Máquinas que aprenden
Por tanto, un programa para evitar que la IA dañe a los humanos y destruya el mundo, puede llegar a una conclusión (y detenerse). O tal vez no. Es matemáticamente imposible para nosotros estar seguros al 100%. Entonces, una superinteligencia artificial podría ser incontrolable.
«En efecto -afirma Iyad Rahwan, coautor del estudio- esto inutiliza el algoritmo de contención». La opción sería limitar las capacidades de la superinteligencia. Por ejemplo, desconectándola de algunas partes de Internet o de ciertas redes críticas. Pero, si evitaremos que resuelva problemas más allá de nuestro poder, ¿para qué crearla?
«Una máquina que controla el mundo es ciencia ficción -dice Manuel Cebrian. Es otro de los firmantes del estudio-. Pero ya hay máquinas que realizan tareas sin que los programadores comprendan cómo las aprendieron». La pregunta, por lo tanto, es la siguiente: ¿Podría esto llegar a ser peligroso para la humanidad? Los autores parecen estar convencidos de que sí.