Elon Musk y Stephen Hawking advierten sobre una carrera armamentística de Inteligencia Artificial

Editado por el 1 Febrero, 2017

Stephen Hawking y Elon Musk se han unido a eminentes investigadores en inteligencia artificial para apoyar los principios de proteger a la humanidad de las máquinas y de una potencial carrera armamentística de inteligencia artificial. Una carta abierta publicada por el Instituto del Futuro de la Vida (FLI, por sus siglas en inglés) el lunes resumió los Principios en Inteligencia Artificial de la conferencia de Asilomar, 23 directrices para asegurar el desarrollo de inteligencia artificial que sea benéfica para la humanidad.

Los Principios en Inteligencia Artificial de Asilomar siguen a cartas abiertas previas sobre seguridad en inteligencia artificial y armas autónomas y ya han sido suscritos por más de 700 investigadores en inteligencia artificial y robótica.

(adsbygoogle = window.adsbygoogle || []).push({});

“No soy fan de las guerras, y pienso que podría ser peligroso en extremo”, dijo Stefano Ermon del Departamento de Ciencias Computacionales en la Universidad de Stanford, quien estaba entre los signatarios. “Obviamente, pienso que la tecnología tiene un potencial enorme y, incluso con las capacidades que tenemos hoy día, no es difícil imaginar cómo podría usarse de maneras muy dañinas”.

Elon Musk, director ejecutivo de Tesla, ha dicho previamente que Google es la “única” que a él le preocupa en lo tocante al desarrollo de inteligencia artificial avanzada. Nick Bostrom, profesor de filosofía de la Universidad de Oxford y director fundador del Instituto para el Futuro de la Humanidad, advirtió el año pasado que Google está a la cabeza de la carrera mundial para crear inteligencia artificial de nivel humano.

Por ende, tanto a Musk como a Bostrom les complacerá que el fundador de DeepMind —el abanderado en inteligencia artificial de Google— estuvo entre los nombres que prometieron su apoyo a los principios. Demis Hassabis es considerado como una de las principales mentes en el campo de la inteligencia artificial y su compañía ha colaborado previamente con el FLI para proponer un interruptor de apagado para la inteligencia artificial corrupta.

En un ensayo titulado “Agentes interrumpibles de la seguridad”, se esbozó un “gran botón rojo” para evitar que las máquinas avanzadas ignoren los comandos de apagado y queden fuera del control humano. Esta idea se reitera en los Principios en Inteligencia Artificial de Asilomar, los cuales piden que los sistemas de inteligencia artificial estén “sujetos a medidas estrictas de seguridad y control”.