Google se prepara para no perder el control de su Inteligencia Artificial

Google se prepara para no perder el control de su Inteligencia Artificial

0
Compartir

Si nos paramos a pensar en aquellas películas antiguas de ciencia ficción y en su forma de interpretar el mundo futuro, probablemente identifiquemos muchos elementos con la tecnología que tenemos en la actualidad. Y no es necesario remontarse a títulos de hace muchos años porque la evolución de la Inteligencia Artificial va a un ritmo vertiginoso. Lo estamos viviendo.

En muchas ocasiones se ha teorizado sobre posibles situaciones apocalípticas donde los autómatas toman el control absoluto y los humanos quedamos relegados a una posición inferior, rozando el ostracismo. Tenemos ejemplos como los que nos proponía Asimov en la literatura, o Terminator en el cine, entre muchísimos otros.

El pasado mes de marzo, la Inteligencia Artificial de Google venció en una partida de Go al campeón del mundo, el surcoreano Lee Se-dol. Lo hizo con un programa desarrollado por DeepMind, el AlphaGo. En 2015, fue la primera máquina que ganaba a un profesional en este milenario juego.

AlphaGo venció a Lee Se-dol, el campeón del mundo de Go (12.03.2016)
AlphaGo venció a Lee Se-dol, el campeón del mundo de Go (12.03.2016)

AlphaGo emplea un avanzado sistema de redes neuronales y de aprendizaje. Esto representa un claro ejemplo de las capacidades de DeepMind, puesto que el Go está considerado como uno de los desafíos más complicados para la Inteligencia Artificial porque requiere altos niveles de evaluación e intuición.

No es que estemos ante tales casos de emergencia, pero la posible pérdida de control sí que preocupa. Es por eso que Google está preparando un protocolo que le permitirá desactivar su Inteligencia Artificial más avanzada: Google DeepMind.

Ha sido descrito en un ensayo que acaban de publicar los investigadores de Google DeepMind en colaboración con los científicos del Instituto para el Futuro de la Humanidad (Universidad de Oxford). En este ensayo, titulado Safely Interruptible Agents, se expone un complejo protocolo que servirá para interrumpir el funcionamiento de DeepMind y poder así tomar el control ante una situación de emergencia. Hay que tener en cuenta que un fallo en este sistema podría conllevar serias e irreversibles consecuencias.

Más información | Ensayo Safely Interruptible Agents

Google no está planteándose escenarios caóticos, ni el fin de la supremacía humana sobre la tecnología, lo que quiere es evitar problemas cuando el sistema intente invalidar o pasar por alto el protocolo de desactivación.

Eric Schmidt, actual presidente ejecutivo de Google, hizo declaraciones sobre la necesidad de crear fuertes mecanismos de control para los sistemas de Inteligencia Artificial, puesto que su progreso es cada vez mayor.

En otras palabras, Google quiere curarse en salud y asegurarse el control necesario para apagar su Inteligencia Artificial, para evitar que ésta se les vaya de las manos y se subleve contra ellos.

El fundador del Instituto para el Futuro de la Humanidad, Nick Bostrom, afirmó que llegará un momento clave en que la propia Inteligencia Artificial será capaz de mejorarse a sí misma, por lo que es indispensable fortalecer y asegurar los sistemas que permiten controlarla.

Nick Bostrom es filósofo y profesor de la Universidad de Oxford, conocido por su trabajo sobre el principio antrópico y sus importantes aportaciones en el Instituto para el Futuro de la Humanidad.
Nick Bostrom es filósofo y profesor de la Universidad de Oxford, conocido por su trabajo sobre el principio antrópico y sus importantes aportaciones en el Instituto para el Futuro de la Humanidad.

Nick Bostrom cree que las máquinas nos superarán en los próximos 100 años y tendrán el potencial de volverse contra nosotros. Es su teoría, y existen muchas más. Quién sabe, aún no estamos en tal situación, de momento el mayor peligro para el ser humano sigue siendo el propio ser humano…