Inicio Actualidad Los 5 puntos a resolver en la seguridad de los robots, las...

Los 5 puntos a resolver en la seguridad de los robots, las preocupaciones de Google

0
Compartir

La inteligencia artificial y los robots están avanzando a gran velocidad. De hecho, este campo está yendo con tanta celeridad que algunos aspectos empiezan a ser preocupantes. Sobre todo los relacionados con la seguridad en los robots.

Según informa el portal The Verge, los investigadores de Google tienen sus preocupaciones al respecto, lo refleja el último informe que la compañía ha realizado. En este documento, profundizan en el tema bajo el título: “Problemas concretos en la seguridad de la inteligencia artificial”.

Pero puede que se trate más bien de un eufemismo y que el título real sea algo parecido a éste: “Cómo evitar que los robots acaben con la humanidad mediante su inteligencia artificial, mientras ésta sigue dormitando con su modesta inteligencia humana”.

Robot Boston Dynamics prueba violencia

Vale, quizá es un título exageradamente largo, pero su significado no es largamente exagerado. O al menos eso piensa Google, que conoce bien de lo que es capaz su inteligencia artificial más potente, la denominada Deep Mind.

Te puede interesar | Google se prepara para no perder el control de su Inteligencia Artificial

Para aportar respuestas, los informáticos de Google han dado con “cinco problemas prácticos de investigación”. Se trata de cinco puntos clave sobre la seguridad que los programadores deben tener en cuenta antes de empezar con el desarrollo del próximo robot.

Estos puntos también son aplicables a cualquiera que vaya a controlar un robot que tenga interacción con los humanos, por lo que resultan de mucha importancia para el avance y la inserción de los autómatas en la sociedad.

Yo Robot Google DeepMind

Los 5 puntos clave a tener en cuenta con la seguridad de los robots

Evitar los “efectos secundarios” adversos: tomar medidas para frenar a un robot que se ha centrado tanto en su misión que, con tal de cumplirla termina destrozando algo o dañando a alguien. Ponen como ejemplo un robot cuya misión es limpiar el suelo y lo hace con tanto entusiasmo que derriba todo a su paso.

Evitar la “satisfacción” de una recompensa: los premios por el trabajo bien hecho no resultan buenas ideas en este caso. Al tratarse de un robot, el hecho de que esté programado para “disfrutar” con la realización de una tarea es totalmente contraproducente. Porque, al finalizarla, recreará las circunstancias que provocaron la necesidad de hacerla para poder volver a “experimentar” el placer de llevarla a cabo.

Supervisión escalable: ¿cuál es el grado de autonomía en la toma de decisiones que debe tener un robot? No es práctico ni necesario que esté constantemente “pidiendo permiso” para hacer su trabajo, pero tampoco es seguro que tome por sí mismo según qué decisiones. Es necesario encontrar el término medio que garantice la seguridad.

Exploración segura: ¿cómo enseñarle a un robot dónde están los límites de su curiosidad? Los investigadores del equipo de inteligencia artificial de Google plantean esta duda con el ejemplo de un autómata que realiza la tarea de fregar el suelo y de cómo se debería programar para que entienda que limpiar nuevos suelos sucios está bien, pero que fregar una toma de corriente no.

Fiabilidad en los cambios de distribución: es necesario tener la certeza de que el robot respeta el espacio en el que se mueve. Dependiendo del lugar debe moverse de una forma o de otra. Debe saber discernir entre los distintos espacios, por ejemplo, entre dónde le está permitido moverse rápido y dónde tiene que hacerlo con delicadeza.

robot industrial israeli

Estos cinco puntos no son respuestas, sino preguntas que plantean. Las soluciones de estas cuestiones resultarán de vital importancia para que la interacción entre las personas y los robots no constituya un peligro. Las tres leyes de Asimov son otro cantar, estos puntos clave son un problema real que hay que resolver.

En el informe sugieren diversos métodos, uno de ellos es crear simulaciones para explorar estos aspectos sin tener que hacer pruebas reales. Las posibles respuestas dependen del punto a tratar, unos pueden solucionarse con cambios en la programación, pero otros representan una encrucijada compleja.

El equipo de inteligencia artificial de Google se ha limitado a plantear estos obstáculos en el desarrollo de robots, puesto que deben garantizar la seguridad para poder pasar a la interacción con humanos en la vida real.

No es cuestión de ir tan lejos y pensar en si la inteligencia artificial enviará al ostracismo al ser humano, ahora lo importante es encontrar la forma de que los autómatas puedan ser seguros al operar en fábricas y hogares. ¿De qué sirve un robot que trabaja pero mata accidentalmente a una persona? Ya hay demasiadas muertes humanas provocadas por humanos.

Robots-y-humanos-montaje-erika-voltaico

Como he mencionado en otros artículos sobre inteligencia artificial y robótica, me vienen a la mente aquellas películas de ciencia ficción en las que veíamos autómatas conviviendo con personas en un mundo futurista donde la tecnología impregnaba todos y cada uno de los aspectos de la vida.

Cada vez oímos más acerca de temas sobre autómatas e inteligencia artificial. Por ejemplo, hace poco salió a la luz que la Comisión Europea estudia considerar “personas electrónicas” a los robots trabajadores. Con todos los avances que estamos viviendo, da la sensación de que la ciencia ficción ha llegado a la vida real. ¿Los robots serán nuestros aliados o estaremos en peligro?

Dejar una respuesta

Please enter your comment!
Please enter your name here