Padre de la inteligencia artificial alerta sobre todos los peligros de esta tecnología
Uno de los padres de la inteligencia artificial (IA) es el informático británico Geoffrey Hinton, quien ha enfocado toda su carrera a estudiar las redes neuronales artificiales. Esta persona ha lanzado una opinión muy importante que podría cambiar para siempre la persepción que la gente tiene de esta tecnología: asegura que la IA podría eliminar a la humanidad.
Él trabajó durante mucho tiempo en Google, empresa que abandó hace poco, para concientizar sobre los temores respecto a esta tecnología (IA) que funciona "mejor que el cerebro humano" y que, por el momento, nadie sabría cómo ponerla bajo control.
"Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho alguien más (...) No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo", dijo en una entrevista con The New York Times.
El experto asegura que mientras las empresas mejoran sus sistemas de inteligencia artificial, estos se vuelven más peligrosos e incontrolables. "Mira cómo era hace cinco años y cómo es ahora. Toma la diferencia y proyéctala hacia adelante. Es atemorizante", indicó.
Uno de los principales problemas que Geoffrey Hinton ve en la IA es que en algún momento se saldrá de control y será difícil saber qué cosas son reales o no. Esto lo ejemplifica con la batalla de Google y Microsoft por tener el buscador más inteligente que nadie, que a su parecer, nadie puede parar.
"Robots asesinos"
El siguiente temor de Hinton es algo que todos hemos pensado alguna vez en la vida: que la IA le quite trabajo a las personas, más que ser un complemento para ellos. "Se quita el trabajo pesado, pero podría quitar más que eso", indicó.
Por otro lado, también le preocupa que las tecnologías en el futuro amenacen a la humanidad y se comporten de manera autónoma, como "robots asesinos".
"Los sistemas de IA a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan (...) Las personas y las empresas permiten a los sistemas de IA no solo generar su propio código, sino también ejecutar ese código por su cuenta", explicó a NYT.
Añadió, también, que algunas personas "creían en la idea de que estas cosas podían volverse más inteligentes que las personas (...) Pero la mayoría pensó que estaba muy lejos. Yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso".
De todas maneras, adverte que es "una amenaza hipotética", no es que vaya a pasar de verdad, sino que podría llegar a ocurrir, quién sabe cuándo y cómo.
Por otro lado, apunta que la competencia entre Google, Microsoft y otras compañías tecnológicas se convertirá en "una carrera global sin regulaciones internacionales". Y que, su mayor esperanza, es que los grandes científicos del mundo colaboren para controlar esta tecnología.