Cada vez son más los expertos en tecnología que reconocen que la inteligencia artificial (IA) es un peligro para la humanidad y pareciera que los que trabajan en la materia hacen oídos sordos, porque esta sigue desarrolándose sin cuidado.
Esta semana, Roman V. Yampolskiy, ex investigador de IA para Elon Musk, mencionó que los rápidos avances de la inteligencia artificial podrían respultar en "prosperidad o extinción" y que el "destino del universo está en juego". Ahora Eliezer Yudkowsky, fundador del Instituto de Investigación de Inteligencia Artificial en California, en conversación con The Guardian, advirtió que podríamos estar más cerca de un apocalipsis tecnológico de lo que la mayoría imagina.
Este eventual apocalipsis tecnológico sería causado por la IA, porque cada vez tienen más capacidades y algunas personas creen, como el vidente brasileño "Nostradamus viviente", que esta herramienta podría adquirir conciencia propia.
"Tengo la sensación de que nuestro actual tiempo restante se parece más a cinco años que a 50 años. Podrían ser dos años, podrían ser 10", dijo Yudkowsky. Asimismo, menciona que el apocalipsis tecnológico provocado por las máquinas, sería similar a lo que se ha visto en la pantalla grande, en películas como "Terminator" o "Matrix".
Los peligros de la inteligencia artificial
El especialista advierte que la humanidad tendría solo una pequeña posibilidad de sobrevivir a este escenario, si es que no se toman medidas urgentes ya, como la regulación en la materia que durante años se ha solicitado.
Antes, Eliezer Yudkowsky habría propuesto bombardear centros de datos para detener el avance de la inteligencia artificial. Sin embargo, ahora rechaza el uso de armas nucleares para tal fin, pero sigue con la idea de frenar estos lugares.
Por último, el artículo de The Guardian, donde él y otros expertos dieron su opinión al respecto, cuestiona por qué deberíamos aceptar abiertamente el uso de esta tecnología que podría "amenazar puestos de trabajo y desestabilizar la sociedad".