Fin del mundo: Las cuatro teorías de Stephen Hawking
El físico británico Stephen Hawking, que falleció este miércoles a los 76 años, era el científico más popular del mundo desde Albert Einstein. Un genio que desveló secretos del universo y luchó contra una terrible enfermedad.
Los misterios del origen del universo y los posibles desenlaces de la humanidad fueron los campos hacia donde orientó sus estudios y que intentó explicar a través de la ciencia. Con respecto a esto último Stephen Hawking dejó un sin fin de dudas que no pudo responder y para las cuales elaboró una serie de teorías. Acá puedes ver cuatro.
Los virus
Fue una de las primeras teorías elaboradas por Hawking. "A largo plazo, estoy más preocupado por la biología. Las armas nucleares necesitan grandes instalaciones, pero la ingeniería genética puede hacerse en un laboratorio pequeño. No puedes regular cada laboratorio del mundo. El peligro es que, por accidente o por diseño, creemos un virus que nos destruya", señaló el científico en una entrevista con The Telegraph el año 2001.
Guerra nuclear y cambio climático
En enero de 2007, Stephen Hawking y otros científicos anunciaban en el Reloj del Apocalipsis quedaba fijado a cinco minutos antes de medianoche, acercándose dos minutos más a la hora final. "Como ciudadanos del mundo, tenemos el deber de alertar al público sobre los riesgos innecesarios con los que vivimos cada día, y sobre los peligros que auguramos si los gobiernos y las sociedades no actúan ahora para dejar las armas nucleares obsoletas y prevenir un mayor cambio climático", señaló en la conferencia celebrada en Londres, donde se dio a conocer la hora del reloj.
Invasión alienígena
El científico sostuvo que una invasión sería aniquiladora. "Si los alienígenas nos visitaran, el resultado sería parecido a cuando Colón arribó a América, lo que no fue muy bien para los nativos americanos", señaló el Hawking en un documental grabado por Discovery en 2010, donde además sotuvo que debería evitarse todo contacto con civilizaciones extraterrestres.
La revolución de los robots
"El éxito en la creación de inteligencia artificial sería el evento más grande de la historia de la humanidad. Por desgracia, también podría ser el último, a menos que aprendamos cómo evitar los riesgos". Esas fueron las palabras de Hawking y otros tres científicos en mayo de 2014 en un artículo para el diario británico The Independent, alertando a la humanidad sobre los riesgos del desarrollo de máquinas inteligentes.