AFP
¿Puede la humanidad asistir pasivamente al desarrollo de 'robots asesinos', como el de la película “Terminator”, que decide por sí mismo a quién matar y cuándo? Es una pregunta que expertos de alto nivel debatieron esta semana en el Foro de Davos.
Los drones, que durante años estuvieron limitados a misiones de reconocimiento de terreno, hoy son "máquinas asesinas". Ahora el debate es si habrá una nueva generación de armas autónomas dotadas de inteligencia artificial.
"No estamos hablando de drones, que sí están controlados por humanos. Estamos hablando de armas autónomas, que no necesitan una persona detrás de ellas. Son armas muy precisas, que pueden localizar y atacar blancos sin que haya una intervención humana", explicó Stuart Russell, profesor de informática de la Universidad de California.
Durante el debate, organizado por la universidad en el Foro Económico de Davos, en Suiza, se planteó qué pasaría si a una máquina se le asigna una misión de guerra y ésta decide atacar cuando ella quiera.
La reflexión abordó las preguntas en torno a cómo puede una máquina diferenciar entre un civil y un soldado o un combatiente de un bando y un rebelde.
"La cuestión es saber si los robots pueden responder a las reglas de la guerra" que establece la Convención de Ginebra, planteó Stuart Russell.
Para Alan Winfield, profesor de Ingeniería Electrónica de la University of the West of England, un robot asesino puede liberar a los humanos de las responsabilidades morales.
"Cuando se despliega un robot en un contexto de caos, éste se conduce de una forma caótica", agregó Winfield.