Informe revela que Apple modificó las respuestas de Siri para que evadiera preguntas sobre feminismo
Una investigación reveló que Apple reescribió las respuestas de Siri sobre ''temas sensibles'' como feminismo y el movimiento #Metoo. La compañía aconsejó a los desarrolladores para que el asistente de voz responda de estas tres formas: "no participar", "desviar" y finalmente "informar".
Mediante una filtración de documentos, el diario británico The Guardian, informó este viernes que tuvo acceso a un proyecto de la compañía que modificaba las respuestas de Siri con el objetivo de garantizar que el sistema dijera que está a favor de la igualdad de género, pero que nunca mencionara la palabra feminismo.
Según The Guardian, antes de la última actualización del año pasado, las respuestas de Siri incluían frases aparentemente más despectivas como: "Simplemente no entiendo todo este asunto de género" y "Mi nombre es Siri, y fui diseñado por Apple en California. Eso es todo lo que estoy dispuesto a decir".
Tras los cambios, Siri defiende la igualdad pero no menciona el término feminismo: “todos los seres humanos deben ser tratados de manera equitativa”, o “creo que todas las voces son creadas igual y merecen el mismo respeto”.
Apple se refirió a las modificaciones en un comunicado y señaló que “Siri es un asistente digital diseñado para ayudar a los usuarios a hacer las cosas. El equipo trabaja duro para garantizar que las respuestas de Siri sean relevantes para todos los clientes. Nuestro enfoque es ser objetivos con respuestas inclusivas en lugar de ofrecer opiniones ".
Sam Smethers, directora ejecutiva de los defensores de los derechos de las mujeres de la Sociedad Fawcett, indicó que el problema de este tipo de herramientas de inteligencia artificial es que han sido diseñadas por hombres ''con un defecto masculino en mente''. '
'Odio decírselo a Siri y sus creadores: si "cree" en la igualdad, es feminista. Esto no cambiará hasta que recluten significativamente más mujeres para el desarrollo y diseño de estas tecnologías ", agregó.
Las pautas filtradas son de junio del 2018 y fueron difundidas por un antiguo funcionario de la empresa que fue contratado para verificar la exactitud de las respuestas del asistente de voz. Molesto por las fallas éticas del programa, el empleado envió al menos 50 capturas de pantalla de las solicitudes de Siri y sus transcripciones automáticas.