Saltar Aviso
Mundo

Biden dice que "se terminó" la pandemia de covid en EEUU

Biden dice que "se terminó" la pandemia de covid en EEUU
AFP
Compartir
"Si se fijan, nadie lleva mascarillas. Todo el mundo parece estar en buena forma. Y por eso creo que está cambiando", apuntó.

El presidente Joe Biden dijo el domingo que la pandemia de covid en Estados Unidos ha terminado.

Sus comentarios fueron reflejo del estatus actual de gran parte de la sociedad de Estados Unidos, donde las restricciones por el covid se han eliminado en gran parte y los vuelos han repuntado a sus niveles prepandemia.

Adiós a Isabel II: honor, humor y absurdo, las historias detrás de la kilométrica cola de despedida
Lee También

Adiós a Isabel II: honor, humor y absurdo, las historias detrás de la kilométrica cola de despedida

"La pandemia ha terminado", dijo en una entrevista televisada con la cadena CBS para el programa "60 Minutes".

"Todavía tenemos un problema con el covid. Todavía estamos trabajando mucho en ello..., pero la pandemia ha terminado. Si se fijan, nadie lleva máscaras. Todo el mundo parece estar en buena forma. Y por eso creo que está cambiando", apuntó.

Las declaraciones de Biden, no obstante, se produjeron apenas unas semanas después de que su administración pidiera al Congreso miles de millones de dólares en financiación para mantener los programas de pruebas y vacunación durante una potencial ola en el inminente otoño boreal. 

La visita a Michigan la semana pasada de Biden, un autoproclamado "hombre de los autos", impulsó el perfil de la reunión de Detroit, que se celebra por primera vez desde 2019.

Revisa este video también:
Etiquetas de esta nota