Internacional
Biden diz que pandemia de Covid-19 'terminou' nos EUA
"A pandemia terminou", disse o presidente dos Estados Unidos em entrevista à TV

O presidente americano, Joe Biden, disse neste domingo (18), que a pandemia de Covid-19 terminou nos Estados Unidos.
"A pandemia terminou", disse em entrevista à TV. "Ainda temos um problema com a Covid. Ainda estamos trabalhando muito nisso... Mas a pandemia acabou. Se prestarem atenção, ninguém usa máscaras. Todo mundo parece estar em boa forma. E por isso, acredito que está mudando", afirmou.
No entanto, o presidente deu estas declarações apenas algumas semanas depois de sua administração ter pedido ao Congresso bilhões de dólares em financiamento para manter seus programas de testagem e vacinação com vistas a uma possível nova onda no outono. (AFP)