Saúde Brasil

Saúde Brasil é uma série de documentários educativos voltados para a área de saúde, em especial à prevenção. Além de orientação básica, o programa desmistifica preconceitos e mitos que envolvem várias doenças.