Imagem de fundo

No Brasil, a saúde é considerada, por lei, um direito fundamental dos cidadãos.