A medicina do trabalho é o ramo da medicina que trata da relação entre homens e mulheres trabalhadores e seus empregos, com o objetivo não apenas de prevenir acidentes e doenças ocupacionais, mas também promover a saúde e a qualidade de vida.
Leia mais