Qu'est-ce que la Santé au Travail ?

La Santé au Travail, ce sont les regards croisés de spécialistes
sur la santé, la sécurité des salariés et la prévention de leurs risques

Garantir la santé du travailleur c'est éviter toute altération de sa santé du fait de son travail

Rechercher