Qu’est ce que le droit du travail ?

Définition Le droit du travail est un ensemble de lois qui traite des droits et des devoirs des employeurs et des employés. Il régit les relations entre les travailleurs et les employeurs, et fixe les règles régissant les contrats de travail, les conditions de travail, les salaires et d’autres aspects de la relation de travail. […]