Le contrat de travail

Définition du contrat de travail Le contrat de travail est l’acte juridique qui lie l’employeur et son salarié. Il énumère classiquement les droits et obligations de chacune des parties. Il peut être distingué des autres contrats de travail par plusieurs critères,...