Accueil |

Droit du travail

  

Le droit du travail est l'ensemble des règles qui régissent la relation de travail entre l'employeur et le travailleur. Ces règles sont issues de diverses sources parmi lesquelles le code du travail (en France), la jurisprudence, notamment, de la Chambre sociale de la Cour de cassation et, les conventions collectives.

Le droit du travail est parfois improprement nommé droit social. Cette seconde discipline est plus large, puisqu'elle englobe non seulement le droit du travail mais aussi le droit de la protection sociale.

En France

Le droit du travail concerne essentiellemnt:

Voir aussi