La Toupie  >  Dictionnaire  >  Droit positif

"Toupictionnaire" : le dictionnaire de politique


Droit positif



Définition du droit positif


Etymologie :
  • Droit : du latin directus, en ligne droite, direct.
  • Positif : du latin positus, posé, placé, fondé, c'est le droit qui est posé.

L'expression "droit positif" désigne l'ensemble des règles de droit effectivement en vigueur dans un Etat ou un ensemble d'Etats. Cette notion, qui sous-entend également que les règles de droit sont issues des hommes eux-mêmes et non pas de la nature ou d'une divinité, s'oppose à celle de "droit naturel".

Le droit positif est écrit et publié. Son respect est sanctionné par le recours aux juridictions chargées de l'appliquer. Il est constitué de l'ensemble des documents juridiques officiels : lois, décrets, règlements administratifs, règles de procédure et jugements.

Le droit positif est un droit vivant qui évolue en fonction des époques et des sociétés. Le positivisme légaliste considère que le droit positif émane des autorités politiques et se suffit à lui-même. Pour le positivisme sociologique, le droit positif est l'expression de la société. Il se comprend en observant la société.

Le droit positif international est constitué de l'ensemble des accords et des traités en vigueur.



Accueil     Dictionnaire     Haut de page