Droit positif

Sommaire

Palais de justice français 123RF / Philippe Halle

Le droit positif, du latin « positus » qui signifie « posé », est l'ensemble des règles et des lois en vigueur qui organisent la vie d'une société. Il s'agit donc des règles de droit qui émanent d'une autorité habilitée à les édicter, effectivement en vigueur dans un lieu et à un moment donnés.

Le droit positif s'oppose au droit naturel, très discuté en philosophie, qui regroupe l'ensemble des droits que chaque individu possède par naissance et nature. Cet article s'attache à définir le droit positif et ses principaux enjeux.

Droit positif : définition

Le droit positif désigne l'ensemble des règles de droit en vigueur dans un État à un moment donné.

Il s'agit d'un droit uniforme sur un territoire donné, qui évolue en fonction des mutations de la société.

Le droit positif a plusieurs caractéristiques. Il est général, obligatoire et sanctionné.

Ainsi, les règles du droit positif s'appliquent à un ensemble et non à un sujet de droit particulier. Aucune personne ne peut s'en exonérer. Si une personne enfreint la règle de droit positif, elle encourt une sanction.

Le droit positif s'impose en tant que tel.

Contenu du droit positif

Le droit positif est le droit posé par des autorités publiques, contrairement au droit naturel ou aux règles de morale.

En principe, le droit positif est un droit écrit et publié que l'on retrouve dans différents textes juridiques officiels, constitution, lois, décrets, etc.

Le droit positif français comprend ainsi les traités internationaux ratifiés par la France, les textes du droit communautaire, les lois ratifiées, les codes en vigueur, etc.

Le droit positif est donc le droit présent, actuel. Pour connaître le droit positif dans telle ou telle matière, il faut se référer aux textes juridiques en vigueur.

Exemple : il faut se référer au Code du travail pour savoir si un contrat de travail est régulier.

Juste ou injuste, le droit positif doit être respecté par tous.

Ces pros peuvent vous aider