Un algorithme a refusé votre prêt, rejeté votre candidature ou quelqu'un a créé un deepfake de vous. Le droit européen vous donne des droits puissants pour vous défendre. Nous générons des lettres formelles et juridiquement fondées qui invoquent vos droits RGPD (Art. 13-15, 22) et citent le Règlement IA où applicable - créant un dossier juridique documenté auquel les organisations doivent répondre dans un délai de 30 jours.
Cliquez sur votre cas - nous générerons la bonne lettre en quelques minutes
Chaque jour, des systèmes IA prennent des décisions qui affectent profondément la vie des gens. L'algorithme d'une banque rejette votre demande de prêt hypothécaire sur la base de centaines de variables que vous ne voyez jamais. Une IA de recrutement filtre votre CV avant qu'un humain ne le lise. Le modèle d'un assureur fixe votre prime sur la base de comportements que vous ne pouvez pas contester parce que vous ignorez leur existence. L'algorithme d'une administration vous signale comme fraudeur ou refuse votre demande de prestations. Un deepfake de vous circule en ligne, et les plateformes ne font rien.
Ce ne sont pas des scénarios hypothétiques. Le scoring de crédit par IA est utilisé par pratiquement toutes les grandes banques européennes. Plus de 80 % des grandes entreprises utilisent des outils de recrutement alimentés par l'IA. Les compagnies d'assurance en Europe utilisent des modèles algorithmiques pour fixer les primes et rejeter les sinistres. Des administrations publiques de plusieurs États membres de l'UE utilisent l'analytique prédictive pour la détection de fraude et l'éligibilité aux prestations.
Le problème fondamental est le même dans chaque cas : l'algorithme décide, et on ne vous dit pas pourquoi. La lettre de refus dit 'votre demande ne remplit pas nos critères.' Le recruteur envoie un générique 'nous avons décidé de poursuivre avec d'autres candidats.' L'assureur invoque 'l'évaluation des risques.' L'administration dit 'vous ne remplissez pas les conditions d'éligibilité.' Aucun détail. Aucune explication des facteurs déterminants. Aucune possibilité de contester la logique. Aucun humain à qui parler.
La plupart des gens acceptent ces décisions parce qu'ils pensent n'avoir aucun recours. Ils supposent que l'algorithme doit être correct, ou que le contester est trop complexe, trop coûteux ou trop long. C'est faux. Le droit européen offre certains des droits individuels les plus forts au monde en matière de prise de décision algorithmique - mais ces droits sont inutiles si vous ne les exercez pas. Cela nécessite une lettre formelle et juridiquement précise qui cite les bonnes dispositions et oblige l'organisation à répondre.
DocuGov.ai génère des lettres professionnelles et juridiquement fondées pour chaque scénario majeur de droits IA - de la contestation d'un refus algorithmique de crédit au dépôt d'une plainte formelle pour pratique IA interdite auprès de votre autorité nationale. Chaque lettre cite les dispositions légales exactes applicables à votre situation.
Notre système couvre deux cadres juridiques complémentaires qui créent ensemble une protection complète. Le Règlement Général sur la Protection des Données (RGPD), pleinement applicable depuis 2018, vous donne en vertu de l'Art. 22 le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé qui produit des effets juridiques ou vous affecte de manière significative. Cela inclut le droit au réexamen humain, à exprimer votre point de vue, à contester la décision et à des informations utiles sur la logique sous-jacente (Art. 13-15). Ces droits s'appliquent dès maintenant.
Le Règlement IA de l'UE (Règlement 2024/1689), entré en vigueur le 1er août 2024, ajoute une couche complète de réglementation ciblant spécifiquement les systèmes IA. Les pratiques interdites au titre de l'Art. 5 - y compris le scoring social, la reconnaissance des émotions au travail et l'IA manipulatrice - sont interdites depuis le 2 février 2025, et l'Art. 85 permet déjà de déposer une plainte auprès des autorités de surveillance du marché. Le cadre complet pour les systèmes IA à haut risque (scoring crédit, assurance, recrutement IA, algorithmes d'administration publique) devient applicable le 2 août 2026, avec des obligations couvrant la gestion des risques, la transparence, le contrôle humain, la documentation technique et les droits individuels incluant le droit à l'explication sous l'Art. 86.
Vous décrivez votre situation en langage simple - ce qui s'est passé, quelle organisation a pris la décision, quelle était la décision. Notre IA génère une lettre complète qui identifie le cadre juridique applicable, cite les articles spécifiques, formule les demandes légalement requises (réexamen humain, explication, objection) et fixe un délai de réponse conformément à l'Art. 12(3) du RGPD.
Décrivez votre situation - Dites-nous ce qui s'est passé : quelle organisation a pris une décision exclusivement automatisée vous concernant, quelle était la décision et comment elle vous affecte. Qu'il s'agisse d'un refus de crédit, d'une décision d'embauche, d'un deepfake ou d'une autre décision automatisée ayant des effets juridiques ou significatifs, nous adaptons la lettre à votre cas.
Examinez votre lettre personnalisée - Notre IA génère une lettre complète citant les articles RGPD applicables aujourd'hui (Art. 13-15, 22, 77, 79, 82) et, le cas échéant, les dispositions du Règlement IA déjà applicables (Art. 5 pratiques interdites, Art. 85 plaintes) ou s'appliquant à compter d'août 2026 (Art. 26(11), 50, 86).
Soumettez et suivez - Téléchargez votre lettre au format DOCX ou PDF. Envoyez-la au DPO de l'organisation, à l'autorité de régulation, ou aux deux. La lettre crée un dossier juridiquement opposable. Si l'organisation ne répond pas adéquatement, vous disposez de motifs documentés pour une plainte formelle auprès de la CNIL ou de l'autorité IA compétente.
Répondez à quelques questions et obtenez votre lettre professionnelle en minutes
Répondez à quelques questions et obtenez votre lettre professionnelle en minutes
Sélectionnez le type de document qui correspond le mieux à votre situation.
Paiement par document. Pas d'abonnement. Pas de frais cachés.
Consultation d'un avocat pour ce type de lettre
coûte 200-500 €/h et prend des jours. DocuGov le fait en minutes pour 9 €.
$200+
Avocat
$9
DocuGov
Lettre IA
Parfait pour les cas simples
IA + Revue d'expert
Pour les affaires complexes ou importantes
Le Règlement IA et le RGPD forment ensemble le cadre de droits individuels le plus complet au monde pour contester les décisions algorithmiques et pilotées par l'IA.
Le RGPD Art. 22 est votre droit immédiat et applicable. Si un algorithme a pris une décision vous concernant ayant des effets juridiques ou significatifs - refus de crédit, décision d'assurance, résultat d'embauche, décision de prestations - vous pouvez vous y opposer, exiger un réexamen humain et demander une explication. L'organisation doit répondre dans un mois.
À compter du 2 août 2026, le Règlement IA ajoutera des exigences sectorielles. Les systèmes IA à haut risque devront satisfaire des obligations strictes de gestion des risques (Art. 9), gouvernance des données (Art. 10), transparence envers les opérateurs (Art. 13), contrôle humain (Art. 14) et précision (Art. 15). Certains opérateurs (notamment les organismes publics et ceux relevant de l'Annexe III 5(b) et 5(c)) devront réaliser des évaluations d'impact sur les droits fondamentaux (Art. 27). L'Art. 26(11) exigera des opérateurs qu'ils expliquent les décisions IA aux personnes concernées. L'Art. 86 créera un droit explicite à l'explication pour les décisions IA à haut risque de l'Annexe III (hors catégorie 2). Déjà applicable aujourd'hui : l'Art. 85 donne à toute personne le droit de déposer une plainte auprès de l'autorité de surveillance du marché compétente.
Les pratiques interdites portent les sanctions les plus élevées. Les interdictions de l'Art. 5 - scoring social, IA manipulatrice, reconnaissance émotionnelle au travail, surveillance biométrique - sont applicables depuis le 2 février 2025, et l'Art. 85 permet déjà de déposer une plainte auprès des autorités de surveillance. Les violations sont passibles d'amendes jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial - les sanctions les plus sévères de l'histoire réglementaire de l'UE.
Banque a refusé votre prêt par scoring IA ? Invoquez le RGPD Art. 22 et exigez un réexamen humain.
En savoir plusRejeté par un outil de recrutement IA ? Contestez la décision algorithmique et exigez la transparence.
En savoir plusOpposez-vous à toute décision exclusivement automatisée avec effets juridiques - exigez l'intervention humaine.
En savoir plusSignalez les pratiques IA interdites comme le scoring social ou la surveillance émotionnelle.
En savoir plusExigez une explication significative de la façon dont un algorithme a décidé pour vous.
En savoir plusQuelqu'un a créé un deepfake de vous ? Signalez aux plateformes, à la police et aux régulateurs.
En savoir plusRejoignez des milliers de personnes qui ont obtenu des lettres administratives professionnelles sans avocat.