Un algorithme a refusé votre prêt, rejeté votre candidature ou quelqu'un a créé un deepfake de vous. Le droit européen vous donne des droits puissants pour vous défendre. Nous générons des lettres formelles et juridiquement fondées qui invoquent vos droits RGPD (Art. 13-15, 22) et citent le Règlement IA où applicable - créant un dossier juridique documenté auquel les organisations doivent répondre dans un délai de 30 jours.
Cliquez sur votre cas - nous générerons la bonne lettre en quelques minutes
Chaque jour, des systèmes IA prennent des décisions qui affectent profondément la vie des gens. L'algorithme d'une banque rejette votre demande de prêt hypothécaire sur la base de centaines de variables que vous ne voyez jamais. Une IA de recrutement filtre votre CV avant qu'un humain ne le lise. Le modèle d'un assureur fixe votre prime sur la base de comportements que vous ne pouvez pas contester parce que vous ignorez leur existence. L'algorithme d'une administration vous signale comme fraudeur ou refuse votre demande de prestations. Un deepfake de vous circule en ligne, et les plateformes ne font rien.
Ce ne sont pas des scénarios hypothétiques. Le scoring de crédit par IA est utilisé par pratiquement toutes les grandes banques européennes. Plus de 80 % des grandes entreprises utilisent des outils de recrutement alimentés par l'IA. Les compagnies d'assurance en Europe utilisent des modèles algorithmiques pour fixer les primes et rejeter les sinistres. Des administrations publiques de plusieurs États membres de l'UE utilisent l'analytique prédictive pour la détection de fraude et l'éligibilité aux prestations.
Le problème fondamental est le même dans chaque cas : l'algorithme décide, et on ne vous dit pas pourquoi. La lettre de refus dit 'votre demande ne remplit pas nos critères.' Le recruteur envoie un générique 'nous avons décidé de poursuivre avec d'autres candidats.' L'assureur invoque 'l'évaluation des risques.' L'administration dit 'vous ne remplissez pas les conditions d'éligibilité.' Aucun détail. Aucune explication des facteurs déterminants. Aucune possibilité de contester la logique. Aucun humain à qui parler.
La plupart des gens acceptent ces décisions parce qu'ils pensent n'avoir aucun recours. Ils supposent que l'algorithme doit être correct, ou que le contester est trop complexe, trop coûteux ou trop long. C'est faux. Le droit européen offre certains des droits individuels les plus forts au monde en matière de prise de décision algorithmique - mais ces droits sont inutiles si vous ne les exercez pas. Cela nécessite une lettre formelle et juridiquement précise qui cite les bonnes dispositions et oblige l'organisation à répondre.
DocuGov.ai génère des lettres professionnelles et juridiquement fondées pour chaque scénario majeur de droits IA - de la contestation d'un refus algorithmique de crédit au dépôt d'une plainte formelle pour pratique IA interdite auprès de votre autorité nationale. Chaque lettre cite les dispositions légales exactes applicables à votre situation.
Notre système couvre deux cadres juridiques complémentaires qui créent ensemble une protection complète. Le Règlement Général sur la Protection des Données (RGPD), pleinement applicable depuis 2018, vous donne en vertu de l'Art. 22 le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé qui produit des effets juridiques ou vous affecte de manière significative. Cela inclut le droit au réexamen humain, à exprimer votre point de vue, à contester la décision et à des informations utiles sur la logique sous-jacente (Art. 13-15). Ces droits s'appliquent dès maintenant.
Le Règlement IA de l'UE (Règlement 2024/1689), entré en vigueur le 1er août 2024, ajoute une couche complète de réglementation ciblant spécifiquement les systèmes IA. Les pratiques interdites au titre de l'Art. 5 - y compris le scoring social, la reconnaissance des émotions au travail et l'IA manipulatrice - sont interdites depuis le 2 février 2025, et l'Art. 85 permet déjà de déposer une plainte auprès des autorités de surveillance du marché. Le cadre complet pour les systèmes IA à haut risque (scoring crédit, assurance, recrutement IA, algorithmes d'administration publique) devient applicable le 2 août 2026, avec des obligations couvrant la gestion des risques, la transparence, le contrôle humain, la documentation technique et les droits individuels incluant le droit à l'explication sous l'Art. 86.
Vous décrivez votre situation en langage simple - ce qui s'est passé, quelle organisation a pris la décision, quelle était la décision. Notre IA génère une lettre complète qui identifie le cadre juridique applicable, cite les articles spécifiques, formule les demandes légalement requises (réexamen humain, explication, objection) et fixe un délai de réponse conformément à l'Art. 12(3) du RGPD.
Décrivez votre situation - Dites-nous ce qui s'est passé : quelle organisation a pris une décision exclusivement automatisée vous concernant, quelle était la décision et comment elle vous affecte. Qu'il s'agisse d'un refus de crédit, d'une décision d'embauche, d'un deepfake ou d'une autre décision automatisée ayant des effets juridiques ou significatifs, nous adaptons la lettre à votre cas.
Examinez votre lettre personnalisée - Notre IA génère une lettre complète citant les articles RGPD applicables aujourd'hui (Art. 13-15, 22, 77, 79, 82) et, le cas échéant, les dispositions du Règlement IA déjà applicables (Art. 5 pratiques interdites, Art. 85 plaintes) ou s'appliquant à compter d'août 2026 (Art. 26(11), 50, 86).
Soumettez et suivez - Téléchargez votre lettre au format DOCX ou PDF. Envoyez-la au DPO de l'organisation, à l'autorité de régulation, ou aux deux. La lettre crée un dossier juridiquement opposable. Si l'organisation ne répond pas adéquatement, vous disposez de motifs documentés pour une plainte formelle auprès de la CNIL ou de l'autorité IA compétente.
Répondez à quelques questions et obtenez votre lettre professionnelle en minutes
Répondez à quelques questions et obtenez votre lettre professionnelle en minutes
Sélectionnez le type de document qui correspond le mieux à votre situation.
Paiement par document. Pas d'abonnement. Pas de frais cachés.
Consultation d'un avocat pour ce type de lettre
coûte 200-500 €/h et prend des jours. DocuGov le fait en minutes pour 9 €.
$200+
Avocat
$9
DocuGov
Lettre IA
Parfait pour les cas simples
IA + Revue d'expert
Pour les affaires complexes ou importantes
Le Règlement IA et le RGPD forment ensemble le cadre de droits individuels le plus complet au monde pour contester les décisions algorithmiques et pilotées par l'IA.
Le RGPD Art. 22 est votre droit immédiat et applicable. Si un algorithme a pris une décision vous concernant ayant des effets juridiques ou significatifs - refus de crédit, décision d'assurance, résultat d'embauche, décision de prestations - vous pouvez vous y opposer, exiger un réexamen humain et demander une explication. L'organisation doit répondre dans un mois.
À compter du 2 août 2026, le Règlement IA ajoutera des exigences sectorielles. Les systèmes IA à haut risque devront satisfaire des obligations strictes de gestion des risques (Art. 9), gouvernance des données (Art. 10), transparence envers les opérateurs (Art. 13), contrôle humain (Art. 14) et précision (Art. 15). Certains opérateurs (notamment les organismes publics et ceux relevant de l'Annexe III 5(b) et 5(c)) devront réaliser des évaluations d'impact sur les droits fondamentaux (Art. 27). L'Art. 26(11) exigera des opérateurs qu'ils expliquent les décisions IA aux personnes concernées. L'Art. 86 créera un droit explicite à l'explication pour les décisions IA à haut risque de l'Annexe III (hors catégorie 2). Déjà applicable aujourd'hui : l'Art. 85 donne à toute personne le droit de déposer une plainte auprès de l'autorité de surveillance du marché compétente.
Les pratiques interdites portent les sanctions les plus élevées. Les interdictions de l'Art. 5 - scoring social, IA manipulatrice, reconnaissance émotionnelle au travail, surveillance biométrique - sont applicables depuis le 2 février 2025, et l'Art. 85 permet déjà de déposer une plainte auprès des autorités de surveillance. Les violations sont passibles d'amendes jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial - les sanctions les plus sévères de l'histoire réglementaire de l'UE.
Banque a refusé votre prêt par scoring IA ? Invoquez le RGPD Art. 22 et exigez un réexamen humain.
En savoir plusRejeté par un outil de recrutement IA ? Contestez la décision algorithmique et exigez la transparence.
En savoir plusOpposez-vous à toute décision exclusivement automatisée avec effets juridiques - exigez l'intervention humaine.
En savoir plusSignalez les pratiques IA interdites comme le scoring social ou la surveillance émotionnelle.
En savoir plusExigez une explication significative de la façon dont un algorithme a décidé pour vous.
En savoir plusQuelqu'un a créé un deepfake de vous ? Signalez aux plateformes, à la police et aux régulateurs.
En savoir plus6 modèles prêts à personnaliser
Chaque année, des millions de demandes de crédit, de devis d'assurance et de demandes de prêt sont décidées entièrement ou principalement par des systèmes de scoring algorithmiques. Les banques comme BNP Paribas, Société Générale, Crédit Agricole et ING utilisent le scoring de crédit automatisé alimenté par des modèles d'apprentissage automatique qui évaluent des centaines de points de données - de l'historique de paiement et des revenus aux comportements et à l'activité en ligne. Lorsque ces systèmes rejettent votre demande, la lettre de refus n'offre généralement aucune explication significative au-delà d'un générique "votre demande ne remplit pas nos critères." En vertu du droit de l'UE, vous disposez de droits puissants pour contester ces décisions. Le RGPD Article 22 donne à chaque résident de l'UE le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé qui produit des effets juridiques ou l'affecte de manière significative de façon similaire. Le Règlement IA de l'UE (Règlement 2024/1689) classe le scoring de crédit par IA comme système à haut risque au titre de l'Annexe III, Catégorie 5(b), exigeant transparence, contrôle humain et explicabilité. À compter du 2 août 2026, les fournisseurs et opérateurs de tels systèmes devront se conformer à des obligations complètes incluant la gestion des risques, la gouvernance des données, la documentation technique et le contrôle humain obligatoire. La CJUE a confirmé dans l'arrêt SCHUFA (C-634/21, décembre 2023) que le scoring de crédit automatisé peut lui-même constituer une décision au sens de l'Art. 22 RGPD lorsque le score détermine de manière décisive le résultat. DocuGov.ai génère une lettre de recours formelle et juridiquement fondée qui invoque vos droits en vertu du RGPD et du Règlement IA, exige une explication significative de la logique de scoring et demande un réexamen humain de votre dossier.
Les outils de recrutement alimentés par l'IA sont désormais utilisés par la majorité des grandes entreprises européennes. Ces systèmes filtrent les CV, analysent les entretiens vidéo, évaluent la personnalité par des tests ludiques et classent les candidats à l'aide de modèles d'apprentissage automatique - souvent sans aucune intervention humaine dans la phase de présélection. Lorsque vous êtes rejeté après une évaluation pilotée par l'IA, la décision peut être basée sur des schémas que l'algorithme a appris à partir de données historiques d'embauche, qui encodent fréquemment des biais existants liés au genre, à l'âge, à l'origine ethnique, au handicap et au milieu socio-économique. En vertu du droit de l'UE, les décisions algorithmiques d'embauche produisant des effets juridiques ou significatifs sont soumises aux protections du RGPD Art. 22. Le Règlement IA classe explicitement les systèmes d'IA utilisés pour le recrutement comme à haut risque au titre de l'Annexe III, Catégorie 4, imposant des obligations strictes de transparence, de contrôle humain, de tests de biais et de documentation. DocuGov.ai génère une lettre de recours formelle qui invoque ces droits, exige la transparence sur le processus algorithmique et demande un réexamen par un recruteur humain qualifié.
L'Article 22 du Règlement Général sur la Protection des Données (RGPD) est l'un des droits les plus puissants - et les plus sous-utilisés - dont disposent les individus dans l'Union européenne. Il dispose que toute personne a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. Ce droit s'applique dans tous les secteurs : banque, assurance, emploi, administration publique, santé, éducation et tout contexte où un algorithme prend ou influence significativement des décisions vous concernant sans intervention humaine significative. Malgré cette protection juridique forte, la plupart des gens ignorent qu'elle existe et ne l'exercent jamais. Les organisations prennent routinièrement des décisions automatisées - approuver ou rejeter des demandes de prêt, fixer des primes d'assurance, filtrer des candidatures, déterminer l'éligibilité aux prestations - sans informer les individus ni offrir de réexamen humain. Le RGPD exige des organisations qu'elles fournissent des informations utiles sur la logique sous-jacente des décisions automatisées, qu'elles accordent aux individus le droit d'obtenir une intervention humaine, d'exprimer leur point de vue et de contester la décision. DocuGov.ai génère une lettre d'objection Art. 22 formelle qui invoque ces droits clairement et précisément, créant un dossier juridiquement opposable auquel les organisations doivent répondre dans un délai d'un mois (Art. 12(3) RGPD).
Le Règlement IA de l'UE (Règlement 2024/1689) a introduit une interdiction absolue de certaines pratiques d'IA jugées présentant des risques inacceptables pour les droits fondamentaux et la sécurité. Ces interdictions, énoncées à l'Article 5, sont applicables depuis le 2 février 2025 - premières dispositions du Règlement IA à entrer en vigueur. Les organisations déployant des systèmes IA interdits s'exposent au niveau de sanctions le plus élevé : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial total, le montant le plus élevé étant retenu. Les pratiques interdites comprennent : les systèmes IA utilisant des techniques subliminales, manipulatrices ou trompeuses ; l'IA exploitant les vulnérabilités liées à l'âge, au handicap ou à la situation socio-économique ; les systèmes de scoring social ; l'évaluation individuelle du risque d'infraction pénale uniquement sur la base du profilage ; la collecte non ciblée d'images faciales ; la reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement ; la catégorisation biométrique pour déduire des attributs sensibles ; et l'identification biométrique à distance en temps réel dans les espaces publics pour les forces de l'ordre (avec des exceptions étroites). L'Article 85 du Règlement IA donne déjà à toute personne le droit de déposer une plainte auprès de l'autorité de surveillance du marché compétente. DocuGov.ai génère une plainte structurée et juridiquement précise qui identifie la pratique interdite suspectée, cite les dispositions pertinentes de l'Art. 5, et demande une enquête.
Lorsqu'un algorithme prend une décision qui affecte votre vie - refus de crédit, rejet de réclamation d'assurance, candidature écartée, signalement pour fraude ou détermination d'éligibilité aux prestations - vous avez le droit de comprendre pourquoi. Le droit européen de la protection des données et le Règlement IA créent ensemble un cadre robuste pour exiger des explications significatives des décisions algorithmiques. En vertu des articles 13(2)(f), 14(2)(g) et 15(1)(h) du RGPD, les organisations doivent fournir des "informations utiles concernant la logique sous-jacente" en matière de prise de décision automatisée. Le Règlement IA va plus loin : pour les systèmes IA à haut risque, l'Art. 86 créera, à compter du 2 août 2026, un droit explicite à l'explication pour les personnes affectées par des décisions de systèmes IA à haut risque listés à l'Annexe III (hors catégorie 2). L'Art. 26(11) exigera des opérateurs qu'ils puissent expliquer les décisions assistées par l'IA aux personnes concernées. Déjà applicable aujourd'hui : l'Art. 85 permet de déposer une plainte auprès des autorités de surveillance. DocuGov.ai génère une demande d'explication formelle, précise et juridiquement fondée, conçue pour obtenir une réponse substantielle.
Les deepfakes - images, audio et vidéo générés ou manipulés par l'IA qui montrent de manière réaliste des personnes disant ou faisant des choses qu'elles n'ont jamais faites - sont devenus l'un des préjudices numériques les plus urgents des années 2020. Le cadre juridique pour lutter contre les deepfakes en Europe s'est considérablement renforcé. Aujourd'hui, vos instruments les plus puissants sont le RGPD (l'Art. 9 protège les données biométriques ; l'Art. 17 vous donne le droit à l'effacement) et le droit pénal national. En Italie, la loi n° 132/2025, effective depuis octobre 2025, crée une infraction pénale spécifique pour la diffusion illicite de contenus générés ou altérés par l'IA (deepfakes), punie de un à cinq ans d'emprisonnement. En France, les dispositions relatives à l'usurpation d'identité (Art. 226-4-1 du Code pénal), au harcèlement, à la diffamation et à l'atteinte à la vie privée s'appliquent. À compter du 2 août 2026, le Règlement IA Art. 50 ajoutera des obligations de divulgation obligatoires pour les opérateurs de systèmes IA générant des deepfakes ; les manquements seront passibles d'amendes jusqu'à 7,5 millions d'euros ou 1,5 % du CA mondial. DocuGov.ai génère une plainte complète qui : (1) signale le deepfake aux plateformes en exigeant le retrait, (2) dépose une plainte formelle auprès des forces de l'ordre, et (3) invoque vos droits en vertu du RGPD, du Règlement IA et du droit pénal national.
Rejoignez des milliers de personnes qui ont obtenu des lettres administratives professionnelles sans avocat.