Un algoritmo rechazó su préstamo, descartó su candidatura o alguien creó un deepfake suyo. El derecho europeo le otorga derechos poderosos para defenderse. Generamos cartas formales y jurídicamente fundamentadas que invocan sus derechos RGPD (Art. 13-15, 22) y citan el Reglamento IA donde sea aplicable - creando un expediente jurídico documentado al que las organizaciones deben responder en un plazo de 30 días.
Haga clic en su caso - generaremos la carta correcta en minutos
Cada día, sistemas IA toman decisiones que afectan profundamente la vida de las personas. El algoritmo de un banco rechaza su solicitud de hipoteca basándose en cientos de variables que usted nunca ve. Una IA de contratación filtra su CV antes de que un humano lo lea. El modelo de una aseguradora fija su prima basándose en patrones de comportamiento que no puede impugnar porque desconoce su existencia. El algoritmo de una administración le señala como defraudador o rechaza su solicitud de prestaciones. Un deepfake suyo circula en línea y las plataformas no hacen nada.
No son escenarios hipotéticos. El scoring crediticio por IA es utilizado por prácticamente todos los grandes bancos europeos. Más del 80 % de las grandes empresas utilizan herramientas de contratación impulsadas por IA. Las compañías de seguros en Europa utilizan modelos algorítmicos para fijar primas y rechazar siniestros. Administraciones públicas de varios Estados miembros utilizan analítica predictiva para detección de fraude y elegibilidad para prestaciones.
El problema fundamental es el mismo en cada caso: el algoritmo decide, y a usted no le dicen por qué. La carta de rechazo dice 'su solicitud no cumple nuestros criterios.' El reclutador envía un genérico 'hemos decidido continuar con otros candidatos.' La aseguradora cita 'evaluación de riesgos.' La administración dice 'no cumple los requisitos de elegibilidad.' Sin detalles. Sin explicación de qué factores importaron. Sin posibilidad de impugnar la lógica. Sin humano con quien hablar.
La mayoría de las personas aceptan estas decisiones porque creen que no tienen recurso. Asumen que el algoritmo debe ser correcto, o que impugnarlo es demasiado complejo, costoso o lento. Esto es erróneo. El derecho europeo proporciona algunos de los derechos individuales más fuertes del mundo en materia de decisiones algorítmicas - pero estos derechos son inútiles si no los ejerce. Eso requiere una carta formal y jurídicamente precisa que cite las disposiciones correctas y obligue a la organización a responder.
DocuGov.ai genera cartas profesionales y jurídicamente fundamentadas para cada escenario importante de derechos IA - desde impugnar un rechazo algorítmico de crédito hasta presentar una reclamación formal por práctica IA prohibida ante su autoridad nacional. Cada carta cita las disposiciones legales exactas aplicables.
Nuestro sistema cubre dos marcos jurídicos complementarios que juntos crean protección integral. El Reglamento General de Protección de Datos (RGPD), plenamente aplicable desde 2018, le otorga bajo el Art. 22 el derecho a no ser objeto de una decisión basada únicamente en tratamiento automatizado que produzca efectos jurídicos o le afecte significativamente. Esto incluye el derecho a revisión humana, expresar su punto de vista, impugnar la decisión e información significativa sobre la lógica aplicada (Art. 13-15). Estos derechos se aplican ahora mismo.
El Reglamento IA de la UE (Reglamento 2024/1689), en vigor desde el 1 de agosto de 2024, añade una capa regulatoria integral dirigida específicamente a los sistemas IA. Las prácticas prohibidas bajo el Art. 5 - incluyendo scoring social, reconocimiento emocional en el trabajo e IA manipulativa - están prohibidas desde el 2 de febrero de 2025, y el Art. 85 ya permite presentar reclamaciones ante las autoridades de vigilancia del mercado. El marco completo para sistemas IA de alto riesgo (scoring crediticio, seguros, contratación IA, algoritmos de administración pública) será aplicable el 2 de agosto de 2026, con obligaciones de gestión de riesgos, transparencia, supervisión humana, documentación técnica y derechos individuales incluyendo el derecho a explicación bajo el Art. 86.
Usted describe su situación en lenguaje sencillo - qué ocurrió, qué organización tomó la decisión, cuál fue la decisión. Nuestra IA genera una carta completa que identifica el marco jurídico aplicable, cita los artículos específicos, formula las solicitudes legalmente requeridas (revisión humana, explicación, objeción) y fija un plazo de respuesta conforme al Art. 12(3) del RGPD.
Describa su situación - Cuéntenos qué ocurrió: qué organización tomó una decisión exclusivamente automatizada sobre usted, cuál fue la decisión y cómo le afecta. Sea un rechazo de crédito, decisión de contratación, deepfake u otra decisión automatizada con efectos jurídicos o significativos, adaptamos la carta a su caso.
Revise su carta personalizada - Nuestra IA genera una carta completa citando los artículos RGPD aplicables hoy (Art. 13-15, 22, 77, 79, 82) y, cuando sea relevante, las disposiciones del Reglamento IA ya aplicables (Art. 5 prácticas prohibidas, Art. 85 reclamaciones) o que se aplicarán a partir de agosto 2026 (Art. 26(11), 50, 86).
Presente y haga seguimiento - Descargue su carta en formato DOCX o PDF. Envíela al DPD de la organización, a la autoridad reguladora, o a ambos. La carta crea un expediente jurídicamente vinculante. Si la organización no responde adecuadamente, tiene motivos documentados para una reclamación formal ante la AEPD o la autoridad IA competente.
Responda unas preguntas y obtenga su carta profesional en minutos
Responda unas preguntas y obtenga su carta profesional en minutos
Selecciona el tipo de documento que mejor se adapte a tu situación.
Paga por documento. Sin suscripciones. Sin costos ocultos.
Consulta con abogado para este tipo de carta
cuesta 200-500 €/h y tarda días. DocuGov lo hace en minutos por 9 €.
$200+
Abogado
$9
DocuGov
Carta con IA
Perfecto para casos sencillos
IA + Revisión de experto
Para asuntos complejos o importantes
El Reglamento IA y el RGPD forman juntos el marco de derechos individuales más completo del mundo para impugnar decisiones algorítmicas e impulsadas por IA.
El RGPD Art. 22 es su derecho inmediato y aplicable. Si un algoritmo tomó una decisión sobre usted con efectos jurídicos o significativos - rechazo de crédito, decisión de seguro, resultado de contratación, decisión de prestaciones - puede objetar, exigir revisión humana y solicitar una explicación. La organización debe responder en un mes.
A partir del 2 de agosto de 2026, el Reglamento IA añadirá requisitos sectoriales. Los sistemas IA de alto riesgo deberán cumplir obligaciones estrictas de gestión de riesgos (Art. 9), gobernanza de datos (Art. 10), transparencia hacia operadores (Art. 13), supervisión humana (Art. 14) y precisión (Art. 15). Ciertos operadores (en particular organismos públicos y los de las categorías Anexo III 5(b) y 5(c)) deberán realizar evaluaciones de impacto en derechos fundamentales (Art. 27). El Art. 26(11) exigirá a los operadores explicar las decisiones IA a las personas afectadas. El Art. 86 creará un derecho explícito a la explicación para decisiones IA de alto riesgo del Anexo III (excluida categoría 2). Ya aplicable hoy: el Art. 85 otorga a cualquier persona el derecho a presentar reclamación ante la autoridad de vigilancia del mercado competente.
Las prácticas prohibidas conllevan las sanciones más altas. Las prohibiciones del Art. 5 - scoring social, IA manipulativa, reconocimiento emocional en el trabajo, vigilancia biométrica - son aplicables desde el 2 de febrero de 2025, y el Art. 85 ya permite presentar reclamaciones ante las autoridades de vigilancia. Las infracciones conllevan multas de hasta 35 millones de euros o el 7 % del volumen de negocios mundial - las sanciones más severas de la historia regulatoria de la UE.
¿Banco rechazó su préstamo por scoring IA? Invoque el RGPD Art. 22 y exija revisión humana.
Más información¿Rechazado por herramienta de contratación IA? Impugne la decisión algorítmica y exija transparencia.
Más informaciónObjete cualquier decisión exclusivamente automatizada con efectos jurídicos - exija intervención humana.
Más informaciónDenuncie prácticas IA prohibidas como scoring social o vigilancia emocional.
Más informaciónExija una explicación significativa de cómo un algoritmo decidió sobre usted.
Más información¿Alguien creó un deepfake suyo? Denuncie a plataformas, policía y reguladores.
Más información6 plantillas listas para personalizar
Cada año, millones de solicitudes de crédito, cotizaciones de seguros y solicitudes de préstamo son decididas total o principalmente por sistemas de scoring algorítmicos. Bancos como Santander, BBVA, CaixaBank e ING utilizan scoring crediticio automatizado impulsado por modelos de aprendizaje automático que evalúan cientos de puntos de datos - desde el historial de pagos e ingresos hasta patrones de comportamiento. Cuando estos sistemas rechazan su solicitud, la carta de denegación típicamente no ofrece una explicación significativa más allá de un genérico "su solicitud no cumple nuestros criterios." Bajo la legislación de la UE, usted tiene derechos poderosos para impugnar estas decisiones. El RGPD Artículo 22 otorga a cada residente de la UE el derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos o le afecte significativamente de modo similar. El Reglamento IA de la UE (Reglamento 2024/1689) clasifica el scoring crediticio por IA como sistema de alto riesgo en el Anexo III, Categoría 5(b), exigiendo transparencia, supervisión humana y explicabilidad. A partir del 2 de agosto de 2026, los proveedores y operadores de tales sistemas deberán cumplir obligaciones integrales incluyendo gestión de riesgos, gobernanza de datos, documentación técnica y revisión humana obligatoria. El TJUE confirmó en la sentencia SCHUFA (C-634/21, diciembre 2023) que el scoring crediticio automatizado puede en sí mismo constituir una decisión bajo el Art. 22 del RGPD cuando la puntuación determina decisivamente el resultado. DocuGov.ai genera una carta de recurso formal y jurídicamente fundamentada que invoca sus derechos bajo el RGPD y el Reglamento IA, exige una explicación significativa de la lógica del scoring y solicita una revisión humana de su caso.
Las herramientas de contratación impulsadas por IA son utilizadas ahora por la mayoría de las grandes empresas europeas. Estos sistemas filtran currículos, analizan entrevistas en vídeo, evalúan la personalidad mediante pruebas gamificadas y clasifican candidatos mediante modelos de aprendizaje automático - frecuentemente sin intervención humana en la fase de preselección. Cuando es rechazado tras una evaluación por IA, la decisión puede basarse en patrones aprendidos de datos históricos de contratación, que frecuentemente codifican sesgos existentes relacionados con género, edad, etnia, discapacidad y origen socioeconómico. Bajo la legislación de la UE, las decisiones algorítmicas de contratación que producen efectos jurídicos o significativos están sujetas a las protecciones del RGPD Art. 22. El Reglamento IA clasifica explícitamente los sistemas IA utilizados para contratación como de alto riesgo en el Anexo III, Categoría 4. Los candidatos tienen derecho a saber si se utilizó un sistema IA, recibir una explicación significativa y solicitar revisión humana. DocuGov.ai genera una carta de recurso formal que invoca estos derechos, exige transparencia sobre el proceso algorítmico y solicita reconsideración por un reclutador humano cualificado.
El Artículo 22 del Reglamento General de Protección de Datos (RGPD) es uno de los derechos más poderosos - y más infrautilizados - disponibles para las personas en la Unión Europea. Establece que toda persona tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en ella o la afecte significativamente de modo similar. Este derecho se aplica en todos los sectores: banca, seguros, empleo, administración pública, sanidad, educación y cualquier contexto donde un algoritmo tome o influya significativamente en decisiones sobre usted sin intervención humana significativa. A pesar de esta fuerte protección legal, la mayoría de las personas desconocen que existe y nunca la ejercen. Las organizaciones toman rutinariamente decisiones automatizadas - aprobando o rechazando solicitudes de préstamo, fijando primas de seguros, filtrando candidaturas, determinando elegibilidad para prestaciones - sin informar a las personas ni ofrecer revisión humana. El RGPD exige a las organizaciones proporcionar información significativa sobre la lógica aplicada en las decisiones automatizadas, otorgar a las personas el derecho a obtener intervención humana, expresar su punto de vista e impugnar la decisión. DocuGov.ai genera una carta de objeción formal Art. 22 que invoca estos derechos clara y precisamente, creando un expediente jurídicamente vinculante al que las organizaciones deben responder en un plazo de un mes (Art. 12(3) RGPD).
El Reglamento IA de la UE (Reglamento 2024/1689) introdujo una prohibición absoluta de ciertas prácticas de IA consideradas de riesgo inaceptable para los derechos fundamentales y la seguridad. Estas prohibiciones, establecidas en el Artículo 5, son aplicables desde el 2 de febrero de 2025. Las organizaciones que desplieguen sistemas IA prohibidos se enfrentan al nivel más alto de sanciones: hasta 35 millones de euros o el 7 % del volumen de negocios anual mundial total. Las prácticas prohibidas incluyen: sistemas IA que utilizan técnicas subliminales, manipulativas o engañosas; IA que explota vulnerabilidades por edad, discapacidad o situación socioeconómica; sistemas de scoring social; evaluación individual del riesgo de delito basada únicamente en perfilado; recopilación no selectiva de imágenes faciales; reconocimiento de emociones en el trabajo o centros educativos; categorización biométrica para inferir atributos sensibles; e identificación biométrica remota en tiempo real en espacios públicos. El Artículo 85 del Reglamento IA ya otorga a cualquier persona el derecho a presentar una reclamación ante la autoridad de vigilancia del mercado competente. DocuGov.ai genera una reclamación estructurada y jurídicamente precisa.
Cuando un algoritmo toma una decisión que afecta su vida - denegación de crédito, rechazo de reclamación de seguro, candidatura descartada, señalamiento por fraude o determinación de elegibilidad para prestaciones - tiene derecho a entender por qué. El derecho europeo de protección de datos y el Reglamento IA crean conjuntamente un marco robusto para exigir explicaciones significativas. Bajo los artículos 13(2)(f), 14(2)(g) y 15(1)(h) del RGPD, las organizaciones deben proporcionar "información significativa sobre la lógica aplicada" en la toma de decisiones automatizadas. El Reglamento IA va más lejos: a partir del 2 de agosto de 2026, el Art. 86 creará un derecho explícito a la explicación para personas afectadas por decisiones de sistemas IA de alto riesgo listados en el Anexo III (excluida la categoría 2). El Art. 26(11) exigirá a los operadores explicar las decisiones asistidas por IA. Ya aplicable hoy: el Art. 85 permite presentar reclamación ante las autoridades de vigilancia. DocuGov.ai genera una solicitud de explicación formal, precisa y jurídicamente fundamentada, diseñada para obtener una respuesta sustantiva.
Los deepfakes - imágenes, audio y vídeo generados o manipulados por IA que muestran de forma realista a personas diciendo o haciendo cosas que nunca hicieron - se han convertido en uno de los daños digitales más urgentes de la década de 2020. El marco legal para abordar los deepfakes en Europa se ha fortalecido significativamente. Hoy, sus instrumentos más poderosos son el RGPD (el Art. 9 protege los datos biométricos; el Art. 17 le da el derecho a la supresión) y el derecho penal nacional. Italia promulgó la Ley 132/2025, que crea un delito específico para la difusión ilícita de contenido generado por IA (deepfakes), castigado con uno a cinco años de prisión. En España, las disposiciones relativas a la usurpación de identidad, injurias, calumnias, acoso y delitos contra la intimidad del Código Penal son aplicables. A partir del 2 de agosto de 2026, el Reglamento IA Art. 50 añadirá obligaciones de divulgación obligatorias para los operadores de sistemas IA que generen deepfakes; los incumplimientos serán sancionables con multas de hasta 7,5 millones de euros o el 1,5 % del volumen de negocios mundial. DocuGov.ai genera una reclamación completa que: (1) denuncia el deepfake a las plataformas exigiendo retirada, (2) presenta denuncia formal ante las fuerzas del orden, y (3) invoca sus derechos bajo el RGPD, el Reglamento IA y el derecho penal nacional.
Únete a miles de personas que obtuvieron cartas administrativas profesionales sin necesidad de un abogado.