Contexto · Marco Legal
¿Qué es el Habeas Data
y por qué le importa a la IA?
El Habeas Data —del latín "que tengas los datos"— es el derecho fundamental de toda persona a conocer, actualizar, rectificar y eliminar la información que sobre ella existe en bases de datos y archivos de terceros. En Colombia está protegido por el Artículo 15 de la Constitución y desarrollado por la Ley Estatutaria 1581 de 2012.
Con la IA, este derecho adquiere una dimensión nueva: los modelos de lenguaje fueron entrenados con datos públicos de internet que incluyen información sobre personas reales. Pueden recordar, sintetizar, o —peor— inventar datos sobre ti con una confianza que parece auténtica. Por eso la responsabilidad ética al usar IA no es opcional: es una extensión directa de un derecho constitucional.
"La responsabilidad es intransferible. La IA procesa, pero el humano decide, protege y responde. El Habeas Data no es una opción — es un derecho fundamental inalienable."
Principio XAI · IA para Creadores
🇨🇴
Colombia · Ley 1581/2012
Regula el tratamiento de datos personales. Toda empresa o persona que use datos de terceros debe registrarse ante la SIC (Superintendencia de Industria y Comercio) y obtener consentimiento informado.
🇪🇺
Europa · RGPD 2018
El Reglamento General de Protección de Datos es el referente global. Incluye el derecho al olvido: puedes pedir a Google o a plataformas de IA que eliminen datos tuyos de sus sistemas.
🤖
IA Act · UE 2024
La primera ley específica sobre IA en el mundo. Clasifica los sistemas de IA por nivel de riesgo y obliga a los proveedores a documentar los datos usados en entrenamiento y a garantizar supervisión humana en decisiones de alto impacto.
El Compás Humano
Cinco perfiles,
una misma responsabilidad.
La ética en la IA no es un tema abstracto reservado para filósofos o legisladores. Es una práctica cotidiana que cambia de forma según quién eres y qué haces. Aquí están los cinco perfiles con sus responsabilidades concretas.
Privacidad Universal
01. El Ciudadano de a Pie
Para la persona del común, la IA debe ser una herramienta de empoderamiento, no de engaño. Su deber ético principal es el escepticismo saludable — verificar antes de compartir, proteger antes de confiar.
- Cero datos sensibles en modelos públicos: Nunca entregues cédula, dirección, datos bancarios o información familiar a ChatGPT, Claude o Gemini. Esos datos pueden quedar en logs de entrenamiento.
- Verificación antes de compartir: Una respuesta de IA confiada y bien redactada puede ser completamente falsa. Confirma la fuente antes de reenviarla como verdad.
- Humanidad en momentos críticos: No uses IA para sustituir el contacto humano en salud mental, duelo o crisis. La empatía simulada no reemplaza la real.
Integridad de Identidad
02. El Autor y Creador
Escritores, influencers y artistas tienen la responsabilidad de proteger la integridad de la voz — propia y ajena. La IA debe ayudar a pulir, no a suplantar ni plagiar.
- Transparencia sustancial: Si la IA tuvo un peso decisivo en la creación — no solo corrección ortográfica sino estructura, argumento o voz — decláralo. La honestidad construye audiencias duraderas.
- No plagiarás estilos vivos: Usar un prompt para imitar exactamente a un autor vivo identificable es una violación ética y potencialmente legal. Inspirarse es legítimo; suplantar, no.
- Deepfakes con consentimiento: No clones voces, rostros o estilos de terceros sin consentimiento explícito y documentado. HeyGen y herramientas similares ofrecen alternativas legales con tus propios datos.
- Trazabilidad del proceso: Guarda borradores, notas y versiones. Tu historial creativo es la única firma que ningún detector puede refutar.
Secreto Profesional
03. El Profesional Experto
Médicos, abogados, contadores y psicólogos enfrentan el mayor riesgo: el sesgo de automatización y la violación involuntaria del secreto profesional. El cliente confió datos sensibles en ti, no en la nube.
Solución XAI: Filtro de Intercepción Local
Si manejas cientos de casos y necesitas apoyo de IA sin violar el secreto profesional, usa este flujo:
- Un script local reemplaza nombres reales por etiquetas (
CLIENTE_01, PACIENTE_A).
- Envías el documento anonimizado a la IA para análisis jurídico, médico o contable.
- El sistema recibe la respuesta y vuelve a mapear las etiquetas a nombres reales solo en tu pantalla.
Los datos reales nunca tocan la nube. Herramientas como Ollama permiten correr modelos locales sin conexión a internet para los casos más sensibles.
- Supervisión humana siempre: Ningún diagnóstico, contrato o declaración tributaria sale sin revisión humana exhaustiva. La IA reduce tiempo, no responsabilidad.
- Explica el porqué: Si usas IA para recomendar algo a un cliente, debes poder explicar el razonamiento sin depender del output de la máquina. Si no puedes, no lo uses.
Soberanía de Datos
04. El Representante del Estado
Para políticos y funcionarios, la IA debe regirse por el principio de Equidad y Transparencia Radical. Los datos del Estado son datos del ciudadano — no del proveedor tecnológico.
- IA soberana o IA auditada: Los datos del Estado deben procesarse en infraestructuras con control nacional o en contratos que garanticen auditoría independiente. La soberanía de datos es soberanía política.
- Auditoría de sesgos: Los algoritmos usados en asignación de subsidios, selección de funcionarios o vigilancia deben auditarse para garantizar que no excluyen grupos vulnerables de forma sistemática.
- Rendición de cuentas humana: El Estado nunca puede culpar a "el algoritmo". El funcionario que autorizó el sistema es responsable de sus consecuencias.
Dignidad Laboral
05. El Trabajador y la Empresa
La ética laboral en la era de la IA se basa en la Transición Justa. La automatización que no incluye a las personas desplazadas es una falla moral, no solo operativa.
- No vigilancia invasiva: Monitorear cada clic, pausa o expresión facial de un trabajador con IA no es gestión — es control deshumanizante que viola la dignidad laboral.
- Reskilling antes que despido: Antes de reemplazar un rol con automatización, la organización tiene la responsabilidad ética de invertir en la reconversión de la persona que lo ocupa.
- Co-diseño: Los trabajadores que usarán una herramienta de IA deben participar en su diseño e implementación. Una herramienta diseñada sin quien la usa siempre falla.