M
Lección 15 · Marco Ético · IA para Creadores

Ética & Habeas Data

"La IA es el espejo de nuestra propia humanidad. Si la usamos sin valores ni protección de datos, solo amplificaremos nuestras sombras."

5Perfiles de responsabilidad
Ley 1581Habeas Data Colombia
RGPDReferente europeo
LibreSin registro
Contexto · Marco Legal

¿Qué es el Habeas Data
y por qué le importa a la IA?

El Habeas Data —del latín "que tengas los datos"— es el derecho fundamental de toda persona a conocer, actualizar, rectificar y eliminar la información que sobre ella existe en bases de datos y archivos de terceros. En Colombia está protegido por el Artículo 15 de la Constitución y desarrollado por la Ley Estatutaria 1581 de 2012.

Con la IA, este derecho adquiere una dimensión nueva: los modelos de lenguaje fueron entrenados con datos públicos de internet que incluyen información sobre personas reales. Pueden recordar, sintetizar, o —peor— inventar datos sobre ti con una confianza que parece auténtica. Por eso la responsabilidad ética al usar IA no es opcional: es una extensión directa de un derecho constitucional.

"La responsabilidad es intransferible. La IA procesa, pero el humano decide, protege y responde. El Habeas Data no es una opción — es un derecho fundamental inalienable."

Principio XAI · IA para Creadores
🇨🇴
Colombia · Ley 1581/2012
Regula el tratamiento de datos personales. Toda empresa o persona que use datos de terceros debe registrarse ante la SIC (Superintendencia de Industria y Comercio) y obtener consentimiento informado.
🇪🇺
Europa · RGPD 2018
El Reglamento General de Protección de Datos es el referente global. Incluye el derecho al olvido: puedes pedir a Google o a plataformas de IA que eliminen datos tuyos de sus sistemas.
🤖
IA Act · UE 2024
La primera ley específica sobre IA en el mundo. Clasifica los sistemas de IA por nivel de riesgo y obliga a los proveedores a documentar los datos usados en entrenamiento y a garantizar supervisión humana en decisiones de alto impacto.
⚠️ Protocolo de Emergencia

Si la IA alucina
con datos sensibles.

Las alucinaciones de IA no son solo errores técnicos molestos — cuando involucran datos de personas reales pueden constituir una violación al Habeas Data, al buen nombre y a la honra, derechos protegidos por el Artículo 15 de la Constitución colombiana.

⚠️ ¿Qué hacer si una IA genera información falsa sobre ti o un tercero?
  • Captura inmediata: Toma captura de pantalla del prompt y la respuesta falsa antes de cualquier acción. Es tu evidencia.
  • Derecho de Rectificación: Reporta el contenido en la plataforma citando violación al Habeas Data y al buen nombre. Plataformas como OpenAI, Anthropic y Google tienen formularios específicos.
  • Elimina el historial: Borra el chat de tu historial para que el modelo no refuerce ese error en interacciones futuras. En la mayoría de plataformas: Configuración → Historial de datos.
  • Aclaratoria pública: Si publicaste una alucinación por error, es tu deber corregir públicamente aclarando el fallo técnico. El silencio también es responsabilidad.
  • Escala si es grave: Si el daño es significativo —reputación profesional, datos médicos, información financiera— puedes radicar queja ante la SIC en Colombia o acudir a la acción de tutela.
El Compás Humano

Cinco perfiles,
una misma responsabilidad.

La ética en la IA no es un tema abstracto reservado para filósofos o legisladores. Es una práctica cotidiana que cambia de forma según quién eres y qué haces. Aquí están los cinco perfiles con sus responsabilidades concretas.

Privacidad Universal
01. El Ciudadano de a Pie

Para la persona del común, la IA debe ser una herramienta de empoderamiento, no de engaño. Su deber ético principal es el escepticismo saludable — verificar antes de compartir, proteger antes de confiar.

  • Cero datos sensibles en modelos públicos: Nunca entregues cédula, dirección, datos bancarios o información familiar a ChatGPT, Claude o Gemini. Esos datos pueden quedar en logs de entrenamiento.
  • Verificación antes de compartir: Una respuesta de IA confiada y bien redactada puede ser completamente falsa. Confirma la fuente antes de reenviarla como verdad.
  • Humanidad en momentos críticos: No uses IA para sustituir el contacto humano en salud mental, duelo o crisis. La empatía simulada no reemplaza la real.
Integridad de Identidad
02. El Autor y Creador

Escritores, influencers y artistas tienen la responsabilidad de proteger la integridad de la voz — propia y ajena. La IA debe ayudar a pulir, no a suplantar ni plagiar.

  • Transparencia sustancial: Si la IA tuvo un peso decisivo en la creación — no solo corrección ortográfica sino estructura, argumento o voz — decláralo. La honestidad construye audiencias duraderas.
  • No plagiarás estilos vivos: Usar un prompt para imitar exactamente a un autor vivo identificable es una violación ética y potencialmente legal. Inspirarse es legítimo; suplantar, no.
  • Deepfakes con consentimiento: No clones voces, rostros o estilos de terceros sin consentimiento explícito y documentado. HeyGen y herramientas similares ofrecen alternativas legales con tus propios datos.
  • Trazabilidad del proceso: Guarda borradores, notas y versiones. Tu historial creativo es la única firma que ningún detector puede refutar.
Secreto Profesional
03. El Profesional Experto

Médicos, abogados, contadores y psicólogos enfrentan el mayor riesgo: el sesgo de automatización y la violación involuntaria del secreto profesional. El cliente confió datos sensibles en ti, no en la nube.

Solución XAI: Filtro de Intercepción Local

Si manejas cientos de casos y necesitas apoyo de IA sin violar el secreto profesional, usa este flujo:

  1. Un script local reemplaza nombres reales por etiquetas (CLIENTE_01, PACIENTE_A).
  2. Envías el documento anonimizado a la IA para análisis jurídico, médico o contable.
  3. El sistema recibe la respuesta y vuelve a mapear las etiquetas a nombres reales solo en tu pantalla.

Los datos reales nunca tocan la nube. Herramientas como Ollama permiten correr modelos locales sin conexión a internet para los casos más sensibles.

  • Supervisión humana siempre: Ningún diagnóstico, contrato o declaración tributaria sale sin revisión humana exhaustiva. La IA reduce tiempo, no responsabilidad.
  • Explica el porqué: Si usas IA para recomendar algo a un cliente, debes poder explicar el razonamiento sin depender del output de la máquina. Si no puedes, no lo uses.
Soberanía de Datos
04. El Representante del Estado

Para políticos y funcionarios, la IA debe regirse por el principio de Equidad y Transparencia Radical. Los datos del Estado son datos del ciudadano — no del proveedor tecnológico.

  • IA soberana o IA auditada: Los datos del Estado deben procesarse en infraestructuras con control nacional o en contratos que garanticen auditoría independiente. La soberanía de datos es soberanía política.
  • Auditoría de sesgos: Los algoritmos usados en asignación de subsidios, selección de funcionarios o vigilancia deben auditarse para garantizar que no excluyen grupos vulnerables de forma sistemática.
  • Rendición de cuentas humana: El Estado nunca puede culpar a "el algoritmo". El funcionario que autorizó el sistema es responsable de sus consecuencias.
Dignidad Laboral
05. El Trabajador y la Empresa

La ética laboral en la era de la IA se basa en la Transición Justa. La automatización que no incluye a las personas desplazadas es una falla moral, no solo operativa.

  • No vigilancia invasiva: Monitorear cada clic, pausa o expresión facial de un trabajador con IA no es gestión — es control deshumanizante que viola la dignidad laboral.
  • Reskilling antes que despido: Antes de reemplazar un rol con automatización, la organización tiene la responsabilidad ética de invertir en la reconversión de la persona que lo ocupa.
  • Co-diseño: Los trabajadores que usarán una herramienta de IA deben participar en su diseño e implementación. Una herramienta diseñada sin quien la usa siempre falla.
Aplicación Práctica

Ética en cada herramienta
del curso.

La ética no es una lección aparte — es una capa que aplica cada vez que usas cualquier herramienta de IA. Esta tabla muestra los riesgos específicos a tener en cuenta por herramienta y qué hacer al respecto.

HerramientaRiesgo ético principalBuena práctica
NotebookLMSubir documentos confidenciales de clientesSolo fuentes públicas o con consentimiento documentado
Claude / ChatGPTIngresar datos personales de terceros (nombres, cédulas, historiales)Anonimizar antes de enviar; usar Claude para el análisis, no para el almacenamiento
Gemini + WorkspaceConectar Drive con datos sensibles sin revisar permisos de la IAAuditar qué archivos accede Gemini; separar Drive personal de Drive profesional
HeyGenClonar la voz o imagen de otra persona sin consentimientoSolo clonar tu propia voz o imágenes con licencia; declarar el uso en publicaciones
Suno / Flux.1Generar contenido que imite a artistas vivos identificablesDescribir estilos genéricos; no usar nombres propios de artistas en los prompts
GrokDatos en tiempo real de X pueden incluir información privada no públicaNo usar datos de conversaciones privadas de terceros; verificar antes de publicar

"El Habeas Data en la era de la IA no es solo una ley — es el muro que protege nuestra dignidad humana frente al procesamiento infinito."

Principio XAI · Marco Ético del Curso
← Volver al inicio
Portal IA para Creadores
Ver politica →
Política de Tratamiento de Datos Personales
φ
Metodología validada por Yoniliman Galvis
Ingeniero Industrial e Investigador de IA Explicativa (XAI). Este marco ético ha sido desarrollado desde la práctica real del uso de IA en entornos profesionales, educativos y creativos en Colombia.