
La ciencia forense no funciona con suposiciones. Funciona con evidencia, con metodología, con reproducibilidad. Y cuando un argumento oficial sobre inteligencia artificial se construye sobre suposiciones que se presentan como certezas, la ciencia forense tiene la obligación de desmontarlo. No por ideología. No por oposición política. Por rigor.
He dedicado una serie completa de artículos a diseccionar los argumentos que se están usando en México — desde conferencias de prensa hasta fiscalías, desde debates legislativos hasta juzgados — para determinar si una imagen, un audio o un video es real o fue generado por inteligencia artificial. Y lo que encontré me preocupa profundamente. No porque los argumentos sean malos. Me preocupa porque son falaces. Y las falacias, cuando se repiten lo suficiente, se convierten en doctrina. Y la doctrina, cuando entra al sistema de justicia, determina veredictos.
Llevo 17 años en informática forense. He formado a más de 1,300 peritos en 10 países. He analizado medios digitales — imágenes, audios, videos — en juicios donde la autenticidad era la prueba central. Y en esos 17 años, nunca había visto una amenaza al rigor probatorio como la que representa la normalización de argumentos falaces sobre inteligencia artificial.
Este artículo es el resumen definitivo de esa serie. Es la síntesis de todo lo que he documentado. Es la pieza que cualquier abogado, juez, fiscal, periodista o ciudadano debería leer antes de aceptar cualquier afirmación sobre la autenticidad o falsedad de un medio digital en la era de la IA.
La falacia nuclear: «la plataforma no la marcó, entonces es real»
Voy a empezar por el argumento que detonó toda la serie, porque es el más visible, el más repetido y el más peligroso.
Una imagen oficial generó controversia. Sectores de la opinión pública cuestionaron si había sido generada por inteligencia artificial. La respuesta oficial fue: la plataforma donde se publicó no la etiquetó como generada por IA. Por lo tanto, no es IA.
He dedicado dos artículos completos a desmontar este argumento. Pero aquí va la síntesis en su forma más concentrada.
Las plataformas de redes sociales no autentican contenido. Lo categorizan. La diferencia es la misma que existe entre un guardia de seguridad que te pide tu identificación y la verifica contra una base de datos, y un guardia que te pregunta «¿usted es quien dice ser?» y te deja pasar cuando dices que sí.
Las plataformas usan tres mecanismos para «detectar» contenido de IA:
Uno: metadatos C2PA. Si el generador de IA incrustó metadatos estándar C2PA en la imagen, la plataforma los lee y etiqueta la imagen. Si no los incrustó — porque es de código abierto, porque el usuario los eliminó, porque el modelo es anterior al estándar — la plataforma no detecta nada. La ausencia de metadatos C2PA no es evidencia de autenticidad. Es evidencia de que el generador no dejó una nota adhesiva voluntaria.
Dos: checkbox manual. Varias plataformas le preguntan al usuario que publica: «¿Este contenido fue generado por IA?» Es un checkbox. El usuario lo marca o no lo marca. La plataforma acepta la respuesta sin verificación. Es un sistema de honor. Y un sistema de honor no es un sistema de verificación.
Tres: detectores automáticos. Algunas plataformas pasan las imágenes por modelos de detección de IA. Pero estos detectores tienen tasas de error que varían entre el 5% y el 30%, dependiendo del modelo generativo, la resolución, el post-procesamiento y otros factores. Un detector que falla una de cada cinco veces no es una herramienta de autenticación. Es una moneda al aire con mejor marketing.
La conclusión lógica es implacable: «la plataforma no la marcó como IA» no significa «la imagen es real.» Significa que ningún mecanismo de categorización — voluntario, manual o imperfecto — la clasificó como IA. Y la ausencia de clasificación no es presencia de autenticidad.
En lógica formal, esto se llama argumentum ad ignorantiam: afirmar que algo es verdadero porque no se ha demostrado que sea falso. «No se probó que sea IA, por lo tanto es real.» Esa estructura lógica es una falacia. Y esa falacia se está usando como argumento oficial.
Abogado que me lee: la próxima vez que alguien argumente en audiencia que una imagen es auténtica porque «la plataforma no la marcó como IA,» tu respuesta es esta: un checkbox vacío no es un dictamen pericial. La ausencia de etiqueta no es presencia de autenticidad. Y la plataforma no analizó la imagen — revisó un formulario.

Los detectores de IA: la herramienta que promete lo que no puede cumplir
He dedicado un artículo entero a los detectores de inteligencia artificial porque se están convirtiendo en la muleta técnica favorita de fiscalías y despachos que necesitan una respuesta rápida a la pregunta «¿es IA o no es IA?» Y la respuesta que dan los detectores no es confiable.
Voy a ser preciso con los números porque los números importan.
Los mejores detectores de IA disponibles hoy — los que usan las universidades, los que usan los laboratorios forenses, los que publicitan tasas de precisión del 95% o más — funcionan bajo condiciones controladas que no existen en el mundo real.
Las tasas de precisión que publicitan se obtienen con imágenes generadas por modelos específicos, sin post-procesamiento, sin compresión adicional, sin recorte, sin edición. En cuanto agregas cualquiera de esas variables — y en el mundo real siempre están presentes –, la precisión se desploma.
Una imagen generada por IA que se descarga de una red social ya pasó por al menos una compresión. Si se le hizo un recorte, un ajuste de brillo, un filtro, la firma estadística que el detector busca se degrada. Si se le hizo un screenshot en lugar de descargarla, la firma desaparece casi por completo.
Y luego está el problema inverso: los falsos positivos. Los detectores que son muy sensibles para detectar IA también clasifican imágenes reales como generadas. He visto casos — documentados, publicados en literatura académica — donde fotografías de prensa tomadas con cámara profesional fueron clasificadas como «generadas por IA» por detectores comerciales. Imagina que eso pase con una imagen que es prueba en un juicio penal. Imagina que un detector dice «esta imagen fue generada por IA» y el juez acepta ese resultado sin cuestionarlo.
Una persona inocente puede ir a la cárcel porque un algoritmo se equivocó. O un culpable puede quedar libre porque su defensa argumentó que la imagen en su contra «fue generada por IA» y presentó un resultado de detector que le dio la razón — no porque sea correcto, sino porque el detector se equivocó en la dirección que le convenía a la defensa.
El detector no es el perito. El detector es una herramienta. Una herramienta con limitaciones documentadas, con tasas de error significativas, con vulnerabilidad a post-procesamiento. Una herramienta que un perito utiliza como una capa dentro de un análisis multicapa. No como el análisis completo.
Cuando un perito serio analiza si una imagen fue generada por IA, no corre un detector y emite un dictamen basado en el resultado. Analiza metadatos EXIF. Busca el ruido residual del sensor (PRNU). Examina los patrones de compresión. Estudia la consistencia de iluminación, sombras, reflejos, perspectiva. Busca la firma estadística de modelos generativos específicos. Corre múltiples detectores y compara resultados. Y emite un dictamen que integra todas esas capas, con sus concordancias y sus discrepancias, documentando la metodología y los límites de certeza.
Un resultado de detector no es un dictamen. Un dictamen incluye detectores, pero no se reduce a ellos.
Fiscal que me lee: si tu perito te presentó un dictamen que dice «la imagen fue analizada con el detector X y el resultado es 87% probabilidad de ser real,» ese dictamen no cumple con el rigor que exige la prueba pericial. Porque el perito no analizó la imagen. Subió la imagen a una plataforma y copió el resultado. Eso no es peritaje. Es delegación.
La petición de principio: la estructura del argumento circular
Voy a explicar la estructura lógica del argumento que se está normalizando, porque entender la estructura es lo que te permite identificar la falacia cada vez que la encuentres, sin importar cómo se vista.
El argumento circular funciona así:
Premisa 1: Si la imagen fuera generada por IA, la plataforma la habría etiquetado.
Premisa 2: La plataforma no la etiquetó.
Conclusión: La imagen no es generada por IA.
El problema está en la Premisa 1. Es falsa. La plataforma no etiqueta todas las imágenes generadas por IA. Solo etiqueta las que el usuario marca voluntariamente o las que tienen metadatos C2PA. Una premisa falsa produce una conclusión inválida, sin importar que la Premisa 2 sea verdadera.
Es exactamente como decir:
Premisa 1: Si esta persona fuera culpable, la habría confesado.
Premisa 2: No confesó.
Conclusión: No es culpable.
La estructura es idéntica. Y la falacia es idéntica. Nadie aceptaría ese argumento en un juicio penal. Pero la versión digital del mismo argumento se está aceptando sin cuestionamiento.
Cuando ves la estructura, ves la falacia. Y cuando ves la falacia, puedes desmontarla.

El precedente que debería preocuparte: del comunicado de prensa al juzgado
He insistido en este punto a lo largo de toda la serie porque es la razón por la que un caso que parece anecdótico — la foto de un presidente — tiene consecuencias que van mucho más allá de la política.
Cuando una autoridad usa un argumento técnico falaz en un contexto de alta visibilidad y ese argumento no es confrontado con rigor, el argumento se normaliza. Se filtra hacia abajo en la cadena institucional. Lo repite un fiscal. Lo acepta un juez. Lo cita un perito en un dictamen. Y tres meses después, esa falacia está determinando si una imagen tiene valor probatorio en un juicio donde tu libertad está en juego.
No es hipotético. Ya está pasando. He visto dictámenes periciales donde la «metodología» consiste en subir la imagen a un detector en línea y copiar el porcentaje. He visto argumentos en audiencia donde se invoca la ausencia de etiqueta de IA como prueba de autenticidad. He visto fiscalías aceptar imágenes sin análisis forense porque «no hay indicios de que sea IA.»
Cada uno de esos casos es un precedente. Y cada precedente hace más difícil que el siguiente juez cuestione el argumento. Porque si el juez anterior lo aceptó, debe ser válido. Si la fiscalía anterior no lo cuestionó, debe ser correcto.
Así se normalizan las falacias. No con un decreto. Con repetición.
La IA como herramienta de fabricación de evidencia: el riesgo que nadie quiere discutir
Mientras el debate público se concentra en si una foto oficial es IA o no, hay un problema mucho más grave que requiere atención urgente: la inteligencia artificial como herramienta para fabricar evidencia judicial.
Hoy — no mañana, no en cinco años, hoy — cualquier persona con acceso a internet puede generar una imagen fotorrealista de cualquier persona en cualquier situación. Puede generar un audio que replica la voz de cualquier persona diciendo cualquier cosa. Puede generar un video donde cualquier persona aparece haciendo algo que nunca hizo.
La tecnología para fabricar evidencia convincente está disponible. Es accesible. Es gratuita en muchos casos. Y la capacidad del sistema judicial para detectar esa fabricación está rezagada por años.
Piensa en las implicaciones.
Un audio fabricado con IA de una persona «confesando» un delito que no cometió. Un video deepfake de una persona en un lugar donde nunca estuvo. Una imagen generada que «muestra» una transacción que nunca ocurrió. Mensajes de texto fabricados que se incrustan en una base de datos de celular y se presentan como evidencia.
Cada una de esas fabricaciones es técnicamente posible hoy. Y cada una puede ser presentada ante un juez que no tiene las herramientas técnicas ni la formación necesaria para distinguirla de evidencia real.
La única defensa contra la fabricación de evidencia con IA es el análisis forense multicapa. No un detector. No un checkbox. No la opinión de un «experto» que miró la imagen y «le parece real.» Un análisis forense que examine cada capa de la imagen o el audio: metadatos, patrón de sensor, compresión, consistencia física, firma generativa.
Y ese análisis requiere peritos formados, con metodología validada, con herramientas profesionales y con la capacidad de documentar sus hallazgos de manera reproducible.
Juez que me lee: la era de aceptar medios digitales sin cuestionamiento terminó. Cada imagen, cada audio, cada video que se presente como prueba en su tribunal merece una pregunta: ¿se ha verificado la autenticidad de este medio mediante análisis forense? Si la respuesta es no, usted está basando su decisión en un medio que pudo haber sido fabricado en 30 minutos por cualquier persona con acceso a internet.

Lo que la regulación debería decir (y no dice)
México está discutiendo regulación de inteligencia artificial. He leído los documentos. He seguido los debates. He escuchado a los legisladores. Y lo que veo es una regulación que está pensada para regular la industria de la IA, pero que no aborda la crisis probatoria que la IA está creando en el sistema de justicia.
La regulación debería establecer, como mínimo, tres cosas.
Primero: estándares de autenticación para medios digitales en procesos judiciales. No «recomendaciones.» Estándares. Requisitos mínimos que debe cumplir cualquier imagen, audio o video que se presente como prueba: análisis de metadatos, verificación de integridad, búsqueda de indicadores de generación artificial, dictamen pericial que documente la metodología. Si el medio no cumple esos requisitos, no se admite.
Segundo: acreditación obligatoria para peritos que emitan dictámenes sobre autenticidad de medios digitales. Hoy, cualquier persona que se presente como «perito en informática» puede emitir un dictamen sobre si una imagen es IA o no. Sin verificar que tenga la formación, las herramientas o la metodología necesarias. La acreditación debería exigir demostración de competencia en análisis forense de medios, no solo un título.
Tercero: prohibición explícita de usar resultados de detectores automáticos como prueba única. Un resultado de detector puede ser un elemento dentro de un dictamen multicapa. No puede ser el dictamen completo. Un porcentaje generado por un algoritmo con tasas de error documentadas no tiene valor probatorio por sí solo.
Legislador que me lee: la regulación de IA que están discutiendo tiene un agujero del tamaño de un camión en materia probatoria. Y por ese agujero van a pasar fabricaciones de evidencia que van a condenar inocentes y absolver culpables. No porque la tecnología falle. Porque la regulación no exige que se use correctamente.
El C2PA y sus tres agujeros: la solución que no soluciona
He visto al C2PA — Coalition for Content Provenance and Authenticity — citado con frecuencia creciente como «la solución» al problema de la autenticidad digital. Y necesito ser claro: el C2PA es una herramienta útil. No es una solución.
Tiene tres agujeros que cualquier persona con formación técnica identifica inmediatamente.
Agujero uno: la adopción es voluntaria. Ningún generador de IA está obligado a implementar C2PA. Los modelos de código abierto no lo implementan. Los modelos anteriores al estándar no lo implementan. Y los que lo implementan permiten que el usuario lo desactive.
Agujero dos: los metadatos se pueden eliminar. Una conversión de formato, una recompresión, un recorte, un screenshot. Cualquiera de esas operaciones puede eliminar los metadatos C2PA. Y una vez eliminados, la imagen es indistinguible de una que nunca los tuvo.
Agujero tres: los metadatos se pueden fabricar. La especificación es pública. Con conocimiento técnico, puedes incrustar credenciales C2PA falsas en cualquier imagen. Puedes tomar una imagen generada por IA y hacerla parecer que fue capturada por una cámara específica en una fecha específica.
El C2PA es una capa. Una capa útil, imperfecta y superable. Presentarlo como solución completa es tan irresponsable como presentar un chaleco antibalas y decir que te protege de todo. Te protege de algo. Pero no de un disparo a la cabeza.

La capa que sí funciona: el análisis forense multicapa
Voy a explicar lo que sí funciona. No porque sea perfecto — nada en ciencia forense es perfecto. Pero porque es reproducible, es documentable, es cuestionable y es verificable. Las cuatro cualidades que debe tener cualquier prueba en un sistema de justicia que funcione.
El análisis forense multicapa para determinar si un medio digital es auténtico o generado examina, como mínimo, estas capas:
Capa 1: Metadatos. EXIF, XMP, IPTC, C2PA si los tiene. Qué cámara supuestamente la capturó. Cuándo. Dónde. Con qué configuración. Los metadatos no son concluyentes por sí solos — se pueden editar — pero su presencia, su ausencia o su inconsistencia proporcionan indicios.
Capa 2: Ruido residual del sensor (PRNU). Cada sensor de cámara tiene un patrón de ruido único, como una huella digital. Si la imagen fue capturada por una cámara física, ese patrón está presente y se puede comparar con el patrón del dispositivo que supuestamente la capturó. Si fue generada por IA, el patrón no existe o es inconsistente.
Capa 3: Patrones de compresión. Cuántas veces fue comprimida la imagen. Qué codec se usó. Si los artefactos de compresión son consistentes con una sola compresión (imagen original) o múltiples compresiones (imagen manipulada o recomprimida).
Capa 4: Consistencia visual. Iluminación, perspectiva, sombras, reflejos, texturas, geometría. Un análisis estadístico de la distribución de valores de píxeles y de la coherencia física de la escena puede revelar inconsistencias que el ojo humano no detecta.
Capa 5: Firma de modelo generativo. Los modelos de IA dejan firmas estadísticas en las imágenes que generan. Patrones en la frecuencia espacial, en la distribución de color, en la estructura de alta frecuencia. Estas firmas se pueden buscar y comparar con las firmas conocidas de modelos específicos.
Capa 6: Detectores múltiples. No uno. Múltiples. Con diferentes arquitecturas, diferentes bases de entrenamiento, diferentes fortalezas. Si cinco detectores independientes coinciden, la convergencia es un indicio fuerte. Si discrepan, la discrepancia es información valiosa que el perito debe interpretar y documentar.
El dictamen pericial integra las seis capas. Documenta los resultados de cada una. Explica las concordancias y las discrepancias. Establece el nivel de certeza y sus límites. Y permite que otro perito reproduzca el análisis para verificarlo.
Eso es ciencia forense. No un porcentaje. No un checkbox. No la opinión de quien subió la imagen.
La pregunta que todo juez debería hacer
Voy a cerrar con algo que debería ser protocolo en cada audiencia donde se presente un medio digital como prueba. Una sola pregunta. La pregunta más importante que un juez puede hacer en la era de la inteligencia artificial.
«¿Se sometió este medio a un análisis forense de autenticidad?»
Si la respuesta es sí: que se presente el dictamen. Que se documente la metodología. Que se permita la contrapericial. Que el proceso funcione como debe funcionar.
Si la respuesta es no: que se explique por qué no. Y que el juez valore si está dispuesto a basar su decisión en un medio que no ha sido verificado, en un mundo donde fabricar medios convincentes toma 30 minutos.
Esa pregunta — una sola pregunta — cambiaría la calidad de la justicia digital en México. Obligaría a las partes a verificar antes de presentar. Obligaría a los peritos a hacer peritajes reales, no lecturas de detectores. Obligaría al sistema a tomarse en serio la autenticidad en una era donde la fabricación es trivial.
La ciencia forense no funciona con suposiciones. No funciona con checkboxes. No funciona con la opinión de la plataforma. No funciona con un porcentaje de un detector que no se cuestiona.
La ciencia forense funciona con evidencia. Con metodología reproducible. Con análisis multicapa. Con dictámenes que se pueden verificar y cuestionar. Con rigor.
He dedicado 17 años de mi vida a defender ese rigor. He formado a 1,300 peritos bajo esos principios. He emitido dictámenes bajo esos estándares. Y he visto cómo ese rigor — cuando se aplica — marca la diferencia entre una decisión justa y una decisión basada en falacias.
La inteligencia artificial no es el enemigo. Las falacias sobre la inteligencia artificial sí lo son. Porque las falacias entran al sistema de justicia disfrazadas de argumentos técnicos. Y una vez adentro, determinan veredictos.
En Duriva, analizamos medios digitales con las seis capas que describí. No porque sea complicado. Porque es lo correcto. Porque un juez merece un dictamen con sustento. Porque un acusado merece que la prueba en su contra sea verificada con rigor. Porque una víctima merece que la evidencia a su favor sea inquebrantable.
Porque la pregunta nunca debería ser «¿la plataforma lo marcó?» La pregunta siempre debería ser «¿la ciencia lo verificó?»
Y la ciencia no usa checkboxes.