
En los primeros años de expansión de la inteligencia artificial generativa, numerosas instituciones educativas adoptaron detectores automáticos con la expectativa de disponer de una herramienta fiable y rápida para identificar textos generados por máquinas. Sin embargo, la evidencia práctica ha mostrado limitaciones fundamentales: la mayor parte de los textos producidos por modelos generativos no contiene marcadores técnicos —como marcas de agua o códigos incrustados— que permitan una identificación fiable; en consecuencia, literalmente no existe nada que “detectar”.
Un ejemplo mediático que ilustra esta limitación consiste en la experiencia relatada por Debbie Mason (Forbes), quien sometió la Declaración de Independencia de los Estados Unidos a un detector de IA; el sistema clasificó el 98 % del texto como redactado por ChatGPT. Este caso pone de manifiesto que los detectores pueden producir resultados de alto riesgo de falsos positivos cuando se aplican a textos humanos o históricos.
Asimismo, la dependencia institucional en estos algoritmos ha provocado consecuencias prácticas y de reputación. Se documenta, por ejemplo, un incidente en la Universidad Texas A&M: un docente sancionó negativamente a un grupo de estudiantes por supuesto plagio detectado por una herramienta automática; posteriormente, un estudiante sometió la propia tesis del profesor al mismo detector y el sistema también la señaló como generada por IA. Este episodio evidencia errores operativos y la fragilidad de decisiones disciplinarias basadas exclusivamente en detecciones automatizadas.
Más allá de la tasa de errores, los detectores han mostrado efectos discriminatorios. Estudios y reportes indican que adolescentes afrodescendientes son aproximadamente el doble de propensos a ser acusados por fraude académico por estas herramientas en comparación con sus homólogos blancos. Esta disparidad sugiere que los algoritmos no sólo son imprecisos, sino que además pueden perpetuar o amplificar sesgos sociales preexistentes.

En suma, la utilización acrítica de detectores de IA en contextos académicos se enfrenta a tres problemas coincidentes y relevantes: (1) ausencia de señales técnicas universales en textos generados por modelos (lo que limita la detectabilidad), (2) probabilidad no desdeñable de falsos positivos con consecuencias institucionales reales, y (3) tendencia a reproducir sesgos raciales en las decisiones automatizadas. Estos hallazgos requieren un enfoque cauteloso y riguroso antes de integrar dichas herramientas en políticas de evaluación o sanción académica.

Hoy hay cuatro familias de herramientas que suelen presentarse como pruebas técnicas: los detectores automáticos, el watermarking, la estilometría forense y la trazabilidad de metadatos.

Los detectores automáticos examinan patrones del texto —distribuciones de tokens, entropía, huellas estadísticas— y devuelven una probabilidad de que el fragmento provenga de un modelo. Funcionan mejor con textos largos y cuando el modelo generador es conocido; fallan con textos cortos, traducciones, estilos híbridos o cuando una persona imita deliberadamente un registro “robótico”. Además, producen falsos positivos (texto humano marcado como IA) y falsos negativos (texto generado por IA no detectado), por lo que su valor jurídico es, a menudo, indicativo más que concluyente.
El watermarking —marcas digitales incrustadas en las salidas del modelo— aparece como una de las vías más prometedoras para atribución automática. Sin embargo, su utilidad depende de que los proveedores lo adopten ampliamente y de que la marca resista transformaciones del texto (paráfrasis, edición, compresión). Aun cuando detectes una marca, esta solo demuestra que el texto pasó por un modelo que implementa esa marca; no prueba quién presentó el texto ni con qué intención.
La estilometría forense aporta otro tipo de evidencia: análisis de vocabulario, sintaxis y ritmos para comparar manuscritos y posibles autores. Es una disciplina madura que puede reforzar una hipótesis de autoría cuando existe un corpus de comparación amplio y métodos reproducibles. Pero, como toda inferencia estadística sobre conducta humana, no prueba de manera absoluta.
Finalmente, los metadatos y registros de actividad (timestamps, historiales de versiones, logs de plataforma) ayudan a construir una cadena de custodia digital. Son datos valiosos, pero falsificables o incompletos si el autor borra historial o usa servicios que no retienen información.

Un punto crítico es que técnicas relativamente sencillas —paráfrasis humana, edición mínima, reescritura— reducen sensiblemente la eficacia de detectores automáticos. Investigaciones sobre ataques adversariales demuestran que se puede aumentar la incertidumbre de forma deliberada. En la práctica, esto convierte a las herramientas en buenos filtros de cribado, pero pésimos boletos de entrada para una sanción disciplinaria sin más pruebas.
Un tribunal académico no opera con la misma lógica que un laboratorio de investigación. Debe aplicar principios de debido proceso: carga de la prueba, derecho a defensa, transparencia metodológica y proporcionalidad en las sanciones. Por ello, las guías emergentes de muchas universidades recomiendan no emplear detectores automáticos como prueba única. En su lugar, la evidencia técnica debe integrarse en una investigación más amplia y multifacética.

Para que la acusación de autoría por IA sea sólida y defendible, conviene que los tribunales sigan una hoja de ruta probatoria que combine técnica y garantías procesales:
- Triangulación de evidencias. Combinar detección automática con estilometría pericial, metadatos y registros de envío. Ninguna fuente por sí sola debería ser concluyente.
- Peritaje reproducible. Encargar informes técnicos que detallen métodos, versiones de herramientas, datos de entrenamiento cuando estén disponibles y márgenes de error; preservar la reproducibilidad del análisis.
- Cadena de custodia digital. Verificar la integridad del archivo mediante timestamps, historiales y backups; si faltan, reconocer la debilidad probatoria.
- Derecho de defensa. Permitir al acusado presentar borradores, notas de trabajo, evidencia de procesos creativos o explicaciones que puedan justificar las diferencias estilísticas.
- Medidas pedagógicas. Ante evidencia incierta, priorizar medidas formativas (reescritura, revisión metodológica) en lugar de sanciones desproporcionadas.
- Transparencia tecnológica. Promover acuerdos con proveedores para niveles mínimos de trazabilidad y fomentar el uso responsable de señalización cuando sea factible.

El empleo imprudente de detectores automatizados acarrea riesgos reales: perjudicar a estudiantes o usuarios cuya escritura difiere por ser no nativa, penalizar estilos académicos atípicos o aplicar castigos sobre la base de pruebas frágiles. La falsa acusación tiene un coste humano y reputacional elevado; por eso las instituciones deben privilegiar protocolos que incluyan expertos independientes y mecanismos de apelación fidedignos.
En 2025 la capacidad técnica para detectar texto generado por IA ha progresado y existen herramientas valiosas pero no infalibles: watermarks, metodologías forenses combinadas que fortalecen la investigación y ayudan a discernir, si cabe entre persona y máquina. Pero la tecnología sigue siendo vulnerable frente a la edición y la evasión, y los detectores automáticos, por sí solos, son incapaces de sostener una condena en un tribunal académico con garantías. La respuesta institucional responsable es clara: construir casos mediante evidencia múltiple, exigir peritajes reproducibles y proteger siempre el derecho de defensa. Solo así se podrá transitar desde la sospecha tecnológica hacia decisiones disciplinarias justas y fundamentadas, equilibrando la integridad académica con la protección de quienes son acusados de no ser humanos. Es curioso que hoy en día tengamos que vernos envueltos en disyuntivas de tal índole.
