OpenAI, la compañía conocida por desarrollar grandes modelos de lenguaje como ChatGPT, retiró su herramienta experimental AI Classifier el pasado julio. Esta herramienta tenía como objetivo detectar si un texto había sido escrito por una inteligencia artificial. Sin embargo, debido a su baja precisión, la compañía decidió descontinuarla.
La falta de control sobre algunas partes de su producto ha quedado en evidencia con los pasos que OpenAI ha dado desde la presentación de ChatGPT en noviembre pasado. AI Classifier respondía a la necesidad de detectar si un texto había sido producido por un humano o una máquina, una preocupación presente en el sector educativo y también en la industria editorial.
A pesar de que existen empresas que venden productos detectores de textos de IA, estos no son muy fiables. El sistema de OpenAI solo lograba distinguir el 26% de los textos generados por la IA. Los modelos de lenguaje como GPT-4 son conocidos como “cajas negras”, ya que los creadores desconocen cómo toman sus decisiones.
OpenAI está buscando desarrollar técnicas más eficaces para detectar el origen de un texto generado por inteligencia artificial. Aún así, admiten que no comprenden completamente cómo funcionan los modelos lingüísticos.
La falta de avances en este campo ha causado problemas, como el caso de estudiantes de la Universidad de Texas A&M-Commerce que fueron acusados erróneamente de utilizar ChatGPT y se vieron temporalmente afectados en la obtención de sus diplomas. Los sistemas actuales no son completamente fiables para detectar textos generados por IA.
Además, se ha demostrado que los detectores de textos tienen sesgos contra autores humanos no nativos de habla inglesa, lo que lleva a etiquetar erróneamente como escritos por máquinas artículos de estos autores.
OpenAI continúa investigando y desarrollando mecanismos para permitir a los usuarios comprender si el contenido de audio o visual ha sido generado por IA. El avance en esta área es fundamental, especialmente en los campos educativos y editoriales, donde existe la preocupación de que la IA pueda falsear resultados y textos completos sin ser detectada.
Fuentes:
– Fuente 1
– Fuente 2