Investigadores del Brigham and Women’s Hospital, afiliado a la Facultad de Medicina de Harvard, han encontrado errores en las respuestas proporcionadas por ChatGPT en relación al cáncer y su tratamiento. Estos hallazgos son una advertencia para los usuarios, quienes no deben considerar las respuestas del chatbot como una guía médica precisa.
El estudio reveló que ChatGPT tenía una tendencia a proporcionar respuestas fabricadas, inventando aproximadamente el 12.5% de los resultados. Esta desinformación fue aún más pronunciada al tratar con tratamientos avanzados de enfermedades.
La doctora Danielle Bitterman, una de las autoras del estudio, expresó su sorpresa ante el grado en que la información incorrecta se mezclaba con la correcta en las respuestas del chatbot. Esto dificulta aún más la detección de errores, incluso para los expertos.
Anteriormente, la Comisión Federal de Comercio de Estados Unidos había iniciado una investigación sobre la precisión de la información proporcionada por ChatGPT. Esto evidencia la importancia de evaluar el alcance de la inteligencia artificial en la seguridad pública y la validez de la información.
Es importante destacar que ChatGPT no es una fuente de información concreta, sino una herramienta de generación y búsqueda de contenido basada en inteligencia artificial. Para obtener respuestas de mayor calidad y reducir la posibilidad de obtener resultados incorrectos, se sugiere utilizar un prompt preciso al hacer preguntas, establecer límites para evitar respuestas inventadas y verificar la información proporcionada por el chatbot.
En resumen, el estudio señala la necesidad de ser cautelosos al utilizar herramientas como ChatGPT para temas médicos, y de ser precisos en las indicaciones proporcionadas al chatbot para obtener respuestas más confiables.
Fuentes: Brigham and Women’s Hospital, Comisión Federal de Comercio de Estados Unidos (FTC)