Los investigadores rechazan los textos científicos escritos por ChatGPT, una tecnología basada en Inteligencia Artificial.
Sin plagios detectados en los
artículos científicos escritos por ChatGPT, una tecnología basada en inteligencia artificial (IA) para resumir textos escritos por investigadores, según una preimpresión publicada en el servidor
bioRxiv a finales de diciembre. Y es que los resúmenes generados por ChatGPT navegaron a través del verificador de plagio, logrando una puntuación del cien por cien en la mediana de originalidad, lo que significa que
no se detectó plagio alguno.
El ChatGPT trata de un chatbot de inteligencia artificial que puede escribir
resúmenes de trabajos de investigación falsos “tan convincentes” que
los científicos a menudo no pueden detectarlos, recalcan en
Nature. A su vez, la comunidad científica incide en que la nueva herramienta crea
textos “realistas e inteligentes” en respuesta a las indicaciones del usuario.
Una herramienta de uso gratuito que vio la luz el pasado 30 de noviembre por la empresa de software OpenAI, con sede en San Francisco (California, EEUU). Es un “modelo de lenguaje grande”, un sistema basado en
redes neuronales que aprenden a realizar una tarea al digerir grandes cantidades de texto existente generado por humanos.
Los investigadores le pidieron al chatbot que escribiera 50 resúmenes de investigación médica basados en una selección publicada en
JAMA,
The New England Journal of Medicine,
The BMJ,
The Lancet y
Nature Medicine. Luego los compararon con los resúmenes originales al pasarlos por un detector de plagio y un detector de salida de inteligencia artificial, y le pidieron a un grupo de investigadores médicos que detectaran los
resúmenes fabricados.
El detector de salida de IA detectó el
66 por ciento de los resúmenes generados. Pero los revisores humanos no lo hicieron mucho mejor: identificaron correctamente solo el 68 por ciento de los resúmenes generados y el 86 por ciento de los resúmenes genuinos. Identificaron incorrectamente el 32 por ciento de los resúmenes generados como reales y el 14 por ciento de los resúmenes genuinos como generados.
Respuesta de los científicos
Desde su lanzamiento, los investigadores han estado lidiando con los
problemas éticos que rodean su uso, porque gran parte de su producción puede ser difícil de distinguir del texto escrito por humanos. Los científicos han publicado una preimpresión y un editorial escritos por ChatGPT. Ahora, un grupo dirigido por
Catherine Gao en la Universidad Northwestern en Chicago (Illinois, EEUU) ha utilizado ChatGPT para generar resúmenes de trabajos de investigación artificiales para probar si los científicos pueden detectarlos.
“Estoy muy preocupada”, dice
Sandra Wachter, quien estudia tecnología y regulación en la Universidad de Oxford (Reino Unido). “Si ahora estamos en una situación en la que los expertos no pueden determinar qué es cierto o no, perdemos al intermediario que necesitamos desesperadamente para guiarnos en temas complicados”, agrega.
“ChatGPT escribe
resúmenes científicos creíbles”, dicen Gao y sus colegas en la preimpresión. “Quedan por determinarse los
límites del uso ético y aceptable de grandes modelos lingüísticos para ayudar a la
redacción científica”, añaden.
A su vez, Wachter recalca que si los científicos no pueden determinar si la investigación es cierta, podría haber "
consecuencias nefastas". Además de ser problemático para los investigadores, que podrían verse arrastrados por rutas de investigación defectuosas, porque la investigación que están leyendo ha sido fabricada, existen "implicaciones para la sociedad en general porque la investigación científica juega un papel muy importante en nuestra sociedad". Por ejemplo, podría significar que las decisiones políticas basadas en la investigación sean incorrectas, agrega.
“Poco probable” que lo usen los investigadores
Arvind Narayanan, científico informático de la Universidad de Princeton en Nueva Jersey, dice: "Es p
oco probable que algún científico serio use ChatGPT para generar resúmenes". Agrega que si los resúmenes generados pueden detectarse es "irrelevante". “La pregunta es si la herramienta puede generar un resumen que sea preciso y convincente. No puede, por lo que la
ventaja de usar ChatGPT es minúscula y la desventaja es significativa”, dice.
Irene Solaiman, que investiga el impacto social de la IA en Hugging Face, una empresa de IA con sede en Nueva York y París, teme que se dependa de grandes modelos de lenguaje para el pensamiento científico. “Estos modelos están entrenados en información pasada y el progreso social y científico a menudo puede provenir de pensar, o estar abierto a pensar, de manera diferente al pasado”, agrega.
Establecer reglas para su uso
Los autores sugieren que aquellos que evalúan las comunicaciones científicas, como los trabajos de investigación y las actas de congresos, deberían
implementar políticas para acabar con el uso de textos generados por IA. Si las instituciones eligen permitir el uso de la tecnología en ciertos casos, deben establecer reglas claras sobre la divulgación. A principios de este mes, la Cuadragésima Conferencia Internacional sobre Aprendizaje Automático, una gran conferencia de IA que se llevará a cabo en Honolulu (Hawái) en julio, anunció que
prohibió los artículos escritos por ChatGPT y otras herramientas de lenguaje de IA.
Solaiman agrega que en campos donde la información falsa puede poner en peligro la
seguridad de las personas, como la medicina, es posible que las revistas deban adoptar un
enfoque más riguroso para verificar que la información sea precisa.
Narayanan dice que las soluciones a estos problemas no deben centrarse en el chatbot en sí, "sino en los
incentivos perversos que conducen a este comportamiento, como las universidades que realizan revisiones de contratación y promoción contando trabajos sin tener en cuenta su calidad o impacto".
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.