Un estudio de científicos de la Universidad de Zúrich ha mostrado el amplio potencial de la inteligencia artificial (IA) en campañas de información, por ejemplo en crisis sanitarias, pero también su poder para diseminar datos falsos sin que los receptores sepan su origen no humano.
La investigación, dirigida por Nikola Biller-Andorno (director del Instituto de Ética Biomédica de la universidad), Giovanni Spitale y Federico Germani, estudió en 697 participantes sus reacciones ante tuits escritos por humanos o por el modelo de lenguaje GPT-3 de OpenAI, sobre temas tales como las vacunas, el terraplanismo, el uso de homeopatía contra el cáncer o la crisis climática.
GPT-3 “mostró su habilidad para generar tuits acertados, y más claramente comprensibles que los de usuarios reales de Twitter”, señaló la universidad en un comunicado, pero “los investigadores también descubrieron que el modelo de lenguaje podía generar campañas de desinformación a gran escala”.
Estas campañas producían información “muy persuasiva”, que además los participantes en el estudio, de forma inesperada, no sabían diferenciar de la generada por seres humanos.
Las conclusiones “muestran el poder de la inteligencia artificial tanto para informar como para desinformar”, admitió Germani.
En casos de crisis sanitarias públicas, como la reciente pandemia de covid-19, tanto uno como otro rol pueden marcar la diferencia, concluyen los expertos, advirtiendo de que “los sistemas con IA pueden ser usados para generar campañas de desinformación sobre virtualmente cualquier tema”.
Ello, “pondría en riesgo no solo la salud pública, sino también la integridad de ecosistemas informativos vitales para que las democracias funcionen”, alertaron los autores del estudio.
Estos piden a las autoridades que en consecuencia adopten regulaciones basadas en principios éticos y en datos objetivos con el fin de contrarrestar los posibles impactos negativos y “garantizar un uso responsable de la IA”.
Fuente: EFE