<FFFC> Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), basados en inteligencia artificial (IA) y entrenados para procesar y comprender el lenguaje natural a una escala enorme, suponen un riesgo para quienes buscan asesoramiento en temas de salud, porque tienden a dar información inexacta e inconsistente
<FFFC> Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), basados en inteligencia artificial (IA) y entrenados para procesar y comprender el lenguaje natural a una escala enorme, suponen un riesgo para quienes buscan asesoramiento en temas de salud, porque tienden a dar información inexacta e inconsistente.
Según un estudio publicado en ?Nature Medicine?, aún existe una gran brecha entre lo que prometen los modelos de lenguaje y su utilidad real para pacientes que buscan información sobre sus síntomas.
El estudio, liderado por científicos de la Universidad de Oxford, concluye que los que recurren a la IA para decidir sobre la gravedad de una afección, no tomaron mejores decisiones que los que confiaron en métodos tradicionales (como buscar en Internet o su propio juicio).
Los expertos evaluaron si los LLM podían ayudar a los ciudadanos a identificar con precisión afecciones médicas, como un resfriado común, anemia o cálculos biliares, y a decidir si acudir al médico o al hospital.
A los participantes se les pidió identificar posibles condiciones de salud y recomendar acciones a seguir. Los escenarios incluían desde un joven con un fuerte dolor de cabeza tras una salida nocturna, hasta una madre primeriza que se sentía constantemente agotada y sin aliento.
Tras repasar las interacciones, se determinó que a menudo los participantes daban poca información o incompleta al modelo, pero también que los LLM generaban información engañosa o errónea. <FFFC>