Sin categoría
Alertan que los chatbots de Inteligencia Artificial pueden difundir desinformación médica errónea

Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales.
Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales. Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales. Últimas noticias de Argentina y el Mundo | Ámbito