Sin categoría

Alertan que los chatbots de Inteligencia Artificial pueden difundir desinformación médica errónea

Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales.

​Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales. Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales.  Últimas noticias de Argentina y el Mundo | Ámbito

Mostrar más

Publicaciones relacionadas

Botón volver arriba
Cerrar