Noticias de ciencia y lo que la rodea
10 meneos
21 clics
Es extraordinariamente fácil inyectar desinformación médica en los LLM [EN]

Es extraordinariamente fácil inyectar desinformación médica en los LLM [EN]

Es fácil ver el problema: Internet rebosa desinformación, y la mayoría de los modelos se entrenan con una enorme cantidad de texto obtenido de Internet. En el mejor de los casos, disponer de volúmenes sustancialmente mayores de información precisa podría abrumar a las mentiras. Pero, ¿es realmente así? Un nuevo estudio de investigadores de la Universidad de Nueva York examina cuánta información médica puede incluirse en el conjunto de entrenamiento de un modelo extenso de lenguaje (LLM) antes de que arroje respuestas inexactas.

| etiquetas: desinformación , medicina , llm , datos , ciencia
El artículo publicado en Nature Medicine está disponible en Open Access: www.nature.com/articles/s41591-024-03445-1
Médica y de cualquier otro tipo. Y luego ves a alguno por aquí que te suelta conversaciones con ChatGPT como si fueran argumentos de algo.
un Mistral de 2Gb te responde dónde vives, si sabes leer
comentarios cerrados

menéame