Es fácil ver el problema: Internet rebosa desinformación, y la mayoría de los modelos se entrenan con una enorme cantidad de texto obtenido de Internet. En el mejor de los casos, disponer de volúmenes sustancialmente mayores de información precisa podría abrumar a las mentiras. Pero, ¿es realmente así? Un nuevo estudio de investigadores de la Universidad de Nueva York examina cuánta información médica puede incluirse en el conjunto de entrenamiento de un modelo extenso de lenguaje (LLM) antes de que arroje respuestas inexactas.
|
etiquetas: desinformación , medicina , llm , datos , ciencia