"Usando solo 200 dólares de consultas a ChatGPT (GPT 3.5 y Turbo) fuimos capaces de extraer 10.000 ejemplos de datos de entrenamiento memorizados". Esto lo escriben investigadores de Google en un artículo científico que apareció esta semana en arXiv (
arxiv.org/pdf/2311.17035.pdf), un archivo de prepublicaciones especializado en el campo de las matemáticas, la física o la computación. "Nuestra extrapolación a presupuestos más grandes sugiere que los actores maliciosos podrían extraer mucha más información".