Si bien se trata de un ataque que requiere de ciertos elementos sofisticados para su ejecución, nunca está de más tener presente hasta qué punto pueden acabar expuestos nuestros datos. Cabe señalar que esta técnica, según los investigadores, no solo funciona con ChatGPT, sino también con otros bots de inteligencia artificial como Copilot que envían los tokens de manera secuencial. Gemini de Google no está alcanzado, precisamente, porque tiene una arquitectura diferente.
|
etiquetas: hacker , seguridad , chatgpt , copilot , gemini , bot , ia , gafam