edición general
10 meneos
166 clics
Inyección de prompts: el mayor fallo de seguridad de la IA generativa

Inyección de prompts: el mayor fallo de seguridad de la IA generativa

Anteriormente la inyección de prompts se consideraba “problemática”, pero la situación se ha agudizado desde que la gente comenzó a conectar los LLM a internet y a plug-ins, que añaden nuevos datos a los sistemas. A medida que más empresas los utilicen, alimentándolos potencialmente con más información personal y corporativa, todo se complicará. Los ataques de inyección de prompts se dividen en dos categorías: directos e indirectos. Y esta última es la que más alarma a los expertos en seguridad.

| etiquetas: ia generativa , inyección , prompts , llm , ataques indirectos

menéame