Demostramos las consecuencias potencialmente brutales de dar a LLMs como ChatGPT interfaces para otras aplicaciones. Proponemos vectores y técnicas de ataque recién habilitados y proporcionamos demostraciones de cada uno de ellos en este repositorio: Control remoto de LLMs de chat. Filtración de datos de usuario. Compromiso persistente a través de sesiones. Inyecciones de propagación a otros LLM. Compromiso de LLMs con pequeñas cargas útiles multietapa. Ingeniería social automatizada...
|
etiquetas: chatgpt , plugins , seguridad