edición general

encontrados: 2, tiempo total: 0.011 segundos rss2
11 meneos
115 clics
Jailbreak GPT-4o' Godmode ' lanzado por un hacker: un poderoso exploit fue rápidamente prohibido [ENG]

Jailbreak GPT-4o' Godmode ' lanzado por un hacker: un poderoso exploit fue rápidamente prohibido [ENG]

Un jailbreak del GPT-4o de OpenAI utilizó leetspeak para que ChatGPT eludiera sus medidas de seguridad habituales, lo que permitía a los usuarios recibir conocimientos sobre cómo conectar automóviles, sintetizar LSD y otras actividades ilícitas. Desafortunadamente, el truco de LLM voló demasiado cerca del sol. Después de volverse moderadamente viral en Twitter / X y ser reportado por Futurism, el jailbreak provocó la ira de OpenAI. Fue eliminado del sitio web de ChatGPT solo unas horas después de su publicación inicial.
3 meneos
64 clics

Modo Dios en Windows 7 GodMode

Como activar el Modo Dios en Windows 7 y de esta forma tener acceso a muchas opciones del sistema
3 0 5 K -40
3 0 5 K -40

menéame