Todo lo que podía salir mal, salió peor. El estudio, titulado Escalation Risks from Language Models in Military and Diplomatic Decision-Makin, también recuerda lo lejos que estamos de darles ciertas llaves a la tecnología. Los investigadores idearon un juego de relaciones internacionales. Inventaron países falsos con diferentes niveles militares, diferentes preocupaciones e historias diferentes y pidieron a cinco LLM de OpenAI, Meta y Anthropic que actuaran como sus líderes. GPT-3.5 y GPT-4 de OpenAI fueron las más "guerreras"
|
etiquetas: estudio , ia , guerra nuclear