¿Deberían las máquinas tomar decisiones sobre el uso de armas nucleares? Esta fue la gran pregunta y el debate, y todos menos China parecieron tenerlo bastante claro: los humanos, no la inteligencia artificial, deberían tomar las decisiones clave sobre el uso de armas nucleares, según se acordó el martes en una declaración.
|
etiquetas: botón rojo , ia , terminator
Los rusos por otro lado se supone que tienen un sistema de activación automática de represalia nuclear. Aunque no hay mucha información al respecto, se cree que funcionaría como un sistema de mano muerta. Por mucho que el sistema ordenara disparar, si hay alguien vivo capaz de detenerlo no haría nada.
En EEUU por ejemplo la gestión también es automática. Aunque no ha trascendido (obviamente nos meten miedo con lo que hace el enemigo, pero no nos van a contar lo que hacen "los nuestros") debería haber un sistema similar al ruso. Al menos es lo que se deduce de ciertos desarrollos que se han visto, pero los detalles internos a saber como serán.
(Ironía)
El otro día alguien sugirió dejar que la IA pusiera las sentencias judiciales, que sería más objetiva e imparcial.
El otro día vi "Doce hombres sin piedad" y si el jurado fuera una IA, no me gustaría ser el acusado. ¿Una IA, puede dudar? ¿Desconfiar de un testimonio por pequeños matices ?