Una IA desarrollada por la Universidad de Oxford para mantener un debate sobre la posibilidad de que estas máquinas sean éticas se muestra contraria a su propio desarrollo para evitar una guerra nuclear.
Entrenada con mucha más información de la que puede asimilar una persona en su vida, acto seguido la máquina también pudo imaginar un futuro utópico en el que las máquinas puedan ayudar a la humanidad
Lo que no pudo ver en ningún caso es un futuro donde el tratamiento de los datos no sean el objeto de deseo más codiciado de empresas y países
|
etiquetas: ia , guerra nuclear , inteligencia artificial , universidad de oxford
Aún así no me parece una noticia irrelevante el hecho de que la propia IA llegue a esta conclusión, con todo el sesgo que puedan tener los datos introducidos en su "Dojo". A más datos, más se diluye el sesgo.
- ¿Cuál es la única manera de evitar una guerra desatada por una IA?: No tener una IA.
- ¿Evitaría eso la guerra?: No, pero ya no sería por una IA.