edición general
23 meneos
203 clics
La IA podría ser el límite para todas las civilizaciones avanzadas en el Universo

La IA podría ser el límite para todas las civilizaciones avanzadas en el Universo

Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un límite o punto final para esas civilizaciones, dicho tope o "filtro" podría estar impuesto por un desarrollo no regulado de la IA

| etiquetas: ia , gran filtro , michael garrett
Otra opción es que el universo sea una IA.
Por eso hay que buscar lejos de fuentes de gravedad (tiempo como ventaja) y radiaciones (supervivencia).
No se, creo que es mucho suponer.

En cualquier caso, si la conclusión es que habría que poner algún tipo de control al desarrollo de las AI, creo que ahí casi todos estamos de acuerdo, el problema es que no creo que sea posible establecer esos límites, algo que tambien asume despues el artículo:

" la regulación de esta nueva tecnología va a ser muy difícil, si no imposible, de lograr. Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una

…   » ver todo el comentario
#5 Evidentemente, "la regulación de esta nueva tecnología va a ser muy difícil, si no imposible, de lograr" dentro del marco capitalista. Si cambiara el sistema económico que estamos aguantando con cuatro pinzas por el bien o interés de algunos (vivimos en una especie de estafa piramidal), la IA dejaría de tener sentido alguno. Los avances tecnológicos tendrían un límite, éticamente y moralmente.
#9 Efectivamente mientras el desarrollo de la IA dependa sobre todo de la rentabilidad que esperan sacar las empresas, no hay regulación posible.

Pero pensar que va a cambiar el marco capitalista es lo mismo que pensar que esto se puede regular, no lo veo posible de ninguna forma.
#11 Te iba a decir que en algún momento la sociedad despertará, pero viendo la cantidad de bots y de mierda que logró retener al menos a los españoles para salir del bipartidismo, esto podrá empeorarlo. Veo mierda por un tubo con esto y el experimento no es sólo la IA, el principal conejillo de indias es el ser humano.
#5 Unir dos conceptos que exísten como la IA y "El grán filtro" para crear una nueva teoría apocalíptica es inevitable, eso no le quita mérito al autor pero desde mi humílde punto de vista lo que nos llevará irremediablemente a la extinción es seguir a los que nos dirigen ahora. Cualquier cambio es bienvenido como altenativa a lo que nos estamos ganando sin la ayuda de ninguna IA.
Hawking ya pidió que tuviesen enchufe porsis.
Vamos a ver, cuando hablan de "terraformación" debemos ser conscientes de que absolutamente ningún otro planeta conocido hasta ahora tiene capacidades similares a las de la Tierra, o al menos acreditadas. Si algo pudiera acercarse estaría mínimo a decenas de años luz y, aunque se lograra una nave a velocidad de curvatura, si hubiese algún error de cálculo su regreso sería prácticamente imposible (siempre que la tripulación haya logrado soportar todo el tiempo de viaje de ida, algo…   » ver todo el comentario
Pues tiene sentido que evolucionen a IA y estas adopten la lógica teoría del bosque oscuro. Antes de ir encendiendo los neones se asegurarían si lo que hay fuera es hostil o no.
Skynet calienta que sales.
Interesante artículo, creo que esa idea evolutiva ya se ha predicho antes. No sé bien el nombre de la teoría pero se resume en: materia no inteligente ---> materia orgánica ---> materia orgánica inteligente ---> materia inorgánica inteligente. Aunque la existencia de una no debe conllevar la aniquilación de la anterior.
#13 Enfrentamiento seguro en cuanto se encuentren compitiendo por la energía u otro recurso necesario.
"Podría ser el límite para todas las civilizaciones avanzadas del Universo"

...suponiendo que existiera vida fuera de la Tierra, que esa vida fuera inteligente y que esa vida inteligente desarrollara una civilización. Lo cual hasta el momento es muchisísimo suponer. Son tres inmensos saltos exponenciales de los cuales no hay ni rastro del primero de ellos.
Personalmente, en nuestro caso, creo que antes llegará la autodestruccion por medios no inteligentes. No nos hace falta una IA. Por no decir que hasta las pandemias, el acabar con los recursos, la contaminación y otros etc ligados a temas biológicos a dia de hoy son un riesgo enormemente mas elevado que la ia, que de convertirse en un peligro, debería competir aun con estos de siempre.
¿Y entonces porque no podemos contactar con esas super IAs que destruyeron a sus creadores? ¿Son tímidas?
Las IAs no se supone que destruyen civilizaciones, se supone que son una evolución de las civilizaciones, una nueva etapa.
#17 si una Ia arrasó con sus creadores por considerarlos un peligro crees que te des interés de hablar con un homínido?
#18 *tendría
#18 Si.
Claro que tendría interés. Lo primero que hace una IA para progresar, es acumular datos. Y una nueva civilización son nuevos datos. Y hablar y contarnos cosas es lo primero que le pedimos a una IA por aqui. Y si acabaron con sus creadores, también les puede interesar acabar con la competencia.
Podría ser y podría no ser 50-50 :troll:
comentarios cerrados

menéame