edición general
21 meneos
40 clics
Guerra de Gaza: la inteligencia artificial está cambiando la velocidad de los ataques y la magnitud de los daños causados a la población civil de una forma sin precedentes. (ENG)

Guerra de Gaza: la inteligencia artificial está cambiando la velocidad de los ataques y la magnitud de los daños causados a la población civil de una forma sin precedentes. (ENG)

La campaña israelí en la Franja de Gaza es descrita por expertos como una de las más "implacables y mortíferas" de la historia reciente y que además está siendo coordinada en parte con la inteligencia artificial. Esta se está utilizando para cualquier acción en la guerra, desde identificar y priorizar objetivos hasta asignar las armas que se utilizarán contra esos objetivos.Los sistemas de IA que Israel emplea están entrenados para reconocer rasgos que se cree que caracterizan a las personas asociadas con el brazo militar de Hamás...

| etiquetas: gaza , genocidio , israel , ia , inteligencia artificial
Las bajas aumentan cuando no disciminas entre combatientes y niños, es lo que tienen los genocidios.
#3 Es lo que hicieron los yanquis en Hiroshima y Nagasaki.
Sabían que eran civiles inocentes, niños, mujeres, ancianos y hombres civiles y soldados, y aún así los asesinaron.
246.000 seres humanos muertos. Más los innumerables heridos, con 2 bombas.
Sin IA.
Porque no es una guerra, es un exterminio.
#2 Pero si le llamas exterminio /genocidio (lo que es) se les cae {0x1f44e} el relato y también la noticia {0x1f44e} (#0 estoy por votar errónea).

Y luego,... la nueva estrategia (o relato) es decir que: "la culpa fue del informático" (aka "A.I.")  media
como ser miembro del mismo grupo de WhatsApp que un militante conocido, si cambia de teléfono y de dirección cada pocos meses...
Los sistemas analizan los datos de todos los gazatíes, con lo que de esa forma los algoritmos permiten "predecir" la probabilidad de que una persona sea miembro de Hamás, de que un edificio albergue a esa persona, o de que esa persona haya entrado en su casa.


El sistema de decisiones de IA Lavender llegó a identificar a 37.000 personas como

…   » ver todo el comentario
#1 …ese era el plan de lo malos en la segunda de Capitán América. Que curiosamente eran nazis.
Anteriormente se disparaba indiscriminadamente a cualquiera, ahora con la IA se puede hacer lo mismo pero culpar de los errores a la maquina. De momento unos 37.000 errores. Menudo beta testing estan haciendo.
Me parece inhumano todo lo que dice ese artículo, la forma que tiene ese algoritmo, que no IA, de seleccionar objetivos debe considerarse ilegal de inmediato por el bien ya no de los palestinos, si no de todas las personas del planeta.
Los sistemas de IA que Israel emplea están entrenados para reconocer rasgos que se cree que caracterizan a las personas asociadas con el brazo militar de Hamás

Los han entrenado para destruir gente con brazos, piernas y piel oscura pues así son los de Hamás.
#9 ¿ Será que tienen 'cara de malo' ?
Es ridículo además de trágico.
De ahí dejarlos sin atencion medica, comida y agua , tanto la IA como los sionistas carecen de humanidad .
Me parece muy inhumana esta frase:
As one IDF officer told +927 magazine: “Because of the scope and magnitude, the protocol was that even if you don’t know for sure that the machine is right, you know that statistically it’s fine. So you go for it.”

Aunque no estén seguros de que la IA tenga razón, los matan y ya está.
#7 ojalá recibiesen empatía instantánea.
comentarios cerrados

menéame