Tecnología, Internet y juegos
8 meneos
54 clics

Los fallos de la IA: de algoritmos sesgados a decisiones trágicas

A diferencia de los humanos, los modelos de IA no evolucionan con los cambios en los valores y normas sociales. Sus acciones son un reflejo directo de las instrucciones que les proporcionamos y son tan buenos como los datos con los que se entrenan. Si los datos contienen sesgos, los modelos inevitablemente reproducirán esos sesgos. Esto subraya la necesidad urgente de prácticas responsables en IA.

| etiquetas: inteligencia artificial , ia , fallos , algoritmos
Los humanos no somos muy distintos. Entrena a un humano poniéndole cada mañana la Cope, leyendo el ABC en el almuerzo y luego viendo elToroTV en la cena y hazle presidente de comunidad autónoma. Tomara decisiones trágicas.
#4 Puede llegar a votar a mascotas de Marquesas y todo.
Los que crearon el sistema de Amazon para contratar no entendían lo que estaban haciendo; en vez de evaluar qué trabajadores tenían buen rendimiento y entrenar la IA para detectarlos, asumieron que el equipo de contratación anterior era capaz de predecir el buen rendimiento y crearon algo que los emulaba. Como resultado tenían un algoritmo que maximizaba la probabilidad de que un candidato hubiera sido contratado por el antiguo equipo de recursos humanos.

Respecto a la conducción autónoma, ¿cómo esperan conseguir muchos datos de entrenamiento de situaciones poco frecuentes si son... poco frecuentes?
#2 Exacto. El problema que están teniendo gente como Tesla con el software de conducción autónoma es el tema de los "eventos finales" (eventos de conducción muy poco comunes pero críticos, que por ser raros están subrepresentados en sus datos de entrenamiento).

El tema es que por mucho que los entrenes con una calidad de datos elevada siempre habrá fenómenos y eventos dinámicos no predecibles y críticos que quedarían fuera del entrenamiento. Por eso la IA es peligrosa para aplicaciones críticas en que un error es intolerable; y es aceptable para chorradas, determinadas fases de la productividad y procesos en que los errores son tolerables (sin contar deepfakes, bullying, desinformación y demás).
¿Una IA creada por los seres humanos la caga tanto o mas como los seres humanos?
Me pinchas y no sangro.
Porque no piensa, no deduce.
Solo une datos que estadisticamente son coherentes.
los modelos de IA no evolucionan con los cambios en los valores y normas sociales. :palm:

Los modelos de IA justo lo que hacen es evolucionar... si los entrenas periódicamente con nuevos valores.

Están pensados para ello y, de hecho, es parte de las buenas prácticas, actualizar las fuentes de datos con los nuevos eventos cada cierto periodo de tiempo.

Una IA que predice cualquier suceso cambiante (el precio de la vivienda, la renta media de una zona, la demanda de electricidad, el…   » ver todo el comentario
#7 He estado pensando un poco y me ha venido una cosa a la memoria que contradice, en cierto aspecto, lo que he dicho en el anterior comentario:

Recuerdo un caso muy sonado de que una IA que predecía la evolución del precio de la vivienda con mucha exactitud en una ciudad dejó de hacerlo al usarse en otra ciudad, a pesar de estar entrenada con los datos de esa ciudad, de la misma forma que funcionaba correctamente en otras ciudades... resultó que uno de los indices muy importantes era la zona…   » ver todo el comentario
comentarios cerrados

menéame