«Estos métodos de inteligencia artificial pueden determinar qué células de pacientes tienen en común que de otro modo no serían observables», dijo Samuel J. Yang, científico investigador de Google Research. «Lo que también es importante es que los algoritmos son imparciales: no se basan en ningún conocimiento previo o ideas preconcebidas sobre la enfermedad de Parkinson, por lo que podemos descubrir señales completamente nuevas de la enfermedad»
Original:
www.nature.com/articles/s41467-022-28423-4
Y por lo tanto, está sujeta a caer en los mismos errores que los humanos: que los datos de partida tienen que ser buenos y no tener sesgos para empezar, y que la correlación no implica causalidad...
"Lo que también es importante es que los algoritmos son imparciales: no se basan en ningún conocimiento previo o ideas preconcebidas sobre la enfermedad… » ver todo el comentario
El blockchain igualmente es otra herramienta que tiene sus usos y es perfectamente… » ver todo el comentario
Un árbol de decisión complejo, una red neuronal multicapa de cientos de neuronas, etc. NO son depurables. Los huamnos no tenemos capacidad de proceso para esas complejidades o si prefieres verlo así, es nada práctico siquiera ponerse a intentarlo. Sabemos cómo funcionan, si, podemos hacer una traza si queremos, pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo… » ver todo el comentario
Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo… » ver todo el comentario
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.
He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos.… » ver todo el comentario
#5 Es que si a un algoritmo sólo le muestras una parte de la realidad, sólo será capaz de intentar predecir esa realidad. Los algoritmos basados en aprendizaje por refuerzo precisamente buscan que el sesgo no venga dado por los datos, aunque puede venir por cómo has generado el entorno donde aprende y las acciones que puede llevar a cabo. Pero sí, es complicado no introducir sesgos de forma no consciente.
A ver, si ya lo se, pero meterles a todo IA o blockchain porque es la moda es ridículo.
Ya sabemos como acaba la cosa
aquí unos ejemplos
www.eldiario.es/tecnologia/sesgos-genero-algoritmos-circulo-perverso-d
www.elmundo.es/tecnologia/2016/03/28/56f95c2146163fdd268b45d2.html
www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artifici
Marca menéame.
En el mismo que tu.
Del lat. praevidēre.
Conjug. c. ver; part. irreg. previsto.
1. tr. Ver con anticipación.
2. tr. Conocer, conjeturar por algunas señales o indicios lo que ha de suceder.
3. tr. Disponer o preparar medios contra futuras contingencias.
Prever es ver con antelación.
Proveer es abastecer.
Preveer no es nada.
Y por lo tanto, está sujeta a caer en los mismos errores que los humanos
Los humanos, para lo bueno y para lo malo, analizamos siempre a través de la emoción,
Como dato nada más, he sido analista de datos unos cuantos años y soy informático especializado en IA
¿Qué es interpretar? interpretar no es más que aplicar sesgos adquiridos a tus datos para darles un sentido, es usar tu experiencia para sacar conclusiones de los datos. Eso, si lo tomas con cuidado, es lo que hace una IA (la experiencia es la nuestra, que se la damos como conjunto de datos de entrenamiento)
Pero no has sido filósofo de pacotilla
Lo de filósofo de pacotilla... ILLA, ILLA ILLA
Insisto, las maquinas no sacan ninguna conclusión, precisamente porque carecen de consciencia
Pues igual iberdrola también se equivoca...
" Insisto, las maquinas no sacan ninguna conclusión, precisamente porque carecen de consciencia "
¿Qué tiene que ver la consciencia con hacer elecciones sobre unos datos de entrada basándote en una serie de reglas o requisitos, que es a lo que se llama conclusión?
Error. En general los algoritmos de aprendizaje automático no buscan eso sino, si nos centramos en clasificadores, intentar predecir una variable objetivo (target, etiqueta, variable dependiente... como lo quieras llamar). Con ese algoritmo construimos un modelo que es entrenado con una serie de ejemplos e intentamos hacer esa predicción con datos nuevos. El… » ver todo el comentario
7. m. Estad. Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras.
Básicamente lo que hace cualquier algoritmo de clasificación es sesgar los datos... quieres quedarte con unos resultados frente a todos los demás. No lo llames error sistemático, que parece que es algo no buscado o incorrecto.
"El rendimiento del modelo lo medimos con una métrica objetiva, como pueda ser la tasa de acierto.… » ver todo el comentario
1. No no haces asunciones a priori. Las imágenes las tendrás etiquetadas como animales y personas y la red buscará las características que le permitan distinguir una de otra. Precisamente lo bueno de las redes es que no le tienes que decir qué características tiene que buscar, sólo definir la tipología de la red para que sea capaz de hacer reconocimiento de imágenes.
2. Tampoco. Nosotros sólo queremos que sea capaz de predecir la etiqueta de un nuevo dato. Si le estás pasando al modelo… » ver todo el comentario
Si buscas pandas rojos, le pones imágenes de pandas rojos y otras imágenes de otras cosas, pero le indicas claramente que lo que tú necesitas son pandas rojos. Cada vez que pasas un ciclo de entrenamiento, las neuronas se retroalimentan con qué cosas o patrones de los pandas rojos se repiten y cuáles no lo hacen porque se corresponden con otras cosas. Pero sin indicarle qué ha hecho correctamente y qué no, una IA no sabe. O sea, si que tienes… » ver todo el comentario
Pero la gente se cree estas monsergas. Mira casado que decia que esto de la IA se puede enseñar a buscar canceres en radiografias y el blockhain se le podia poner hasta el microondas. No se sabe para que, pero ponselo.