Un nuevo artículo de la Universidad de Waterloo en Ontario sugiere que los modelos de IA también deberían ser capaces de llevar a cabo un proceso que los investigadores denominan aprendizaje de “menos de un disparo” o LO-shot. En otras palabras, un modelo de IA debería poder reconocer con precisión más objetos que la cantidad de ejemplos en los que fue entrenado. Eso podría resolver un gran problema para un campo que se ha vuelto cada vez más caro e inaccesible a medida que los conjuntos de datos utilizados se vuelven cada vez más grandes
|
etiquetas: ia , lo-shot , aprendizaje , entrenamiento , objetos
Se le puede programar para dar un scoring y que te diga que es un 3 pero podría ser un 8. Pero si lo complicas un poco, por ejemplo, apelotonando los números, algo para nosotros obvio, se complica mucho.
sobre #25 se llaman GANs, dos redes compiten entre sí, que aunque el enfoque es distinto también es súper interesante.
Una red se entrena para generar contenido falso y otra para reconocer que es falso y que no, compiten entre ellas haciendose cada vez mejor en su tarea.
youtu.be/gLoI9hAX9dw
Cuando hablaba de "premio" me refería al término de Psicología que relaciona el refuerzo positivo con una tarea concreta. Los "premios" o refuerzos positivos son los que han creado y modificado nuestra manera de entender el… » ver todo el comentario
El análogo del "premio que refuerza un comportamiento correcto" en psicología sería el "proceso de entrenamiento" de una red neuronal, que tiene lugar antes de dar la "inteligencia artificial" por terminada y lista para usarse.
Este "entrenamiento" es en realidad un problema de optimización. Partes de un sistema que depende de muchos parámetros y que… » ver todo el comentario
Incluso hay un tipo de programación en la que se hacen 2 programas, uno hace algo y otro intenta reconocer si es real, y así aprenden las 2 solas.
Te recomiendo el canal DOTcsv de YouTube. Ahí te explica bastante bien el funcionamiento.
También puedes ponerla a jugar una partida de ajedrez, donde ganar la partida es el "premio", aunque se le asignan premios menores por diversos progresos como comer una pieza.
De todos modos, no es innato en los humanos, por seguir con tu ejemplo, el saber que determinado color de piel suele estar asociado a determinado tipo de pelo, ese conocimiento tambien requiere de aprendizaje.
Aún así los sectarios de Podemos seguís siendo mayoría.
youtu.be/KpfrpMwst9o
(Qué rabia, no lo encuentro en castellano de España )
Si se sienten muy estimuladas las personas tienen un comportamiento parecido a ese y acabamos todos cambiado de tema más allá de los 3 pueblos.
O sea, más humo.
Estoy harto de titulares similares al de esta noticia cuando en realidad
es quela IA es incapaz de distinguir a un mono de una persona de piel negra.En su modelo, ellos utilizan lo que llaman 'soft labels'. No es algo nuevo… » ver todo el comentario
Pues me parece que se están llevando la dificultad de entrenar el modelo a la codificación de las etiquetas/ejemplos. Si en vez de hacerlo a mano le meten un autoencoder seguro que también les funciona el invento.
Lo que sí me pareció interesante es el estudio de hasta cuánto se logra usando un subconjunto significativo de datos, especialmente para redes neuronales.