El colapso de los modelos es un proceso degenerativo que afecta a las generaciones de modelos generativos aprendidos, en el que los datos que generan acaban contaminando el conjunto de entrenamiento de la generación siguiente. Al ser entrenados con datos contaminados, perciben erróneamente la realidad. El proceso se representa en la Fig. 1a. Separamos dos casos especiales: el colapso temprano del modelo y el colapso tardío del modelo. En el colapso temprano del modelo, éste empieza a perder información sobre las colas de la distribución; en el
|
etiquetas: modelos , ia , colapsan , datos , recursivos
Si se alimenta mal a la IA los datos que saldrán serán erroneos.
Creo que esto se descubrió en los años 70 cuando se empezó con los primeros modelos de redes neurales.
En el caso del ajedrez, mejora sin problemas con entrenamiento recursivo porque valorar el output es simple: la configuración que gana más partidas es mejor. ¿Pero como valoras un texto? El problema clave está en la valoración. Si la IA no tiene manera de valores que textos son mejores y cuales peores, no sabe hacia donde ir.
Hasta ahora yo decía que la IA no es capaz de decir cuando no sabe algo, junta letras y te da una respuesta, siempre. Ahora creo que tú descripción es mejor y casa con lo que yo veo, no es capaz de valorar su output.
Y, como ser "inteligente", se de lo que no sé y se la calidad y validez de lo que… » ver todo el comentario
Aunque con cierto filtro humano, en sitios que aún quieren mantener la reputación la IA se usa como asistente, un humano elige entre las distintas respuestas o pide otro redactado o corrige los errores que detecta, por lo que lo que acaba publicado es una de las mejores versiones de lo que la IA puede contestar.
www.3djuegos.com/tv-series/noticias/escena-muy-sencilla-al-equipo-robo
sea buena o mala, si la version publicada se puede identificar como detectada por ia, causara problemas a las siguientes generaciones a menos que consigan evitarlo.
Quien usa la herramienta puede decidir que todo el contenido sea creado o alterado por esa herramienta o puede decidir solo cambiar el logotipo del producto que aparece en la imagen o bien solo añadir un par de frases de la IA al texto.
Al final lo que ha habido es un cambio cultural en el cual ya básicamente nadie da por suficiente una imagen para dar por bueno lo que allí se representa. Con la IA seguramente aumentará el escepticismo en otros ámbitos.
(/s)
Por ejemplo, Amazon, con la idea de automatizar con IA los supermercados tuvo que poner a mil trabajadores a mirar todo lo que hacían los compradores, etiquetando la información y así consiguiendo suficientes datos verificados para que sus IA funcionaran correctamente en un futuro.
Pero fue tan caro que al final lo cancelaron
hipertextual.com/2024/04/las-tiendas-de-amazon-no-son-tan-inteligentes
También podrían incluir un sistema que mantenga estable a la IA como hacemos los humanos en sueños que es cuando ordenamos nuestros pensamientos, olvidamos, recordamos y reparamos.
Creo que la solución es emular lo que ya hacemos nosotros de forma natural, "simplemente" es aplicarlo al mundo digital.
En una máquina el criterio sólo puede ser matemático, en cambio el ser humano siente y teme, y su criterio es general. La característica del humano es que dicho criterio parece ser manipulable por otro ser vivo, y según la persona lo es más o menos.
Es muy difícil sino imposible que emule el dolor o el sentimiento, ya que no es un ser orgánico, y además para eso la IA debería tener consciencia de sí misma. La moralidad supuestamente vendría acompañada de tal efecto.
Con el tiempo seguramente encontremos una solución, ahora parece todo mas bien un experimento en un garaje que parece que funciona.
No hay nada mágico en un cuerpo humano. Es una máquina determinista exactamente igual que un robotito de cuerda, sólo que mucho más complicado.
"Es muy difícil sino imposible que emule el dolor o el sentimiento, ya que no es un ser orgánico"
Difícil seguramente sí, pero de imposible no tiene nada. Los sentimientos en definitiva no son más que la expresión de los… » ver todo el comentario
Pues nada, a buscar soluciones, como se ha hecho toda la vida.
¿Como distingues entre una cosa y otra?
La única manera segura es usando datos previos a la aparición de la IA.
Si Google ha guardado las webs que tenía almacenada eso puede valer ORO para entrenar IAs.
break;
}
propongo llamar esto el "efecto Borbon digital" algo así
DDGE: DDGE is Digital Borbón Effect
También conocido como Campechanus Effect con un logo similar al de la CE europea o la CE china
Pero de ahí a que sean inteligentes...
Y nos puede explicar por qué?
Pronto se dará cuenta
¿Me daré cuenta de que le llaman bucle?
Correcto, me llaman Bucle
(...)
ChatGPT sabe catalán no por que ningún humano le haya preparado un set de ese idioma para que lo aprenda con tags manuales y toda la parafernalia, ha aprendido catalán por que para poder encontrar patrones entre toda la morralla que le han dado el catalán era necesario en ciertas partes de esa morralla.
Luego hay procesos de revisión humana ante las respuestas que produce y de afinado, pero el grueso es darle todo Internet y que se busque la vida.
Lo cual es objetivamente falso, como explico en mis respuestas.
La revolución de la IA ha venido de la fuerza bruta, de procesar una ingente cantidad de información que es humanamente imposible elegirla manualmente por la cantidad que es.
El grueso es todo internet con independencia de lo que quieras creer que fuera el proceso de relaciones iniciales, el comentario al que respondía no hacía referencia a relaciones iniciales alguna, eso es de tu cosecha.
Recordamos el comentario al que yo respondía: "La IA se entrenan con datos de alta calidad"
La cual es objetivamente falso.
Lo recordamos: ¿Quién iba a hacer esa ridiculez? La IA se entrenan con datos de alta calidad
El contexto es un meneo en el que se trata el problema de alimentar una IA con datos generados por ésta misma.
Y la respuesta a "¿Quién iba a hacer esa ridiculez?" es básicamente cualquiera que le dé todo Internet a la IA que es lo que se ha hecho para que sean tan exitosas. Es falso que las IA solo se entrenen con datos de alta calidad, el grueso de lo que se entrena en la IA es lo opuesto, es todo Internet, con toda la morralla que haya.
Estás insistiendo una y otra vez en el error de ignorar el contexto de mi respuesta para vender tu libro.
Y por último, tergiversas para seguro con tu cantinela indica do cosas que no he escrito, porque yo no he dicho solo con datos de alta calidad, he dicho que se priorizaron ciertos contenidos, porque los consideraron de alta calidad ¿tanto te cuesta entederlo?
Si no quieres verlo tú mismo.
Contexto que te niegas a tener en cuenta.
¿O era lo que se pretendía?
El ejemplo más claro es cuando le pides que intérprete una documentación técnica para producir un resultado, mucha chulas veces el camino y resultado está plagado de errores garrafales. No sabe, pero no sabe que no sabe.
Igual ya ha pasado y estamos ahora en campos como los de Matrix.