221 meneos
1207 clics
Las inteligencias artificiales "colapsan" si se quedan sin obras humanas de las que aprender
Un estudio publicado en Nature avisa de que los sistemas entrenados por contenidos generados por otras inteligencias artificiales "pierden la percepción de la realidad". El problema es que se sabe que empresas como OpenAI ya han utilizado todos los datos de alta calidad disponibles de forma pública en la red para entrenar modelos como ChatGPT. Su necesidad de seguir suministrando información a su máquina para que esta sigan mejorando ha provocado que recurra a datos de menos calidad, como lo de las redes sociales...
|
comentarios cerrados
"Pa ke kieres saber eso jajaja saludos"
.
"Pa ke kieres saber eso jajaja saludos"
Si pregunta una mujer, le dirá la IA: "brava".
Le preguntas algo sobre ciencia: "la respuesta siempre será grafeno".
O cuando la IA colapse cuando le pregunte alguien si la tortilla de patata con cebolla o sin cebolla.
Si le dices a la IA algo que no le mola, se chivará a @admin
Y si le hablas sobre una noticia que no… » ver todo el comentario
Por ejemplo, a chatgpt le dices que te saque la letra de una canción y si no la tiene se inventa la letra. Una IA puede usar muchos mecanismos para llegar a su conclusión, pero suelen ser métodos estadísticos y no llega a esas conclusiones
Sí coincido con que las IAs generalistas actuales son muy imperfectas en comparación, e incluso es posible que la base tecnológica que estamos usando ahora mismo tenga limitaciones matemáticas insalvables y en algún momento haya que empezar de 0 con algoritmos completamente diferentes.
Pero en qualquier caso, el… » ver todo el comentario
Pero yo me refería concretamente a las redes neuronales como las que se desarrollan actualmente. Hay que interpretar las frases dentro de su contexto porque sino sería imposible comunicarse. Es obligación del lector el hacer este trabajo.
No somos intrínsicamente diferentes a las IAs, es solo que en el momento actual somos mucho mejores que las mismas en las tareas en las que destacamos.
Y claro que somos diferentes a una IA, ya en la segunda guerra mundial Alan Turing definió lo que es un computador, primero a nivel teórico con… » ver todo el comentario
Muy buenas herramientas pero lo de llamarlo Inteligencia creo que fue una estrategia de marketing del copón, y lo peor es que les ha resultado
Sí, seguro que estaba pensando en el marketing.
Los humanos NO somos autómatas, esto está demostrado desde los años 60. Las IA, como cualquier programa humano, son maquinas de Turing, es decir, autómatas.
Las personas aprendemos de forma muy distinta, creando conceptos mentales estructurados, en los que se vinculan muchas propiedades y asociaciones diferentes. (Ejemplo: nuestro concepto de "naranja" incluye su forma, color, textura, el conocimiento de que es una fruta, cómo… » ver todo el comentario
Y me suena ya haber escuchado sobre esto, que el próximo paso no es darle más datos, sino mejorar la forma en que trabaja con esos datos.
Sobre todo a partir de un paper de Anthropic en el que habían empezado a descubrir de qué forma trabajaba la "caja negra" (hay un vídeo de DotCSV que se llama algo del puente de San Francisco).
Luego lo del fine tuning sí creo que puede ser útil. Pero tiene rendimientos decrecientes. Actualmente se usa para moldear la "personalidad" del LLM, pero no mejora su "inteligencia".
Empezamos mal.
Para percibir hay que sentir (a través de los sentidos), y una IA sólo es un concepto, ya que en realidad no es más que una calculadora. No siente y por ende tampoco percibe, sólo calcula.
Por tanto, con el 286 se ha alcanzado el techo prácticamente de la computación.
Pues estoy buscando ordenadores por un precio similar al mío, que compré hace 10 años, y no son 32 veces más potente ni de coña.
Ese es el verdadero problema.
Y en cualquier caso, incluso las IAs actuales serán increíblemente útiles cuando se integren en multitud de sistemas informáticos. Por ejemplo que yo pueda definir en lenguaje natural el informe que… » ver todo el comentario
Los verdaderos usos de IAs vendrán cuando la mayoría de las empresas dejen de hacer el imbécil intentando meter IA en todas sus mierdas a lo loco y simplemente usen productos con IA de las 4 empresas para las que realmente tiene sentido. Pero un CRM con un chatgpt integrado seria la repolla.
PD: En Silicon Valley algunos empiezan a bromear con que a Sam Altman se le está poniendo cara de Elizabeth Holmes.
Se basa en el paper:
www.meneame.net/story/modelos-ia-colapsan-cuando-entrenan-datos-genera
Pero explica un poco ya que ese era un enlace al paper y en castellano.
Yo no lo veo duplicado.
Más darle al coco y menos utilizar estas tecnologías que solo se están creando para intentar reemplazar al trabajador y hacer que los de siempre ganen más.
Entonces no hace falta que lo que escriba en el artículo sea verdad o informe, simplemente importa que, por un costo menor, atraiga la atención de la gente , la diferencia es dinero...
Estamos en ese mundo, lo de "darle al coco" es poco eficiente desde el punto de vista económico.
Eso en reconocimento de patrones, pero vamos, crear ilustraciones o textos, aumentará en complejidad, pero se basa en lo mismo.
Crees que esto podría causar un incremento en el número de "alucinaciones" ?
Pero copiar. No. Hay una cosa que se llama overfitting y que se evita, justo para que no copie.
No input, no output.
Para hacer esa afirmación de forma tan categórica necesitas defini que es inventar y deducir para ti.
Por ejemplo, AlphaFold es capaz de inventar/deducir la estructura de proteínas que los humanos no hemos visto nunca y cuáles serán sus propiedades.
Es decir, basado en datos anteriores puede sacar información nueva cuando hay muchas variables y la cosa es mucho más compleja que lo de arriba, pero basa todo en el conjunto de datos de entrada. Un humano puede buscar como conseguir más información
Que se mueva dentro de los parámetros que le marquemos los humanos es como debe de ser.
La iniciativa que pueda tener también debe de ser pautada.
No, esta premisa no es correcta. Consideremos la evolución de los sistemas inteligentes en el juego de Go:
1. AlphaGo: Utilizó datos históricos, conocimiento experto y las reglas del juego para aprender.
2. AlphaGo Zero: Aprendió jugando contra sí mismo, utilizando únicamente las reglas del juego.
3. AlphaZero: Aplicó el mismo algoritmo para aprender otros juegos.
4. MuZero: Dominó Go, ajedrez, Shogi y Atari sin conocimiento previo de las reglas del juego.
deepmind.google/discover/blog/muzero-mastering-go-chess-shogi-and-atar
.
"Schrödinger's Human"
El… » ver todo el comentario
Es un mal nombre.
En mi sector (biblioteca universitaria) se empezaron a detectar demandas para conseguir articulos que.... no existian.
www.psypost.org/chatgpt-hallucinates-fake-but-plausible-scientific-cit
No entiendo. Si esos artículos no existían, ¿como podía el software validar su demanda?
Es como si me dices que los clientes de Mercadona intentan comprar productos que no existen.
"Surprisingly,… » ver todo el comentario
Una alucinación es otra cosa distinta.
Ejemplo:
Pregunta:
Todos los chiyoriA son chiyoriB.
Ningún chiyoriB es chiyoriC.
¿Puede haber un chiyoriC que sea chiyoriA?
Respuesta:
No, no puede haber un chiyoriC que sea chiyoriA. La razón es la siguiente:
1. **Premisa 1:** Todos los chiyoriA son chiyoriB. Esto implica que si algo es un chiyoriA, entonces necesariamente es un chiyoriB.
2. **Premisa 2:** Ningún chiyoriB es chiyoriC. Esto… » ver todo el comentario
También es otro buen ejemplo de que su entrenamiento no tiene nada que ver con cómo aprendemos los humanos partiendo de las obras hechas por otros humanos y de lo que observamos de nuestro entorno o de las cosas que imaginamos.
Ya te dije ayer varias veces, y desde el principio, que aunque pueden razonar a alto nivel, no son inteligencias iguales al humano (al menos hasta ahora, si desarrollan la AGI hablamos), de ahí que se llamen artificiales, funcionan diferente. ¿y quieres que siga repitiendo lo mismo? No seas cansino...
Pero si esta noticia es la prueba irrefutable de que las IA no razonan, hijo. Si ni siquiera entendiste que ayer te llamara IA porque, al igual que ellas, no razonas. Eso es pillarme? Hijo, estás delulu.
añosmeses será alreves, los humanos colapsaremos sin IA porque no seremos capaces de hacer nada sin recurrir a ella.Vamos que si esto del colapso es verdad, OpenAI, Meta, Google, empiezan a meter marcas de aguas por su propio interés en 3, 2, 1...
Fiel a la realidad
Me hace gracia lo de datos disponible de forma pública. No hay ia que pase una auditoría de datos de entrenamiento. Habrán soltado un dineral a sgaes y similares para que se queden calladitos.
Una ia debería tener la capacidad para deducir cosas por sí misma mediante observación. Por ejemplo, recibe como entrada un vídeo donde cae una manzana de un árbol y un usuario le pregunta cosas como… » ver todo el comentario
www.reddit.com/r/programming/comments/1dqvmdh/if_ai_is_too_dangerous_f
El tema de todo esto es que la IA generativa no puede aprender de si misma que es un aspecto fundamental si queremos que nos supere. Por ejemplo AlphaZero superó a los humanos jugando al adjedrez compitiendo contra… » ver todo el comentario