cultura y tecnología
221 meneos
1205 clics
Las inteligencias artificiales "colapsan" si se quedan sin obras humanas de las que aprender

Las inteligencias artificiales "colapsan" si se quedan sin obras humanas de las que aprender

Un estudio publicado en Nature avisa de que los sistemas entrenados por contenidos generados por otras inteligencias artificiales "pierden la percepción de la realidad". El problema es que se sabe que empresas como OpenAI ya han utilizado todos los datos de alta calidad disponibles de forma pública en la red para entrenar modelos como ChatGPT. Su necesidad de seguir suministrando información a su máquina para que esta sigan mejorando ha provocado que recurra a datos de menos calidad, como lo de las redes sociales...

| etiquetas: inteligencias artificiales , colapsan , sin obras humanas , aprender
Comentarios destacados:                  
#8 #1 Yo estoy esperando el momento en el que a base de entrenarla con Yahoo respuestas, cuando le hagas alguna pregunta a chatgpt te responda:

"Pa ke kieres saber eso jajaja saludos"
Menos mal que cuando recurran a forocoches nos salvaremos todos. :troll:
#1 Veras las risas cuando ChatGPT nos meta en las capsulas con tubos en nuestros hipotalamos solo para seguir entrenando los modelos. Aprende MLOps sera divertido, decian.

.  media
#1 Yo estoy esperando el momento en el que a base de entrenarla con Yahoo respuestas, cuando le hagas alguna pregunta a chatgpt te responda:

"Pa ke kieres saber eso jajaja saludos"
#8 mis dieses shurmano. Respuesta de IA forocochera
#8 yo estoy deseando que usen Menéame para que cualquier respuesta sea "Ayuso mataviejos" o "Carapolla"
#18 O respondan con frases hechas "te enseño la luna y miras el dedo". "Cuando el tonto coge una linde..." "atado y bien atado"
Si pregunta una mujer, le dirá la IA: "brava".
Le preguntas algo sobre ciencia: "la respuesta siempre será grafeno".
O cuando la IA colapse cuando le pregunte alguien si la tortilla de patata con cebolla o sin cebolla.
Si le dices a la IA algo que no le mola, se chivará a @admin
Y si le hablas sobre una noticia que no…   » ver todo el comentario
#21 Claramente tu IA es un modelo mucho más avanzado que el mío xD
#21 estás poniendo en evidencia nuestro masoquismo colectivo xD
#21 Te falta la de puño de acero, mandíbula de cristal :troll:
#68 O la de te strikeo por bulo por dar una opinión. Esa es muy típica. :troll:
#21 iba a decir: "wow findeton, me gustas mucho más cuando eres así de gracioso."
#18 si coge datos antiguos, las respuestas serán "como en cubazuela", "eso es eta" y "casoplón".
#38 y si los coge aún más antiguos te soltará comentarios algo ofensivos que no resolverían tu duda pero te harían reír por ser ingeniosos (algunos más que otros), llenos de sarcasmo, ironía…. Se convertiría en una IA del tipo Cerdopolla o Profesor.
#89 en qué kickstarter puedo apoyar eso? xD
#18 Lo bueno será cuando te responda a la primera pregunta, intentes repreguntar y no llegue el mensaje porque te ha ignorado.
#8 Si la IA se entrena de ahí, controlará al mundo entero. www.youtube.com/watch?v=-hHgboTJMxo&t=14165s
#1 Cuando pase por menéame empezará a llamar facha, racista, machista, voxero... de manera indiscriminada.
#1 le preguntas a chatgpt y te responde: pole!
#12 pues lo mismo que hace el ser humano no?
#16 no. Un humano puede decidir que tiene que crear nuevos instrumentos o nuevos experimentos para llegar a conclusiones cuando considera que no tiene datos suficientes para llegar a una conclusión. No quero generalizar pero en general la ia te dirá cualquier cosa que le parezca que tiene sentido.

Por ejemplo, a chatgpt le dices que te saque la letra de una canción y si no la tiene se inventa la letra. Una IA puede usar muchos mecanismos para llegar a su conclusión, pero suelen ser métodos estadísticos y no llega a esas conclusiones
#22 Una IA no sabe si lo que dice tiene sentido. Solo saca la media y te la da.
#28 Lo que "sabemos" los seres humanos es simplemente el resultado que "sacan" los algortmos con los que trabaja nuestro cerebro, al igual que hace la IA.

Sí coincido con que las IAs generalistas actuales son muy imperfectas en comparación, e incluso es posible que la base tecnológica que estamos usando ahora mismo tenga limitaciones matemáticas insalvables y en algún momento haya que empezar de 0 con algoritmos completamente diferentes.

Pero en qualquier caso, el…   » ver todo el comentario
#42 Que sí. No hay ninguna diferencia fundamental entre un robot y un animal. Ambos son autómatas deterministas. Si parecen tan distintos es debido a la enorme diferencia en complejidad.

Pero yo me refería concretamente a las redes neuronales como las que se desarrollan actualmente. Hay que interpretar las frases dentro de su contexto porque sino sería imposible comunicarse. Es obligación del lector el hacer este trabajo.
#52 Por eso, ante la ambigüedad de un comentario (no es tu caso, pero esa misma frase en este contexto se usa frecuentemente de la otra manera), no he asumido tu intención, sino que he comentado en ambos sentidos. Para otros lectores que entiendan lo mismo que tú, contesto con que estoy de acuerdo con la naturaleza muy limitada de las IAs actuales. Para quienes entiendan que la inteligencia biológica es fundamentalmente diferente a la inteligencia artificial, comento que no estoy de acuerdo y por qué.
#42 no, no, no. Un humano no trabaja en base a algoritmos, no somos autómatas. Para empezar el cerebro es plástico, un programa no.
#57 Los programas pueden crearse para seguir siempre el mismo conjunto de instrucciones (lo cuál es lo más simple y habitual), pero también para actualizar dinámicamente sus instrucciones en base a cambios en el contexto (incluso a cambios que no pueden preverse en el momento de la creación del programa, y cuya adaptación se delegue al estado futuro del mismo).

No somos intrínsicamente diferentes a las IAs, es solo que en el momento actual somos mucho mejores que las mismas en las tareas en las que destacamos.
#81 que un programa puede actualizar dinámicamente sus instrucciones? Quieres decir que se puede reprogramar a sí mismo? No, hombre, no! Lo que se cambian son los datos, el programa, no. Eso seria un hito histórico y no se ha logrado, claro. Es más, el cerebro no se cambia a nivel de software, si no que cambia su hardware, las neuronas se reconfiguran.
Y claro que somos diferentes a una IA, ya en la segunda guerra mundial Alan Turing definió lo que es un computador, primero a nivel teórico con…   » ver todo el comentario
#57 Las asociaciones que hace una ia se automodifican a medida que le meten más datos, esa es la correlación a nuestra "plasticidad cerebral" para manejar los datos.
#22 Exactamente lo que digo a todo el que me saca el temita de la IA, que hasta que no sepa que no sabe, hasta que no sepa que lo que está diciendo es una soplapollez porque le faltan datos no será medianamente inteligente. Y ahora mismo por más que le digas "oye, que no, que no tienes ni puta idea, que eso está mal, ellas siguen erre que erre"

Muy buenas herramientas pero lo de llamarlo Inteligencia creo que fue una estrategia de marketing del copón, y lo peor es que les ha resultado
#37 Te refieres a John McCarthy en el año 55? en.wikipedia.org/wiki/John_McCarthy_(computer_scientist)
Sí, seguro que estaba pensando en el marketing.
#45 Pues lo mismo se vino muy arriba nombrándolo.
#80 Todo el mundo parece tener alguna idea intuitiva de lo que es la inteligencia. Algunas son extremada restrictivas y otras poco operativas. Pero lo cierto es que no existe una única que además sea precisa y no plantee problemas. En el sentido de que algunos de los aspectos que normalmente se han asumido constituyentes de alguna de ella son resueltos, y se tiene alguna idea de cómo resolver otros, no parece un nombre tan inadecuado. Además estás asumiendo una concepción muy antropocéntrica de la inteligencia. Existen otras que son radicalmente diferentes (incluso entre humanos se ven variaciones).
#37 El término correcto es LLM. Pero a eldiario.es para hacer demagogia les viene mejor llamarles "inteligencias artificiales", y decir que "colapsan".
#16 pues no y me frustra mucho que muchos sigáis pensando eso. No se ha aprendido nada del fracaso del conductismo? No has visto La naranja mecánica?
Los humanos NO somos autómatas, esto está demostrado desde los años 60. Las IA, como cualquier programa humano, son maquinas de Turing, es decir, autómatas.
#55 por? Te refieres a fenómenos cuánticos en el cerebro?
#60 no, no me refiero a nada en concreto, nadie sabe exactamente como funciona el cerebro humano y como consigue no ser un autómata. Lo que sí se consiguió demostrar es que no somos autómatas. Piénsalo, si lo fuéramos, se nos podría reprogramar (algo que se intentó con mucho ímpetu el siglo pasado) y por fortuna no se puede.
#16 Ninguno de los procesos que realiza la iA a la hora de aprender y representar imágenes son análogos a la serie de procesos cognitivos que desempeña un cerebro humano cuando estudia y se inspira en otras obras.

Las personas aprendemos de forma muy distinta, creando conceptos mentales estructurados, en los que se vinculan muchas propiedades y asociaciones diferentes. (Ejemplo: nuestro concepto de "naranja" incluye su forma, color, textura, el conocimiento de que es una fruta, cómo…   » ver todo el comentario
Mira tú para que necesitaba Matrix a los humanos.:-D
#6 En el guión original: para hacer de computadoras donde correr la propia matrix.
#6 #10 El gran problema: mientras esté la puerta abierta siempre habrá alguien ahí dando de comer al monstruo.
#10 tremenda pifia lo de los humanos como pilas, me dejó jodido durante mucho tiempo por no poder entenderlo
Creo que ya se ha lanzado algún modelo que era superior a otros con los mismos o menos datos de entrenamiento pero con un mejor fine tunning.

Y me suena ya haber escuchado sobre esto, que el próximo paso no es darle más datos, sino mejorar la forma en que trabaja con esos datos.

Sobre todo a partir de un paper de Anthropic en el que habían empezado a descubrir de qué forma trabajaba la "caja negra" (hay un vídeo de DotCSV que se llama algo del puente de San Francisco).
#15 Lo que dices de Anthropic se llama "interpretabilidad" y está en pañales. Habrá que ver si realmente sirve para algo.
Luego lo del fine tuning sí creo que puede ser útil. Pero tiene rendimientos decrecientes. Actualmente se usa para moldear la "personalidad" del LLM, pero no mejora su "inteligencia".
"los sistemas entrenados por contenidos generados por otras inteligencias artificiales “pierden la percepción de la realidad”"

Empezamos mal.

Para percibir hay que sentir (a través de los sentidos), y una IA sólo es un concepto, ya que en realidad no es más que una calculadora. No siente y por ende tampoco percibe, sólo calcula.
#23 Los sentidos son solo un concepto, podrían emularselos en un mundo virtual.
Cuando hablo con gente sobre IA y les digo que el techo prácticamente ya se ha alcanzado me tratan poco menos que de gilipollas, y voilà, aquí está la prueba. Desde hace meses que OpenAI se está dedicando a mejorar la velocidad o la multimodalidad, pero poco más se puede rascar ya de la "inteligencia" en si. Habría que cambiar totalmente la tecnología base para seguir mejorando la IA, el modelo actual es mas y mas datos, y los datos y la capacidad de computación son finitos.
#35 Con el 286 la ram y los procesadores ya tenían la misma base teórica que la que se usa actualmente, el modelo de von Newmann.
Por tanto, con el 286 se ha alcanzado el techo prácticamente de la computación.
#35 "la capacidad de computación son finitos". La capacidad de computación (cómputo que puedes realizar por un dolar) lleva duplicándose cada dos años de forma sistemática desde hace más de 50 años. Todo es finito, claro, pero el crecimiento sigue siendo exponencial, cosa que nuestro cerebro biológico nunca va a ser. Lo jodido de las exponenciales es eso, que un segundo antes de que te reviente la ola aún te pilla riéndote de ella porque es pequeñita.
#46 no tío. Eso hace tiempo que no es así.
#46 «La capacidad de computación lleva duplicándose cada dos años de forma sistemática desde hace más de 50 años»
Pues estoy buscando ordenadores por un precio similar al mío, que compré hace 10 años, y no son 32 veces más potente ni de coña.
#35 el problema no es de hardware, sino de soft. Con lenguajes deterministas poco más se puede simular inteligencia. Y nadie es capaz ni de acercarse a programación no determinista, es decir, a programar algoritmos, autómatas.
Ese es el verdadero problema.
#35 Creo que es increiblemente aventurado decir lo que estas diciendo. Ni los propios cientificos que hablan del "model collapse" lo tienen claro. La pregunta que suelen hacerse es mas bien si el siguiente "gran paso" pueda costar 10 o 100 veces mas, no que sea imposible darlo.

Y en cualquier caso, incluso las IAs actuales serán increíblemente útiles cuando se integren en multitud de sistemas informáticos. Por ejemplo que yo pueda definir en lenguaje natural el informe que…   » ver todo el comentario
#87 Nah. Ni me creo cuando dicen que la IA mejora la productividad metida con calzador en cualquier lado, ni me creo esto tampoco.

Los verdaderos usos de IAs vendrán cuando la mayoría de las empresas dejen de hacer el imbécil intentando meter IA en todas sus mierdas a lo loco y simplemente usen productos con IA de las 4 empresas para las que realmente tiene sentido. Pero un CRM con un chatgpt integrado seria la repolla.
#91 La clave es lo que dices, una buena implementación realista (eso y una adecuada formación no solo de empleados, sino también de directivos para poner plantear procesos realistas).
#35 Ley de Rendimientos Decrecientes. De hecho OpenAI puede tener problemas financieros muy graves de aquí a un año como no consiga revolucionar el costo de toda la infraestructura o no pueda ofrecer un nuevo producto revolucionario (que por los rumores parece que no se le espera...y tendría que ser algo tirando a la IA semántica).
PD: En Silicon Valley algunos empiezan a bromear con que a Sam Altman se le está poniendo cara de Elizabeth Holmes.
#85 Pero si prácticamente no han empezado a explotarlo comercialmente.
Creo que es "relacionada"
Se basa en el paper:
www.meneame.net/story/modelos-ia-colapsan-cuando-entrenan-datos-genera
Pero explica un poco ya que ese era un enlace al paper y en castellano.
Yo no lo veo duplicado.
#3 Al igual que los suplementos, esto de la inteligencia artificial solo sirve para suplir lo que nos falta.

Más darle al coco y menos utilizar estas tecnologías que solo se están creando para intentar reemplazar al trabajador y hacer que los de siempre ganen más.
#61 El problema viene a ser lo mismo, lo importante no es informar con un artículo (o enseñar y entretener con un libro, o disfrutar creando un poema) lo importante es obtener el mayor beneficio económico.
Entonces no hace falta que lo que escriba en el artículo sea verdad o informe, simplemente importa que, por un costo menor, atraiga la atención de la gente , la diferencia es dinero...
Estamos en ese mundo, lo de "darle al coco" es poco eficiente desde el punto de vista económico.
Eso ya lo pensé yo, no hace falta que lo publique Nature
#9 Nature, además de pensarlo como tu, publica un estudio que lo demuestra.
De ahí lo de "artificial".
#4 De ahí lo de 'intelegencia', en comillas.
#24 Eso es, solo dan una respuesta estadística de lo que han copiado... si no hay nada que copiar no hay nada relevante que responder.
#53 Bueno en realidad, en su forma más básica, es entrenar a un algoritmo, una red neuronal para que reconozca patrones, cuanto más grande sea el conjunto de entrenamiento, mejor será el reconocimiento de casos similares a los de ese conjunto. En sistema acotados de lo que te puedes encotrar funciona muy bien, pero no ante una variante, algo fuera de su 'experiencia' de entrenamiento.

Eso en reconocimento de patrones, pero vamos, crear ilustraciones o textos, aumentará en complejidad, pero se basa en lo mismo.
#66 Imagino que los problemas vienen cuando no hay datos o datos de calidad para entrenar a la red neuronal para que reconozca patrones.

Crees que esto podría causar un incremento en el número de "alucinaciones" ?
#71 Claro en el reconocimiento de patrones, solo te va a decir que esa imagen o letra es tal. Es algo absoluto y puedes ver el porcentaje de error. En el caso de creación de textos, te puede soltar cualquier milonga, porque ahí ya no hay un respuesta correcta, puede haber muchas correctas. Pero supongo que a nivel de consumo, con IA gratuitas, les puede interesar relajar el sistema, y que siempre te responda algo aparentemente coherente, aunque sea incorrecto, ántes que te diga que no puede responder, como ese ejemplo de hacer un resumen de un artículo de un periódico inexistente, que sale en la wiki.
#53 pues muy parecido a lo que hacemos las personas repetir estadísticamente lo que hemos escuchado, aunque de forma mucho mas compleja
#24 Igual habría que cambiar la denominación de esta tecnología a algo más preciso y dejarnos de eufemismos.
#56 Cualquiera de estas: combinar, componer, acoplar, agregar, compaginar, conjuntar, juntar, unir, casar te la compro.
Pero copiar. No. Hay una cosa que se llama overfitting y que se evita, justo para que no copie.
#72 Te refieres a la copia literal. Yo, no.
Pero todo esto está dicho desde el principio. Una red neuronal no es más que una base de datos. Solo puede repetir los datos de sus entradas. Lo hará de formas curiosas, pero lo que no puede hacer es inventar ni deducir nada.

No input, no output.
#5 >> no puede hacer es inventar ni deducir nada.

Para hacer esa afirmación de forma tan categórica necesitas defini que es inventar y deducir para ti.

Por ejemplo, AlphaFold es capaz de inventar/deducir la estructura de proteínas que los humanos no hemos visto nunca y cuáles serán sus propiedades.
#7 es capaz de inferir basándose en un conjunto de datos previo. Es decir, simplificando, si tu le dices que en enero la temperatura media es 10 y en marzo 20, puede deducir que febero es 15 (lo estoy hipersimplificando)

Es decir, basado en datos anteriores puede sacar información nueva cuando hay muchas variables y la cosa es mucho más compleja que lo de arriba, pero basa todo en el conjunto de datos de entrada. Un humano puede buscar como conseguir más información
#12 Es que así es como debe de ser una IA segura que sirva a los humanos. Si tiene iniciativa para desarrollar y explorar por sí sola sin ningún límite eso podría acarrear muchísimos problemas de seguridad de todo tipo. Hay que ponerla en vereda.
#17 En realidad no, porque no puede tener iniciativa para hacer nada por sí sola. Los animales sí que lo hacemos porque seguimos unas instrucciones que se llaman instintos.
#29 claro, por eso se le denomina precisamente artificial. No es un ser vivo.
Que se mueva dentro de los parámetros que le marquemos los humanos es como debe de ser.
La iniciativa que pueda tener también debe de ser pautada.
#73 #12 >> Es decir, basado en datos anteriores puede sacar información nueva

No, esta premisa no es correcta. Consideremos la evolución de los sistemas inteligentes en el juego de Go:

1. AlphaGo: Utilizó datos históricos, conocimiento experto y las reglas del juego para aprender.
2. AlphaGo Zero: Aprendió jugando contra sí mismo, utilizando únicamente las reglas del juego.
3. AlphaZero: Aplicó el mismo algoritmo para aprender otros juegos.
4. MuZero: Dominó Go, ajedrez, Shogi y Atari sin conocimiento previo de las reglas del juego.

deepmind.google/discover/blog/muzero-mastering-go-chess-shogi-and-atar

.  media
#7 Predice la estructura tridimensional partiendo de la secuencia de aminoácidos que forman la proteína, que parece que das a entender que inventa proteínas.
#14 Predice, que es distinto de acertar.
#14 Estoy de aduerdo. Por eso he dicho en el comentario que hay que definir que es "inventar". Las proteinas no se inventan se predicen. Es el eterno debate si las matematicas se inventan o se descubren.
#7 Lo que hace es aplicar los mecanismos de pliegue conocidos a proteinas nuevas. Es decir, la pliega como las otras. Si la protreina nueva se plegara de una forma no vista antes, será completamente incapaz de deducir nada de eso.
#7 no, AlphaFold aplica las reglas que le han introducido los humanos para “predecir” en base a ellas las estructuras proteínicas a toda leche, pero las IA no dejan de ser calculadoras. Ningún programa humano ha dejado nunca de serlo.
#7 Me da que tiene poco conocimiento de lo que subyace por debajo de uno de estos sistemas. Habla de oídas
#5 Por desgracia, para muchos, las IA's actuales muestran unos niveles de creatividad acojonantes. Creeme, llevo desde 2019, con GTP2, intentando generar texto literario de calidad y nunca lo había conseguido, hasta hace pocos días. Con estas indicaciones: "Siguiendo las directrices del documento sobre la creación de personajes, escribe un microrrelato de un gato al que se le ha muerto su dueño. Estilo Foster Wallace." generó esta maravilla:

"Schrödinger's Human"
El…   » ver todo el comentario
#36 Todo lo que saca una máquina de estas proviene de sus entradas. Habrá creatividad ahí, pero lo que ha hecho la máquina es copiar.
#36 Me encantó el relato! o_o El humano de Schrödinger Una vuelta de tuerca a un tema sobado. Lo veo bastante humano, y hasta tiene una dosis de mala leche...
#5 El cerebro humano también es una red neuronal con unas entradas.
#44 Una red neuronal es una palabra usada para designar un cierto tipo de máquina que no tiene absolutamente nada que ver con como funciona un cerebro humano.

Es un mal nombre.
#48 Sí, no entremos en lo semántico. El cerebro humano también es una caja con unas entradas.
#5 Bueno, excepto las "AI Hallucinations" en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
En mi sector (biblioteca universitaria) se empezaron a detectar demandas para conseguir articulos que.... no existian.
www.psypost.org/chatgpt-hallucinates-fake-but-plausible-scientific-cit
#79 >se empezaron a detectar demandas para conseguir articulos que.... no existian

No entiendo. Si esos artículos no existían, ¿como podía el software validar su demanda?

Es como si me dices que los clientes de Mercadona intentan comprar productos que no existen.
#93 Me explico, una de las funciones de las bibliotecas universitarias es conseguir articulos que no tienes en tus propios fondos. Los servicios de préstamo interbibliotecario (se piden a otras bibliotecas que si los tienen) empezaron a recibir demandas de usuarios sobre citas bibliográficas aparentemente correctas.... pero que no existian, nunca se había publicado un articulo de ese autor con ese titulo y en ese número de revista. Como dice el segundo link que he puesto
"Surprisingly,…   » ver todo el comentario
#97 Entonces, según lo que dices, entiendo que la petición la realizan en papel, y que no confirman previamente si el artículo existe en internet.
#99 Lo habran buscado en internet, o mejor dicho, en el catalogo de recursos de la biblioteca. Me explico, muchos articulos estan en internet de manera gratis y abierta. Pero muchisimos, especialmente de revistas de alto prestigio, estan solo accesibles si pagas por ello. Generalmente las bibliotecas universitarias gastan mucho mas en recursos electrónicos que en papel. A veces los estudiantes no se dan cuenta, pues si entran en la red de la universidad/se autentican, ya acceden directamente.…   » ver todo el comentario
#97 ¿Pero la gente es subnormal y no comprueban si existe el DOI?
#79 Pedir un artículo es un resultado correcto. Pedir un artículo que no existe es también un resultado correcto dada la forma en la que funcionan las redes neuronales.

Una alucinación es otra cosa distinta.
#5 Claro que puede deducir informaciones no incluidas en sus datos de entrenamiento.

Ejemplo:
Pregunta:
Todos los chiyoriA son chiyoriB.
Ningún chiyoriB es chiyoriC.
¿Puede haber un chiyoriC que sea chiyoriA?

Respuesta:
No, no puede haber un chiyoriC que sea chiyoriA. La razón es la siguiente:

1. **Premisa 1:** Todos los chiyoriA son chiyoriB. Esto implica que si algo es un chiyoriA, entonces necesariamente es un chiyoriB.

2. **Premisa 2:** Ningún chiyoriB es chiyoriC. Esto…   » ver todo el comentario
#90 No lo deduce, lo copia y sustituye palabras.
Ya se sabe desde hace tiempo que las iAs padecen de una cosa llamada MAD (Model Autophagy Disorder) que las hace delirar cuando realizan autofag-iA y que acabará colapsando a nos ser que se resuelva el problema de alimentarlas con datos sintéticos. Es una tecnología parasitaria que necesita de nuestros datos, incluyendo (y sobre todo) los protegidos por copyright, lo cual es un gran problema para todas las personas que viven de la creación de contenidos creativos.

También es otro buen ejemplo de que su entrenamiento no tiene nada que ver con cómo aprendemos los humanos partiendo de las obras hechas por otros humanos y de lo que observamos de nuestro entorno o de las cosas que imaginamos.
Si con todo lo que hay publicado en internet "de alta calidad", no tienen suficiente, perdón por la expresión, estas IA son una mierda.
@MataGigantes esto te parece razonar? Si empiezan a alimentarse de contenido generado por ellas mismas, colapsan. No parece muy razonable.
#47 te pillé ayer hasta el punto de que en tus últimas respuestas ya solo salías con tonterías como que yo era una IA, pues eras incapaz de admitir lo evidente, que las IAs tienen capacidad de razonar, ¿y hoy vuelves a por más? xD
Ya te dije ayer varias veces, y desde el principio, que aunque pueden razonar a alto nivel, no son inteligencias iguales al humano (al menos hasta ahora, si desarrollan la AGI hablamos), de ahí que se llamen artificiales, funcionan diferente. ¿y quieres que siga repitiendo lo mismo? No seas cansino...
#83 que me pilaste? xD xD xD
Pero si esta noticia es la prueba irrefutable de que las IA no razonan, hijo. Si ni siquiera entendiste que ayer te llamara IA porque, al igual que ellas, no razonas. Eso es pillarme? Hijo, estás delulu.
Y si pagan por los datos no es rentable... vaya.
Idiocracia Meets Terminator... :-P
Por ahora. En unos años meses será alreves, los humanos colapsaremos sin IA porque no seremos capaces de hacer nada sin recurrir a ella.
Hay una cuestión, que nada tiene que ver con la parte técnica de la IA, sino con la parte económica. Hasta ahora el contenido generado artificialmente no tiene marca de agua o algún mecanismo para diferenciarlo, aunque los artistas se estaban quejando a las empresas no les interesaba. Ahora con esto, simplemente les interesa tener un mecanismo de no retroalimentación. Y, hasta te lo pueden vender como algo bueno para detectar fakes y cosas así.

Vamos que si esto del colapso es verdad, OpenAI, Meta, Google, empiezan a meter marcas de aguas por su propio interés en 3, 2, 1...
Las cuestiones que me ha "resuelto" la IA al final no son sino pastiches de la wiki mezclados con algo más y sin ningún tipo de moderación, originalidad, ... por no hablar de la creatividad ... un cero ... :popcorn: :popcorn: :popcorn:
Me ha encantado la parte de que E. Musk va a usar su propia red social para hacer aprender a su IA. Qué puede salir mal si aprende de X.
Fiel a la realidad :-)
La ia por fuerza bruta sí ha alcanzado techo, aunque la forma de monetizarla aún puede dar mucho de sí.

Me hace gracia lo de datos disponible de forma pública. No hay ia que pase una auditoría de datos de entrenamiento. Habrán soltado un dineral a sgaes y similares para que se queden calladitos.

Una ia debería tener la capacidad para deducir cosas por sí misma mediante observación. Por ejemplo, recibe como entrada un vídeo donde cae una manzana de un árbol y un usuario le pregunta cosas como…   » ver todo el comentario
Parece que bastante gente esta entrando en panico y quiren negar lo que viene encima en un par de años
Me recueda a todos aquellis comentarios del pasado sobre tecnologia
Esto es algo de lo que se lleva hablando hace ya unos meses en ambientes técnicos y académicos y no es una tontería, recomiendo ver el video o leer los comentarios de reddit programming:
www.reddit.com/r/programming/comments/1dqvmdh/if_ai_is_too_dangerous_f

El tema de todo esto es que la IA generativa no puede aprender de si misma que es un aspecto fundamental si queremos que nos supere. Por ejemplo AlphaZero superó a los humanos jugando al adjedrez compitiendo contra…   » ver todo el comentario
La humanidad colapsa si dejan de enseñar en las rscuelas y nadie aprende nada
#64 ...que es ya casi casi lo que están haciendo
#88 por eso cada mas gente vive en la pobreza que nunca y puede tanta gente ser manipulada no como antes que no podian manipular a nadie con religiones o con ideas politicas extremistas
«12
comentarios cerrados

menéame