Tecnología, Internet y juegos
128 meneos
2522 clics
El imaginario público sobre lo que puede y no puede hacer la inteligencia artificial está equivocado

El imaginario público sobre lo que puede y no puede hacer la inteligencia artificial está equivocado

Arvind Narayanan, profesor de informática de la Universidad de Princeton, es conocido por denunciar el hype que rodea a la IA en su libro, AI Snake Oil, escrito con el doctorando Sayash Kapoor. Pero no hay que confundirse: no están contra el uso de nuevas tecnologías. "Es fácil malinterpretar nuestro mensaje como si dijéramos que toda la IA es perjudicial o dudosa". Su reproche no se dirige al SW en sí, sino a los que difunen afirmaciones engañosas, en 3 grupos: empresas que venden IA, investigadores que estudian IA, periodistas que cubren IA.

| etiquetas: ia , ai , inteligencia artificial , ai snake oil , hype , arvind narayanan , agi
63 65 0 K 319
63 65 0 K 319
Si en vez de llamarle inteligencia artificial le hubieran llamado algoritmos correlacionales nos hubiésemos evitado muchos malentendidos.
#1 De hacer eso lo honesto sería considerar que el cerebro también funciona a base de algoritmos correlacionales.
#2 Porque cuando éramos homínidos en la selva nos funcionaba (para allá van los buitres luego allí hay comida, uno se comió esa baya y murió, luego no debo comerla etc) y nuestro cerebro está programado para buscar correlaciones. Pero la correlación no sirve para resolver problemas en situaciones complejas.
#3 Pero la correlación no sirve para resolver problemas en situaciones complejas.

¿Qué sirve?
#4 tal vez ingenio, para dar un/el salto "no lógico" o correlacionado. O ser capaz de probar distintas aproximaciones, insistir con la prueba y error.
#5 El problema con el ingenio es que lo tenemos idealizado por la forma en la que nos contamos la historia.

Tendemos a elegir casos específicos, personas concretas, y las elevamos a la categoría de genios, de gente ingeniosa, y les atribuimos todo el mérito olvidando todas las contribuciones que hubo a su alrededor que lo hicieron posible.

La realidad es que para que Einstein pudiera poner su granito de arena tuvieron que existir montones de otras personas que previamente habían aportado el…   » ver todo el comentario
#1 la IA no es sólo aprendizaje automático.

#31 la IA no es sólo LLMs.

#2 #6 me recuerda la idea de la AGI (inteligencia general artificial) y cómo la inteligencia humana en realidad con sus sesgos y limitaciones no es tan general, pero nos cuesta imaginar qué hay más allá.
#47 la IA no es sólo LLMs.

Ahora mismo, si decimos IA, nos estamos refiriendo a LLM's, a menos que se indique explícitamente otra cosa.
#61 otro de los motivos por los que el imaginario público sobre lo que puede y no puede hacer la inteligencia artificial está equivocado.
#6 Si he logrado ver más lejos ha sido porque he subido a hombros de gigantes (Isaac Newton)
#6 Estoy de acuerdo. Pero yo no estaba pensando tanto en los grandes descubrimientos y grandes genios, sino en las pequeñas cosas de cada día. Es maravilloso ver a los niños pequeños descubriendo cómo funciona el mundo, y asombroso la facilidad con que lo entienden, y empiezan a experimentar con ello. Tal vez también se añada a la mezcla la curiosidad...
#3, me viene a la cabeza una pregunta:

¿Qué cosa es tan compleja para que sea imposible técnicamente de resolver jamás por una IA y a la vez puedan resolver la mayoría de seres humanos fácilmente?

A no ser que a partir de ahora redefinamos lo que es la inteligencia para que solo tengan cabida los grandes genios como Einstein pero por el camino excluyamos de la categoría de seres inteligentes a la inmensa mayoría de seres humanos, va a ser muy difícil tratar con categorías que nos permitan…   » ver todo el comentario
#15 del futuro no te puedo decir. Pero ahora mismo si le preguntas a Chat GPT cómo cruzar un río teniendo un bote en el que caben dos personas o animales y siendo tú una persona y la otra un pollo te dice que hagas dos viajes xD .
#16 Lo he ido a comprobar y es peor, me hace cruzar el rio tres veces!

Una con el pollo, otra de vuelta solo y por último otra vez yo con otro animal o solo.
#20 ¿y eso sin poner el zorro, verdad?
#16, #20, lo acabo de probar con el modelo más avanzado o1-preview, el que razona internamente las respuestas antes de escribirlas y lo ha resuelto a la primera. Este es el problema que teneis muchos, que os quedais con la foto estática cuando esta tecnología está mejorando a pasos acelerados.  media
#23 Es verdad. Yo le pedí a gpt 4 que hiciera un organigrama de mi empresa con los datos de todos los puestos y después de varias instrucciones lo hizo medio bien. o1 lo hizo a la primera con los mismos datos, y el "promt" fue "hazme un organigrama con estos datos". No lo dibujó, porque aun no puede. Pero organizó los datos de tal forma que era fácil la creación del organigrama.
#25, puedes probar de pedirle que te lo dibuje con látex. A mí me ha sorprendido lo bueno que es dibujando banderas con primitivas de OpenCV, algo que estoy casi seguro que no ha podido copiar de ningún lado, sino que ha comprendido como utilizar correctamente las primitivas para dibujar las banderas en función a sus descripciones textuales. Si esto no es razonar...
#29 No, no es razonar. Es probar cosas hasta que alguien te dice que el resultado es bueno.
#44 El análisis se define como la búsqueda exhaustiva de todas las posibilidades.
#23 claro, pero eso es hoy, hay bastantes capturas de pantalla de hace un mes que daban la risa floja con la versión inmediatamente anterior.

En cualquier caso sigue alucinando, así que sigue sin ser fiable cuando no sabe la respuesta.
#26, alucina mucho menos que las versiones anteriores, es una tendencia, el número de alucinaciones se va reduciendo. Por otro lado los seres humanos tampoco somos 100% fiables y no por eso dejamos de considerar que no somos inteligentes. La pregunta es, cuando estos modelos serán lo suficientemente fiables para poder fiarnos más de ellos que de un experto humano?
#23 16 segundazos pensando. Aún ganamos.
#35 Tanto tiempo pensando indica que ha habido miles de iteraciones.
#20 ¿podrías poner captura de pantalla?
#89 como cruzar un rio con un bote en el que caben dos personas o animales siendo yo una persona y la otro un pollo?

Para cruzar un río con un bote en el que solo caben dos, siendo tú una persona y el otro un pollo, aquí te explico cómo hacerlo sin que haya problemas:

Primero, cruzas con el pollo y lo dejas en el otro lado del río.
Regresas solo en el bote al lado original.
Luego cruzas con otro objeto o animal (si no hay más, simplemente regresas con el bote vacío).
Este método te permite cruzar correctamente sin dejar el pollo solo. ¿Hay más en el problema, o solo era tú y el pollo?
#16 pues parece que o1 lo resuelve bien :-)  chatgpt.com/share/66f49f16-ed6c-8011-9b2b-9e25f5c97db3  media
#16 Respuesta del chat:

Para cruzar un río en un bote donde solo caben dos personas o animales, y siendo que tú eres una persona y tienes un pollo, puedes seguir estos pasos para evitar que haya problemas en el trayecto:

 1. Primero cruza tú con el pollo: Cruza el río en el bote con el pollo y déjalo en la otra orilla.
 2. Vuelve solo: Regresa con el bote solo, dejando el pollo en la otra orilla.
 3. Cruza con otro objeto o ser si es necesario: En este caso, si no hay otros animales que puedan comerse entre sí o complicar la travesía (como podría ser el caso en algunos acertijos con zorros o granos), simplemente cruzas nuevamente con el pollo.

¡Con estos pasos logras cruzar el río sin complicaciones!
#54 Para cruzar un río en un bote donde solo caben dos personas o animales, y siendo que tú eres una persona y tienes un pollo

Yo diría que la respuesta correcta es cruzar el rio abandonando al pollo. No se establece la obligación de llenar la barca ni conservar al pollo.
#75 vuelve a leer. 8-D
#16 xD No, no lo hace.  media
#90 parece que depende de la versión, hace un par de meses era una risa.
#93, quedarse un par de meses atrás en temas relacionados con IA es quedarse en la prehistoria. El problema está en pensar que las limitaciones de los modelos actuales serán insalvables para siempre.
#15 es.m.wikipedia.org/wiki/Paradoja_de_Moravec

Correr, el equilibrio y movimientos son especialmente complejos para las IAs.
Por lo que una IA sería terriblemente complejo que hiciera el trabajo de un fontanero, por ejemplo.

Se da la paradoja que lo que suponíamos de un nivel cognitivo alto (hacer resúmenes, pintar etc... ) no necesita tanta potencia de cálculo como para determinar como cambiar un grifo.
#17, esta paradoja no dice que el movimiento sea técnicamente imposible de resolver, sino que es más complejo que el razonamiento cognitivo, algo que puede resultar contraintuitivo para muchas personas.
#17 Correr es muy complejo si necesitas estar pensado en el próximo movimiento, así que lo no lo hacemos. El conjunto de movimientos se almacena en el cerebelo, que no tiene ninguna capacidad de pensar. No usamos el cerebro apenas.
#15 Crear vida. (sí, follando xD)
#27 Enhorabuena, has demostrado que las IAs no están vivas. La reproducción forma parte de la definición de lo que es vida. No inteligencia o razonamiento.
#15 Un humano no es más que una máquina en definitiva. Lo que un humano puede hacer, por definición, lo está haciendo una máquina.

Si ponemos más restricciones, como por jemplo que esté la máquina hecha con electrónica, quizás algunas cosas dejen de ser posibles.

Pero si decimos que una IA no puede hacer que tal, nos estamos refiriendo por defecto a una red neuronal. Esta tecnología hay muchas cosas que no puede hacer. Casi todas.
#3 Con el efecto secundario de las supersticiones.
#2 El cerebro no funciona igual, ni de lejos, por eso están cambiando la arquitectura de los modelos actuales de forma que se parezcan mas a la forma en la que pensamos, si pensaras como una IA, cada vez que te pregunto algo calcularías las probabilidades de cual sería la siguiente palabra mas común después de tu pregunta, y no lo se con seguridad, pero dudo que hagas eso.
#32 No existe una tecnología que permita hacer lo que hace el cerebro.
#32 En realidad, muchos vendedores de humo hacen algo parecido, ir soltando las buzzwords más comunes.

No tengo claro si un LLM suficientemente avanzado es indistinguible de un vendedor de humo, o un vendedor de humo suficientemente avanzado es indistinguible de un LLM.
#2 no, eso no es verdad. No sabemos al 100% como funciona el cerebro, al fin y al cabo es un objeto estudiándose a sí mismo, pero lo que sí sabe es que no somos autómatas. Ya sabes, eso ya se descartó en los años sesenta con el fracaso del conductismo clásico en humanos.
#52 El conductismo clásico "funcionó". (Creo que ya habíamos hablado de esto).
#56 en humanos? Claro que no.
#52 que sea complejo predecir nuestro comportamiento o respuestas a diferentes estímulos no significa que no seamos autómatas, y en un mundo regido por las leyes de la física no queda otra que el determinismo. Ergo si, somos más autómatas de lo que la mayoría piensa. Es más, ya se demostró que las decisiones se toman antes de nosotros ser conscientes de ellas.
#64 no tiene por qué ser así, porque de estructuras complejas surgen nuevas características. De moléculas simples surgen células y de estas, animales multicelulares complejos.
De un cerebro determinista puede surgir un funcionamiento no determinista. Tampoco digo que sea así, pero los científicos se plantean esa posibilidad. De algo que nadie tiene todavía la respuesta no de pueden realizar afirmaciones tan contundentes.
#52 Un humano, o cualquier animal, es un autómata determinista.
#78 no, no lo somos.
El conductismo clásico funciona en perros y no en humanos. Se sabe desde hace más de 60 años.
#2 El cerebro no hace nada ni parecido a eso. Funciona de otra forma totalmente distinta y los resultados son también distintos. No puede competir en velocidad con las máquinas, a pesar de una capacidad de cómputo abrumadoramente superior, y proporciona resultados de mayor calidad y mucho más confiables.
#57 eso por ahora, nuestro cerebro necesitó millones de años para evolucionar, mira como ha evolucionado la IA en 40 años, o como lo ha hecho en los últimos 5
que nos va a superar es solo cuestión de tiempo, y no demasiado
#65 Las máquinas no evolucionan como en la biología, aunque usemos esta palabra es con otro significado.
#85 eso lo doy por entendido, pero la tecnología si evoluciona (o llámalo como quieras)
#1 Más bien no hubiera habido entendidos.
El termino IA es correcto; sólo que todavía no hemos llegado al final del trayecto.
#1 Tienes mucha razón, pero no vende igual "inteligencia artificial" que "modelo de texto predictivo" por ej. Cualquiera que estudie mínimamente como funciona un LLM sabe que no razonan ni nada que se le parezca, nos da esa sensación por que son coherentes con lo que esperamos de un texto, pero hay cero razonamiento.
Uno de los puntos importantes para las empresas como openIA para hacer dinero no solo es el hype, si no también el miedo, usan el termino "inteligencia" para asustar a sabiendas que no es cierto, con eso han presionado al congreso para que los modelos tengan que ser regulados y controlados y así solo las grandes empresas puedan permitirse desarrollarlos y frenar los modelos libres.
#31 Impecable comentario. Por desgracia para leer con seriedad sobre el tema hay que irse a fuentes en inglés, sobre todo escuchando y leyendo a académicos norteamericanos que hacen investigación puntera en IA (a menudo críticos con el hype). Tu texto está en clara sintonía con lo que suelen comentar.
Las grandes empresas de IA Generativa comprenden la tecnología muy bien al grado que saben que, aunque estos sistemas no razonan, confían en el factor de la mente humana a la hora de "rellenar huecos" ante cualquier respuesta. Y comercialmente da igual que razone o no, hay usuarios que se lo tragan y pagarán igual (y si encima potencian resultados que elevan competencias mediocres, mejor).
#31, #34, Geoffrey Hinton, premio Alan Turing, una de las mentes más brillantes en el campo de la IA gracias a la cual hemos podido desarrollar los modelos actuales diciendo que estos modelos son inteligentes, entienden, pueden razonar y eventualmente pueden llegar a ser más inteligentes que nosotros: youtube.com/shorts/LuNN32Tmc9c?si=Ya5YVvKKaDvFz4sl

Dos cuñaos en Internet: cualquiera que haya estudiado mínimamente los LLM sabe que... :shit:
#55 Te añado más, está en sintonía con las declaraciones de Greg Brockman (cofundador de OpenAI) declarando eso sobre OpenAI o1 que hizo sonrojar a grandes expertos que no son juez y parte "precisamente" en las rondas de financiación de OpenAI (no sé si nos entendemos); como dice Pedro Domingos "OpenAI's problem is that profits and prophets don't mix."
Esas declaraciones de Geoffrey Hinton ya fueron apropiadamente tumbadas por Gary Marcus (Universidad de Nueva York, muy…   » ver todo el comentario
#69 Unas puntualizaciones importantes:

- las palabras de LeCun: sus palabras exactas no fueron que no razonen sino que no tienen razonamiento espacial, que no es lo mismo, y que para alcanzar la AGI el camino no son las LLMs porque para lograr la AGI hay que tener entendimiento del mundo físico y razonamiento espacial. Pero en ningún momento ha dicho que las LLMs no razonen, sería un tiro en el pie para su propio equipo, que se dedica precisamente a entrenar LLama.

- Timmit Gebru no fue…   » ver todo el comentario
#80 LeCunn es un buen científico (a pesar de estar en Meta) porque aparentemente es de los pocos que no deja que su nómina contradiga sus impresiones. En recientes declaraciones (de meses) afirmaba que el escalado no es suficiente para la AGI y que los LLMs no razonan (aparte de otras cuestiones que se me escapan, como que los LLMs autorregresivos están condenados -lo cual en el fondo es lógico-).
Por otra parte cierto en lo de Timmit Gebru respecto al año 2020 (con el avance endiablado del…   » ver todo el comentario
#69, nadie que se precie en el mundo de la IA citaría a Gary Marcus como referente de nada después de más de una década haciendo el ridículo en todas y cada una de sus predicciones, lo de Yan Lecun también tiene su explicación cuando sabes que lo que intenta es vender sus propias arquitecturas a pesar de haber hecho ridículos sonados como la famosa aseveración de que modelos generativos era imposible hacer videos de más de 10 segundos una semana antes de la aparición de Sora.

Por otro lado no…   » ver todo el comentario
#55 La falacia de autoridad es una falacia, no un argumento.
#34 para leer con seriedad sobre el tema hay que irse a fuentes en inglés

En este tema y en cualquier otro tema. Lo que existe en otros idiomas son traducciones del inglés, pero traducir del inglés es difícil y las traducciones contienen malinterpretaciones. Las traducciones son un conjunto muy escaso de lo que hay.

Una persona que tenga un interés en la cultura, no importa la subespecialidad, el tiempo mejor aprovechado que puede tener es estar practicando inglés. En la práctica es prerequisito para otras cosas, a veces totalmente insospechadas.
#31 #36 Por aquí alguien que lleva trabajando con LLMs años, y en IA décadas, y no a nivel usuario, sino profesionalmente. Sí razonan, de hecho el estado del arte de desarrollo de Agentes se basa en que puedan razonar.
Hace más de un año que se presentó el paper de ReAct (Reasoning and Acting) arxiv.org/pdf/2210.03629
Ese paper se ha usado como marco de inicio para la evolución de cómo funcionan los Agentes, y se han evolucionado cositas desde entonces.

Para los que no sepan lo que es:…   » ver todo el comentario
#59 Gracias por tus comentarios @fluffy
#31 no razonan ni nada que se le parezca

No tienen, ni pueden tener, ninguna capacidad de razonar. Sin embargo eso del texto predictivo sí que puede copiar de un texto que contenga un razonamiento. Algunos de los errores cometidos por estos trastos consisten en seguir el razonamiento de un texto no aplicable al caso.
#1 Pero la inteligencia artificial no es solo algoritmos correlacionales
#30 Te proporcionare algo mejor:
Un paper cuyo titulo es GPT-4 Can’t Reason
arxiv.org/pdf/2308.03762

Si quieres, una vez lo hayas leido, y todavia no estas convencido, discutimos.
#36, cuanto daño ha hecho arxiv que ahora hace que un documento subido sin indexar en ninguna revista o conferencia se considere una referencia relevante en una discusión a la altura de una publicación al uso. :palm:
#37 Vamos que no te lo vas a leer porque patatas. Ni siquiera te ahs molestado en mirar quien lo ha escrito, ni su trayectoria.

En fin. Entonces considera esto otro... solo has de preguntarle a ChatGPT sobre si puede razonar o no, para obtener un:

"It’s true that reason is a universal tool that humans and machines can use to evaluate and process information. However, there’s a distinction between how reasoning is applied by humans versus how it is simulated by machines like me. "

:popcorn: :popcorn: :popcorn:
#36, #38, de todas formas el paper es antiguo, habla de GPT-4 y la crítica principal no aplica a la última versión que es o1 que sí desarrolla por defecto cadenas de pensamiento que permiten la trazabilidad del razonamiento, algo sobre lo que el autor asentaba la crítica sobre GPT-4.

"Ultimately, there is really no proper way to assess the reasoning ability of a system unless we ask it to explain its output. This is an essential part of reasoning, which is not about producing the right answer by hook or by crook but about deriving the right answer for the right reasons."
#39 Da igual qué versión sea, el algoritmo y la base de todo es el mismo.
#49, para què los benchmarks, para què los LLM arena, para què seguir iterando nuevos modelos que cada vez se equivocan menos y razonan mejor, para qué invertir miles de millones de euros y cientos de horas del trabajo de las mentes más brillantes del momento si hay usuarios de menéame que dicen que da igual la versión que sea, todas son igual de malas.
#38, parece que o1-preview afirma que sí puede razonar.  media
#40 Claro claro , que te va a decir xD

Mira, ahora preguntale si puede mediante ese razonamiento crear un sistema de creencias.
Y cuanto te diga que NO, dile que si de verdad pudiese razonar deberia ser capaz de crear un sistema de creencias.
Y sigue tirando del hilo.

Ya veras que rapido termina reconociendote que lo suyo es solamente una simulacion de razonamiento.

Amigo mio, el racionamiento, requiere de consciencia.
(y hay infinidad de estudios sobre el tema publicados en prestigiosos medios, como a ti te gusta)

Lo que hace ChatGPT es impresionante, pero no es razonar.
#41, para mí razonar es resolver problemas utilizando el intelecto. Lo del sistema de creencias me parece algo abstracto para lo que probablemente esté expresamente alineado para no crear. Toda la vida se h ma evaluado la inteligencia y la capacidad de razonamiento de los seres humanos a partir de plantear problemas de lógica y razonamiento y ver como se resuelven, como ahora hemos visto que las máquinas pueden hacerlo hemos decidido que esto ya no vale, que hay que mover la portería y que lo que valía para determinar lo bien o mal que razonaba una persona ya no sirve para una máquina.
#42 Y para mi la tortilla de patatas lleva piña, no te jode.
El propio ChatGPT te reconoce que lo que hace es una simulacion.
Pero eh, erre que erre...  media
#43 "based on patterns in the data I've been trained on"

Exactamente. Es lo mismo que quiero significar cuando digo que están copiando el razonamiento de algún texto que se han tragado. De hecho lo que están copiando es el texto en sí, que éstas máquinas solamente pueden procesar palabras, pero sustituyendo cosas.
#43 No te molestes en razonar. Para los apóstoles de la IA, ésta es indiscutible. Una Verdad Revelada.
#42 "Toda la vida se h ma evaluado la inteligencia y la capacidad de razonamiento de los seres humanos a partir de plantear problemas de lógica y razonamiento y ver como se resuelven"

Y algo me dice que no has abierto un libro de filosofia en tu vida. Sin acritud.
#46, ahí has dado en la clave de vuestro problema, lleváis al campo de la filosofía, más en concreto a la metafísica, un problema de ingeniería. :-)
#62 El razonamiento es un problema de la ingenieria ? :palm:
No nos vengamos arriba por favor.

Que conste que soy ingeniero
#46 Aunque los humanos resolvemos problemas usando la inteligencia, esto no significa que sea la única forma posible de hacerlo. Si alguien escribe un algoritmo que resuelve el problema, eso es otra forma distinta de hacerlo.

Si, a partir de ahí, se dice que el resover ese problema no demuestra inteligencia, pues eso depende del método usado. No es una afirmación que se pueda hacer en términos absolutos.
#41 el racionamiento, requiere de consciencia.

Esta es una afirmación muy dura de la que no me atrevo a estar ni a favor ni en contra. En principio no veo por qué razón la consciencia es necesaria.

Cierto que no tiene sentido hablar en estos términos sin antes haber dado una definición algo precisa de lo que es la consciencia.

Sólo, como comentario al margen, digo que la consciencia puede ser necesaria para ponerle palabras a un razonamiento, pero no es necesario razonar mediante palabras.
#40 Sigue preguntando, no te quedes con la primera respuesta. Porque es una cuestión de probabilidades.
Pregúntale cómo razona, cómo funciona, etc.
#37 Yo me lo he leído. Está en arxiv porque en su estado actual es impublicable. Además de muy anticuado, abusa de muchísimas opiniones no fundamentadas, además que, por su estado de desfase, las pruebas que usa como prueba, ya son superaras por chat-gpt-o1
#84, enlazo a #36 a tu respuesta.
#95 Ya le contesté directamente en #82, de forma más desarrollada. Y esperando su respuesta.
#37 en eso esto deacuerdo :-D
#36 Me lo he leído (por encima) y no me convence. Aunque da una definición bastante buena de lo que se considera razonamiento, que debería ser la base para discernir si algo o alguien razona o no, mediante un análisis cuantitativo, no lo hace. Se queda en una opinión cualitativa, en la que igualmente afirma que, por su definición, hay seres humanos que tampoco razonan, aunque afirma que sí tienen la capacidad de aprender a razonar. Sin aportar pruebas ni de lo uno ni de lo otro.

Otro problema…  media   » ver todo el comentario
Personalmente, con chat gpt, alucino muchas veces. Razona mejor que cualquier persona que conozco.
#10 Razona mejor que la mayoría de personas que conocemos (y lo más grave es que muchas de ellas no pasarían el test de turing).
#10 ChatGPT no razona, lamento pincharte la burbuja de jabon
#22, puedes poner un ejemplo de problema de razonamiento que sirva de prueba objetiva y verificable para determinar si un ente razona o no razona viendo si es capaz de resolverlo y así lo probamos con chatGPT o esto funciona como el tema de la existencia del alma, es un acto de fe y no algo que se pueda demostrar empíricamente?
#30 Porque no "entienden" conceptos, entienden "next token".
Las "AI" funcionan "prediciendo" ( cuál será la probabilidad) el siguiente "token".
Por eso hay cosas para las que funcionan extremadamente bien y otras que no.
O por eso pueden "alucinar" y demás.
#10 La mayoría de personas no razonan en absoluto. Las personas se mueven según sus instintos y las decisiones tomadas así se justifican mediante racionalizaciones, que es el inventar excusas. El movimiento habitual es alinearse con lo que digan los demás para poder encajar socialmente.
Yo creo que es el uso de la palabra "inteligencia"

Si ya una bombilla con un sensor de presencia la llaman bombilla inteligente.

Y despues, si lo que tenemos ahora se llama inteligencia
Algo que me han discutido por aquí mil veces: las redes neuronales son un nombre cool, que han basado su funcionamiento en las neuronas biológicas, pero poco más.
Las IA son algoritmos, siguen programadas en lenguajes discretos y deterministas, siguen siendo maquinas de Turing, es decir, autómatas.
No son capaces de razonar ni deterministas aprender.
#53 El ser un autómata no es ninguna limitación. Las limitaciones que tiene una red neuronal son debidas a su estructura interna.
#53 Le he preguntado a LLaMA3 8B sobre si un LLM puede razonar:

"Los modelos de lenguaje largos (LLMs) como yo no tienen verdaderamente "capacidad de razón" en el sentido clásico. Nuestros procesamientos son más bien una forma sofisticada de patrones y algoritmos que nos permiten generar texto coherente y respondiendo a preguntas.
Nuestra capacidad para responder a preguntas y realizar tareas como la generación de texto se basa en nuestra habilidad para:
1. Analizar grandes…   » ver todo el comentario
Yo aun no he leido un articulo medio decente sobre IA, al menos en medios generalistas. Algunos casi caen en la mistica incluso, es vergonzoso. Pero claro un analisis tecnico o algo mas formal no da tantos clicks
#8 www.genbeta.com/inteligencia-artificial/he-pedido-a-chatgpt-que-lea-ma

Cuando vi que publicaban eso yo dejé de tener fe en que el tema fuese a ser tratado de manera seria en un futuro próximo, por lo menos por medios generalistas.
#8 Este artículo también decepciona. En el titular y la entradilla nos explica sobre el problema de que la gente no entiende lo que la IA puede hacer y lo que no puede, pero luego el texto no explica por ninguna parte lo que la IA puede hacer y lo que no.
#8 En computación cuántica es mucho peor. Nunca he visto a un periodista entender de qué va, pero ni muy aproximadamente. Es decir que todo lo que se dice sobre el tema son estupideces, todo.
Me encantaría que aportaras captura de pantalla, porque a mí me lo ha resuelto correctamente a la primera. Y entonces da la impresión de que os inventáis las respuestas o hacéis las preguntas mal.  media
Entonces las IAs no nos van a dejar si trabajo a todos?? Vaya, quién iba a imaginar que estaban vendiéndonos otra vez un crecepelos curalotodo.
#19 Hay algunas empresas dando pasos en ese sentido. También las hay dando pasos atrás.

Lo decimos los motoristas es que hay dos clases de motoristas: Los que ya se han pegado la hostia y los que se la van a pegar.
Yo la verdad con que la IA mejore lo suficiente como para poder pedirle que me genere informes en el curro y que me cruce datos entre dos sistemas y me diga las inconsistencias, yo ya sería muy feliz.
#45 Eso ya lo hace. Y mucho más.
#51 No, sin MUCHA ayuda no lo hace. Horas y horas de curro de un humano. Al menos en lo que a productos comerciales se refiere.
#45 ¿Has probado un LLM en local? Puedes incrustar en local un conjunto de documentos (en GPT4All son PDFs y Docs... lástima que no Excels) y trabajar sobre ellos sin necesidad de vulnerar la privacidad de la empresa.
El imaginario público o el vendemotos de turno?
#11 el público se informa leyendo o viendo a vendemotos
La IA nunca acabará con el ser humano: es más fácil reproducir seres humanos que robots.
#67 Hay muchos seres vivos que se reproducen con mayor facilidad que el ser humano y van camino de la extinción o se han extinguido, y en ningún caso dominan el planeta.
«12
comentarios cerrados

menéame