Un nuevo trabajo de los científicos especializados en inteligencia artificial de Apple ha descubierto que los motores basados en grandes modelos lingüísticos, como los de Meta y OpenAI, aún carecen de capacidades básicas de razonamiento.
|
etiquetas: ai , tecnologia
Lo interesante del tema es que han propuesto un benchmark.
Sencillamente no entienden que no haya razonamiento ahí si le preguntas algo y te contesta con sentido.
youtube.com/shorts/LuNN32Tmc9c?si=ptYuK0VbydDRbsvx
CC/ #14, #27
No dice que los LLM actales sepan razonar, dice que se harán mejores y con el tiempo nos joderán.
Lo que dice que pasará en un futuro es que se volverán autoconscients.
Transcripción:
- Entrevistador: You believe they can understand?
- Hinton: Yes.
- Entrevistador: You believe they are intelligent?
- Hinton: Yes.
Pero si quieres otra entrevista donde dice que puede razonar aquí tienes: es.theepochtimes.com/news/habla-el-padrino-de-la-ia-la-ia-es-capaz-de-
Además, entender es una cosa, razonar es otra.
Los LLMs no deducen nuevo conocimiento (aquello que generan que sea totalmente nuevo es con mucha probabilidad también falso). En cierto sentido "entienden" lo que se les pide y responden con sentido, pero no están razonando nada, y no entienden el mundo realmente, solo saben predecir palabras. No… » ver todo el comentario
Te recomendaría que miraras la intervención completa, pero si quieres ir al grano, ve al minuto 4:14, porque responde exactamente a lo que tú dices. El entrevistador le pregunta si estos modelos se limitan a completar palabras y él responde que van más allá y piensan para decidir cual es la siguiente palabra y crítica explícitamente a la gente que dice que simplemente es autocompletamiento de texto. Es que más claro no puede ser en su respuesta, si no lo ves, yo ya no sé qué necesitas.
O mis alumnos de inteligencia artificial (universidad), usando ChatGPT.
#27 La definición de sentido común es muy amplia.
youtube.com/shorts/LuNN32Tmc9c?si=ptYuK0VbydDRbsvx
Será que no tiene tanto conocimiento de IA como tú.
Eso dice, que cree.
Hay quien cree en Dios.
Pero lo dicho, a pesar de ser premio Nobel, Alan Turing y creador del backpropagation no se entera de nada al lado de los meneantes de este meneo.
"We are introducing OpenAI o1, a new large language model trained with reinforcement learning to perform complex reasoning. o1 thinks before it answers—it can produce a long internal chain of thought before responding to the user."
openai.com/index/learning-to-reason-with-llms/
Pero vamos, incluso si asumimos que 4o1 realmente sea capaz de razonar, si te vas al modelo anterior 4o que es uno de los analizados en el paper de los científicos de Apple también lo dicen:
"We’re announcing GPT-4o, our new flagship model that can reason across audio, vision, and text in real time."
openai.com/index/hello-gpt-4o/
Aunque si como modo de marketing usan la palabra si
youtube.com/shorts/LuNN32Tmc9c?si=ptYuK0VbydDRbsvx
Arxiv ha hecho mucho daño, este estudio que no ha sido revisado por pares, no hay por dónde cogerlo, lo mínimo sería tener un grupo de control para evaluar qué pasa cuando modificas el problema con humanos, por otro lado el propio artículo demuestra que no todos los modelos se equivocan igual, o1 de hecho es el que menos falla sin embargo una bajada de la performance de menos del 20% la consideran suficiente para afirmar taxativamente que no hace ninguna clase de razonamiento. En fin...
GOTO #40
Defíneme qué es "razonar" y a partir de ahí podremos discutir si la IA razona o no razona.
Por adelantar el comentario, yo por razonar entiendo más o menos lo mismo que lo que dice la R.A.E. en su primera acepción (las otras dos se salen de lo que aquí tratamos):
1. intr. Ordenar y relacionar ideas para llegar a una conclusión.… » ver todo el comentario
Para mí también lo hacen, el problema es que la forma en la que describes las redes neuronales es una simplificación que aplica a las… » ver todo el comentario
Por cierto, no dije que la aprobase con "muy buena nota", dije que fue a la primera. De hecho no me acuerdo de la nota, me parece que un 6 o un 7, por ahí, pero no me acuerdo. Sí que las prácticas eran con cosas sencillitas del todo, sino recuerdo mal eran… » ver todo el comentario
Sí, el modo en el que acabas llegando al resultado es relevante porque precisamente ahí es donde reside el concepto de razonamiento.
El que AlphaZero use su "red profunda" para decidir por dónde tirar no deja de ser usar entrenamiento previo para decidir el siguiente movimiento en la partida actual.
Respecto al examen, si tú le das a una IA parejas de números entre el 1 y 1.000.000 en el entreno, indicando que la salida para cada uno es la… » ver todo el comentario
Respecto a lo de las pruebas que comentas para mí son válidas para medir las capacidades de razonamiento, pero no creo que sean técnicamente insalvables con las actuales arquitecturas de redes neuronales, otro problema que detecto es esta concepción absoluta de razonamiento, como si el… » ver todo el comentario
He dicho que primero me definas qué es "razonar" y a partir de ahí veremos qué hay de cierto en la afirmación. Yo ya he dicho qué me parece que es razonar, coincidiendo bastante con la definición de la R.A.E., y no me parece que razonen: resumiendo usan fuerza bruta para llegar a resultados.
El problema no es que… » ver todo el comentario
Repito por lo que esto viendo al respecto. Igual hay más.
Pero mira, es tarde y ni tú me vas a convencer ni yo a ti, así que a dormir que me voy.
Los monos razonan (menos que un humano, pero razonan), así que añadirle complejidad a su cerebro les permite razonar más.
Una calculadora no razona, y añadirle más "capas" no cambia eso.
Un LLM no razona, sencillamente. Y si sabes que las redes tienen pesos, también sabrás que no tienen módulos de razonamiento.
Abandono esta discusión absurda.
Eso de razonar está muy sobrevalorado.
La IA, muy resumido, lo que hace es entrenarse y, a partir de ese entrenamiento, dar respuestas.
Es entrenamiento es específico. Rafa Nadal es uno de los mejores deportistas de todos los tiempos, pero me da a mí que si lo pones en natación sincronizada es posible que no sea tan bueno.
Repito ¿qué es razonar?
La forma en cómo se razona es irrelevante.
Respecto a tu respuesta ya te he dicho que la forma en que se hace es irrelevante, por lo tanto el razonamiento por fuerza bruta que críticas para mí es razonamiento pero es que además los mejores modelos de ajedrez en la actualidad no funcionan como comentas: es.m.wikipedia.org/wiki/AlphaZero
Respecto al… » ver todo el comentario
Ni siquiera es capaz de detectar contradicciones
Pues dicen que nosequé de su cociente intelectual y que son más listos que la media...
Por más capas de deep learning que le pongas a eso, lo que consigues es mejores predicciones. Pero son predicciones, no razonamientos.
Tarde o temprano, el mono la usa o la descarta, DECIDE, la integra y la une a otra idea. Còmo decide una máquina y en base a què.?
Yo no pienso lo mismo,
no sé por qué se me ha metido en la cabeza que una máquina no puede superar a su creador humano, nunca será humano.
Un humano no sabe por qué piensa ni que mecanismos exactos para conseguir razonamiento, creatividad, emoción, y nunca podrá replicarlo en un ente inanimado.
Tampoco puede llegar a la luna, pues no ha nacido con alas para volar.