Arvind Narayanan, profesor de informática de la Universidad de Princeton, es conocido por denunciar el hype que rodea a la IA en su libro, AI Snake Oil, escrito con el doctorando Sayash Kapoor. Pero no hay que confundirse: no están contra el uso de nuevas tecnologías. "Es fácil malinterpretar nuestro mensaje como si dijéramos que toda la IA es perjudicial o dudosa". Su reproche no se dirige al SW en sí, sino a los que difunen afirmaciones engañosas, en 3 grupos: empresas que venden IA, investigadores que estudian IA, periodistas que cubren IA.
|
etiquetas: ia , ai , inteligencia artificial , ai snake oil , hype , arvind narayanan , agi
¿Qué sirve?
Tendemos a elegir casos específicos, personas concretas, y las elevamos a la categoría de genios, de gente ingeniosa, y les atribuimos todo el mérito olvidando todas las contribuciones que hubo a su alrededor que lo hicieron posible.
La realidad es que para que Einstein pudiera poner su granito de arena tuvieron que existir montones de otras personas que previamente habían aportado el… » ver todo el comentario
#31 la IA no es sólo LLMs.
#2 #6 me recuerda la idea de la AGI (inteligencia general artificial) y cómo la inteligencia humana en realidad con sus sesgos y limitaciones no es tan general, pero nos cuesta imaginar qué hay más allá.
Ahora mismo, si decimos IA, nos estamos refiriendo a LLM's, a menos que se indique explícitamente otra cosa.
¿Qué cosa es tan compleja para que sea imposible técnicamente de resolver jamás por una IA y a la vez puedan resolver la mayoría de seres humanos fácilmente?
A no ser que a partir de ahora redefinamos lo que es la inteligencia para que solo tengan cabida los grandes genios como Einstein pero por el camino excluyamos de la categoría de seres inteligentes a la inmensa mayoría de seres humanos, va a ser muy difícil tratar con categorías que nos permitan… » ver todo el comentario
Una con el pollo, otra de vuelta solo y por último otra vez yo con otro animal o solo.
En cualquier caso sigue alucinando, así que sigue sin ser fiable cuando no sabe la respuesta.
Para cruzar un río con un bote en el que solo caben dos, siendo tú una persona y el otro un pollo, aquí te explico cómo hacerlo sin que haya problemas:
Primero, cruzas con el pollo y lo dejas en el otro lado del río.
Regresas solo en el bote al lado original.
Luego cruzas con otro objeto o animal (si no hay más, simplemente regresas con el bote vacío).
Este método te permite cruzar correctamente sin dejar el pollo solo. ¿Hay más en el problema, o solo era tú y el pollo?
Para cruzar un río en un bote donde solo caben dos personas o animales, y siendo que tú eres una persona y tienes un pollo, puedes seguir estos pasos para evitar que haya problemas en el trayecto:
1. Primero cruza tú con el pollo: Cruza el río en el bote con el pollo y déjalo en la otra orilla.
2. Vuelve solo: Regresa con el bote solo, dejando el pollo en la otra orilla.
3. Cruza con otro objeto o ser si es necesario: En este caso, si no hay otros animales que puedan comerse entre sí o complicar la travesía (como podría ser el caso en algunos acertijos con zorros o granos), simplemente cruzas nuevamente con el pollo.
¡Con estos pasos logras cruzar el río sin complicaciones!
Yo diría que la respuesta correcta es cruzar el rio abandonando al pollo. No se establece la obligación de llenar la barca ni conservar al pollo.
Correr, el equilibrio y movimientos son especialmente complejos para las IAs.
Por lo que una IA sería terriblemente complejo que hiciera el trabajo de un fontanero, por ejemplo.
Se da la paradoja que lo que suponíamos de un nivel cognitivo alto (hacer resúmenes, pintar etc... ) no necesita tanta potencia de cálculo como para determinar como cambiar un grifo.
Si ponemos más restricciones, como por jemplo que esté la máquina hecha con electrónica, quizás algunas cosas dejen de ser posibles.
Pero si decimos que una IA no puede hacer que tal, nos estamos refiriendo por defecto a una red neuronal. Esta tecnología hay muchas cosas que no puede hacer. Casi todas.
No tengo claro si un LLM suficientemente avanzado es indistinguible de un vendedor de humo, o un vendedor de humo suficientemente avanzado es indistinguible de un LLM.
De un cerebro determinista puede surgir un funcionamiento no determinista. Tampoco digo que sea así, pero los científicos se plantean esa posibilidad. De algo que nadie tiene todavía la respuesta no de pueden realizar afirmaciones tan contundentes.
El conductismo clásico funciona en perros y no en humanos. Se sabe desde hace más de 60 años.
que nos va a superar es solo cuestión de tiempo, y no demasiado
El termino IA es correcto; sólo que todavía no hemos llegado al final del trayecto.
Uno de los puntos importantes para las empresas como openIA para hacer dinero no solo es el hype, si no también el miedo, usan el termino "inteligencia" para asustar a sabiendas que no es cierto, con eso han presionado al congreso para que los modelos tengan que ser regulados y controlados y así solo las grandes empresas puedan permitirse desarrollarlos y frenar los modelos libres.
Las grandes empresas de IA Generativa comprenden la tecnología muy bien al grado que saben que, aunque estos sistemas no razonan, confían en el factor de la mente humana a la hora de "rellenar huecos" ante cualquier respuesta. Y comercialmente da igual que razone o no, hay usuarios que se lo tragan y pagarán igual (y si encima potencian resultados que elevan competencias mediocres, mejor).
Dos cuñaos en Internet: cualquiera que haya estudiado mínimamente los LLM sabe que...
Esas declaraciones de Geoffrey Hinton ya fueron apropiadamente tumbadas por Gary Marcus (Universidad de Nueva York, muy… » ver todo el comentario
- las palabras de LeCun: sus palabras exactas no fueron que no razonen sino que no tienen razonamiento espacial, que no es lo mismo, y que para alcanzar la AGI el camino no son las LLMs porque para lograr la AGI hay que tener entendimiento del mundo físico y razonamiento espacial. Pero en ningún momento ha dicho que las LLMs no razonen, sería un tiro en el pie para su propio equipo, que se dedica precisamente a entrenar LLama.
- Timmit Gebru no fue… » ver todo el comentario
Por otra parte cierto en lo de Timmit Gebru respecto al año 2020 (con el avance endiablado del… » ver todo el comentario
Por otro lado no… » ver todo el comentario
En este tema y en cualquier otro tema. Lo que existe en otros idiomas son traducciones del inglés, pero traducir del inglés es difícil y las traducciones contienen malinterpretaciones. Las traducciones son un conjunto muy escaso de lo que hay.
Una persona que tenga un interés en la cultura, no importa la subespecialidad, el tiempo mejor aprovechado que puede tener es estar practicando inglés. En la práctica es prerequisito para otras cosas, a veces totalmente insospechadas.
Hace más de un año que se presentó el paper de ReAct (Reasoning and Acting) arxiv.org/pdf/2210.03629
Ese paper se ha usado como marco de inicio para la evolución de cómo funcionan los Agentes, y se han evolucionado cositas desde entonces.
Para los que no sepan lo que es:… » ver todo el comentario
No tienen, ni pueden tener, ninguna capacidad de razonar. Sin embargo eso del texto predictivo sí que puede copiar de un texto que contenga un razonamiento. Algunos de los errores cometidos por estos trastos consisten en seguir el razonamiento de un texto no aplicable al caso.
Un paper cuyo titulo es GPT-4 Can’t Reason
arxiv.org/pdf/2308.03762
Si quieres, una vez lo hayas leido, y todavia no estas convencido, discutimos.
En fin. Entonces considera esto otro... solo has de preguntarle a ChatGPT sobre si puede razonar o no, para obtener un:
"It’s true that reason is a universal tool that humans and machines can use to evaluate and process information. However, there’s a distinction between how reasoning is applied by humans versus how it is simulated by machines like me. "
"Ultimately, there is really no proper way to assess the reasoning ability of a system unless we ask it to explain its output. This is an essential part of reasoning, which is not about producing the right answer by hook or by crook but about deriving the right answer for the right reasons."
Mira, ahora preguntale si puede mediante ese razonamiento crear un sistema de creencias.
Y cuanto te diga que NO, dile que si de verdad pudiese razonar deberia ser capaz de crear un sistema de creencias.
Y sigue tirando del hilo.
Ya veras que rapido termina reconociendote que lo suyo es solamente una simulacion de razonamiento.
Amigo mio, el racionamiento, requiere de consciencia.
(y hay infinidad de estudios sobre el tema publicados en prestigiosos medios, como a ti te gusta)
Lo que hace ChatGPT es impresionante, pero no es razonar.
El propio ChatGPT te reconoce que lo que hace es una simulacion.
Pero eh, erre que erre...
Exactamente. Es lo mismo que quiero significar cuando digo que están copiando el razonamiento de algún texto que se han tragado. De hecho lo que están copiando es el texto en sí, que éstas máquinas solamente pueden procesar palabras, pero sustituyendo cosas.
Y algo me dice que no has abierto un libro de filosofia en tu vida. Sin acritud.
No nos vengamos arriba por favor.
Que conste que soy ingeniero
Si, a partir de ahí, se dice que el resover ese problema no demuestra inteligencia, pues eso depende del método usado. No es una afirmación que se pueda hacer en términos absolutos.
Esta es una afirmación muy dura de la que no me atrevo a estar ni a favor ni en contra. En principio no veo por qué razón la consciencia es necesaria.
Cierto que no tiene sentido hablar en estos términos sin antes haber dado una definición algo precisa de lo que es la consciencia.
Sólo, como comentario al margen, digo que la consciencia puede ser necesaria para ponerle palabras a un razonamiento, pero no es necesario razonar mediante palabras.
Pregúntale cómo razona, cómo funciona, etc.
Otro problema… » ver todo el comentario
Las "AI" funcionan "prediciendo" ( cuál será la probabilidad) el siguiente "token".
Por eso hay cosas para las que funcionan extremadamente bien y otras que no.
O por eso pueden "alucinar" y demás.
Si ya una bombilla con un sensor de presencia la llaman bombilla inteligente.
Y despues, si lo que tenemos ahora se llama inteligencia
Las IA son algoritmos, siguen programadas en lenguajes discretos y deterministas, siguen siendo maquinas de Turing, es decir, autómatas.
No son capaces de razonar ni deterministas aprender.
"Los modelos de lenguaje largos (LLMs) como yo no tienen verdaderamente "capacidad de razón" en el sentido clásico. Nuestros procesamientos son más bien una forma sofisticada de patrones y algoritmos que nos permiten generar texto coherente y respondiendo a preguntas.
Nuestra capacidad para responder a preguntas y realizar tareas como la generación de texto se basa en nuestra habilidad para:
1. Analizar grandes… » ver todo el comentario
Cuando vi que publicaban eso yo dejé de tener fe en que el tema fuese a ser tratado de manera seria en un futuro próximo, por lo menos por medios generalistas.
Lo decimos los motoristas es que hay dos clases de motoristas: Los que ya se han pegado la hostia y los que se la van a pegar.