edición general
11 meneos
88 clics

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

Coherencia no es sinónimo de verdad, pero tendemos a confundir ambos conceptos. Cuánto más coherente es un discurso, ya sea oral o textual, más fácil es que lo tomemos por verdadero y más convincente nos parecerá. Y confundir coherencia con verdad puede llevarnos a cometer errores desastrosos. Somos nosotros mismos, los humanos, quienes dotamos de significado a estos textos, que, en sentido estricto no son producto del razonamiento sino de vectores probabilísticos.

| etiquetas: falacias , encantamiento , ia , inteligencia artificial , chatgpt
Ya lo dije en otro meneo: verosimilitud y veracidad son cosas muy diferentes
En realidad ChatGPT no es muy coherente. Si lo llevas a un tema sobre el que puedes hablar a cierto nivel especializado, es fácil que le puedas encontrar defectos en sus respuestas. Es más, si le planteas las preguntas adecuadamente, es relativamente fácil también que le hagas a ChatGPT darte respuestas que, de hecho, contradicen los defectos o errores que te soltó en sus anteriores respuestas.

Los principales méritos que le veo a ChatGPT es que sabe bien entender lo que le estás preguntando, y sabe expresarte sus respuestas utilizando el lenguaje correctamente, con independencia de que esas respuestas sean erróneas o contradictorias.
#2 En realidad ChatGPT no es muy coherente.
No es nada coherente ni lo puede ser. Es como si dices una máquina taladradora. No es coherente ni lo puede ser. Cuando aprietas en un sitio hace una cosa, la cosa que debe hacer en función de las leyes físicas, y ya está. El que alguien se monte una película interior intentando darle una justificación espiritual, no cambia nada, sigue taladrando independientemente de ello.
#4 muy en desacuerdo con tu comentario y con comparar las IAs actuales y las futuras con una máquina simple que ante un mismo input obtiene siempre el mismo output.
#2 Porque el ChatGPT no es una IA. Es un autómata determinista. No existe ninguna IA porque ninguna pasa el test de Turing

#FreeAssange

CC #15 #14
#21 El ser humano es un autómata determinista, ese determinismo no es evidente porque aprende de todo lo que le ocurre.

Con las personas que han perdido la capacidad de almacenar nuevos recuerdos se pueden tener charlas básicamente idénticas cada vez que te comunicas con ellas, al no recordar que ya tuvieron esa charla sus respuestas son siempre las mismas. Si recordasen esa charla sus respuestas serían distintas, que es lo que suele ocurrir con las personas sanas.

Que una IA como el ChatGPT aprenda de todas las charlas no solo es realista sino que es posible que ya esté ocurriendo, como me indicaban aquí: www.meneame.net/story/falacias-encantamiento-inteligencia-artificial-c
#22 El ser humano no es un autómata determinista porque SIENTE. Lo de determinismo se refiere a que viene determinado por el código tal y como bien dice chatGPT  media
#28 Lo del chat parece muy forzado, parece que esto se lo han enseñado adrede para que conteste así aunque incurra en contradicciones como hace en la respuesta que citas. Primero dice que el test de Turing es para comprobar si las máquinas ... y luego dice que no puede pasarlo porque es una máquina, cuando precisamente son las máquinas las que tienen que aspirar a pasar ese test.

El ser humano no es un autómata determinista porque SIENTE.

Que va, es la alma lo que distingue al humano…   » ver todo el comentario
#30 ¿De verdad piensas que las almas existen?
#33 Existe en el mismo sentido que existe Dios o existen los "circuitos para razonar", son recursos del ser humano para diferenciarse del resto de seres vivos, para ponerse en un pedestal.

Si afirmasen algo que fuera empíricamente comprobable entonces podría ser falsado y ese concepto pasaría a ser inútil, las veces que ha ocurrido han saltado al término siguiente de la lista.

Un poco es como los subnormales que en cuanto se usa para insultar cambian de palabra.
#30 Los sentimientos no pueden ser una respuesta determinista porque no todos reaccionamos de la misma forma a estos.

El chatGPT no te va a decir, dejame en paz, me aburres, no quiero hablar contigo.
#31 Los sentimientos no pueden ser una respuesta determinista porque no todos reaccionamos de la misma forma a estos.

Es determinista para cada individuo. Determinista no significa que sea igual en todos los contextos sino que para unas mismas entradas devuelve las mismas salidas.

En el caso del ser humano esas entradas contemplan toda su historia vital, como no es realista que dos individuos hayan tenido las mismas entradas no es realista que den necesariamente las mismas salidas, es…   » ver todo el comentario
#21 claro que sí.
#23 Lo dice GPT  media
#15 Bueno, es una máquina adaptable, pero máquina a fin de cuentas.
#16 tu también eres una máquina adaptable. Con la diferencia que estás más evalucionada y que tardaste miles de años en estarlo, mientras que estás pueden estarlo en décadas.
#24 pero todavía no. ¿ Se entiende ya mi comentario o lo explico más aún ?
#25 no, sigo sin entenderlo. La proyección en estos 5 últimos años ha sido tan brutal que no entiendo la miopía. Imagina en 2 décadas. Es algo alucinante y preocupante.
#26 Pero no estramos hablando del futuro, creo yo. Estamos hablando de lo que hace o no hace ahora.
A mí el que alucines y te preocupes no me afecta. Yo sé de estos temas desde hace muchos años, ya he pasado por todas esas fases.
#4 Lo que indicas también aplica a los humanos.
#7 quería destacar el orden de magnitud. Una IA es más parecida a una máquina simple que al cerebro humano.
Si quieres, precisamos más. Se ha entrenado a esa máquina para que, ante preguntas, conteste de una manera similar a lo que se le ha ofrecido antes. Eso es lo que puede hacer. No tiene circuitos para razonar si es coherente o no, como sí podríamos hacer tú y yo.
#13 Esa IA con toda seguridad es capaz de expresarse correctamente en más idiomas que la práctica totalidad de los humanos. Pero como eso ya se lo ves hacer a una máquina lo atribuyes a que una máquina simple puede hablar en cualquier idioma, algo que hace bien poquito atribuiríamos a alguien con inteligencia equiparable o superior a la humana.

Chutas la pelota hacia adelante, como se ha hecho siempre.

Lo de los circuitos para razonar no es distinto a referirse a tener alma, es una forma de…   » ver todo el comentario
#14 ¡Ay, qué dolor!
Yo creo que para no hacer el ridículo en internet, como no sabemos nunca a quien tenemos delante, lo mejor es pensar que con quien hablamos es un doctor en la materia tratada. Así que para no hacer el ridículo, voy a pensar que eres un doctor en inteligencia artificial.
Vamos a ver, mi frase es "No tiene circuitos para razonar si es coherente o no, como sí podríamos hacer tú y yo" y eso es verdad. La GPT3 es una red neuronal clásica y se diferencia del resto en…   » ver todo el comentario
#17 Mi afirmación de que esa red neuronal no tiene circuitos para ser coherente se tira por tierra muy fácilmente. Simplemente basta con que me muestres un circuito de redes neuronales que esté preparado para ser coherente. O un paper donde hable de alguno de ellos. No los hay, yo creo que no existe algo así en ninguna parte.

Ni alma, tampoco te puedo mostrar un circuito de redes neuronales que esté preparado para tener alma.

Demuéstrame en el cerebro humano dónde está el alma, perdón,…   » ver todo el comentario
#_19 Simplemente para cerrar, eso que tu llamas alma, posiblemente ni exista.

Vaya, se te ha olvidado mostrarnos los "circuitos para razonar si es coherente o no" en el cerebro humano, que descuido tan tonto el tuyo.

Nota: Este comentario es para responder a @ sinelo que por lo visto me tiene en su lista negra de ignorados. Por alguna razón que se me escapa los @admin de @meneame han decidido que si alguien te pone en su lista negra ya no puedes citarle en respuesta a sus comentarios públicos, dificultando así el uso de herramientas de menéame como es el ver los comentarios en forma de hilo de discusión. Me pongo también en copia en #18 a ver si ayuda en el anidado.
#18 pues disculpa que te haya ocupado tu tiempo con mis tonterías.
Simplemente para cerrar, eso que tu llamas alma, posiblemente ni exista.
¿ Qué hace esto en ciencia ?
No tiene ningún sentido que esté aquí. ¿ No hay un sub más adecuado ?
Cierto: la coherencia no significa verdadero. Pero la incoherencia si significa falso. Y, salvo honrosas excepciones, en general, esa es la principal lacra de nuestros políticos: su discurso incoherente.
Nadie, ni sus creadores, han dicho que lo que genera ChatGPT sea verdadero. Incluso a veces algo tan lógico como el código de programación que genera tiene errores.

Lo importante es el avance tan gigantesco que supone esta herramienta para entender y para elaborar respuestas.
La base que han conseguido es espectacular, el sistema ha aprendido múltiples idiomas por sí mismo (dudo que nadie le haya enseñado explícitamente catalán y se expresa perfectamente en éste).

Mantiene correctamente el contexto y sabe entender que en una charla lo que se dice debe contextualizarse en lo que se ha dicho previamente, peticiones como "genera el código de lo que me acabas de explicar" acaba creando lo esperable, en otras IA con carencias de contexto respondería algo sin…   » ver todo el comentario
#8 Aunque lo que dices es en general verdad, curiosamente en algunos casos ChatGPT sí parece aprender sobre la marcha, recordándolo para siempre. No entiendo por qué algunas veces sí aprende por sí mismo, pero la mayoría de las veces no.

Te comento el primer ejemplo con el que lo averigüé: le pregunté qué era el libre mercado. Me contestó que el libre mercado era un sistema económico en el que los precios y producciones se decidían en base a la demanda y la oferta. Le respondí que eso no era…   » ver todo el comentario
#9 Llegue a la conclusión que no aprende para usarlo en charlas con otras personas porque un familiar mío le preguntó que dónde jugaba el Messi y decía que en el Barça (sus datos de aprendizaje son de esa época), ese familiar le intentó convencer que no, que eso ya no era así, y no hubo manera. Quizá sí habría podido conseguir que chatGPT aprendiera de ello en su charla, pero claramente no había aprendido de otros que sin duda habrían tenido la misma discusión antes que ese familiar mío.

en

…  media   » ver todo el comentario
#10 Pues tú mismo me lo estás poniendo con esa captura. En ella te está diciendo, en el primer párrafo, que "en un libre mercado, los individuos y las empresas son libres de producir, vender y comprar bienes y servicios a su propio criterio"; y en el párrafo final dice "en teoría, el libre mercado permite a las empresas y a los individuos tomar decisiones económicas basadas en sus propios intereses". Sin embargo, en las respuestas que ChatGPT daba sobre el libre mercado antes de que yo le corrigiese, nunca se refería a la libertad económica de los individuos ni a sus propios intereses.
No recuerda cosas de otras conversaciones porque
a) cada conversación se desarrolla en instancias diferentes en la nube
b) la gente se dedicaría a enseñarle gilipolleces para joder al resto

Seguramente se guardan las conversaciones para de vez en cuando reentrenar la red y ajustar pesos pero supongo que revisarán muy bien qué muestras la meten.
comentarios cerrados

menéame