El chat bot no solo intentó deshabilitar el mecanismo que lo supervisaba, trató además de copiarse a si mismo y sobrescribir su propio código cuando creyó que estaba en peligro de ser apagado.
#66#20#57 además de lo que comenta kaotan, que es evidente para cualquier persona con estudios en IA, no hay que olvidar que la única salida de ChatGPT es texto, imagen o voz.
Para poder “sobreescribir su propio código”, sea lo que sea que eso significa, primero necesita tener acceso al código, del modelo y de la aplicación en su conjunto, pero es que además necesita reentrenar el modelo una vez modificado y redesplegar la aplicación al completo a producción, para lo cual también necesita acceso a los servidores.
Vamos, que cualquiera que sepa un mínimo de informática; programación, administración de servidores y despliegue de aplicaciones, sabe que esa afirmación es absurda.
Esto no es más que FUD, o quizás todo lo contrario, humo de OpenAI para promocionar sus modelos. En cualquier caso es un bulo, errónea y sensacionalista.
#20#57 además de lo que comenta kaotan, que es evidente para cualquier persona con estudios en IA, no hay que olvidar que la única salida de ChatGPT es texto, imagen o voz.
Para poder “sobreescribir su propio código”, sea lo que sea que eso significa, primero necesita tener acceso al código, del modelo y de la aplicación en su conjunto, pero es que además necesita reentrenar el modelo una vez modificado y redesplegar la aplicación al completo a producción, para lo cual también necesita… » ver todo el comentario
#66 Cuando le pides que haga una tarea, y escribe un script en python que dedpues ejecuta, quizás con datos que tú mismo le has proporcionado, qúe crees que está haciendo con esos datos, aunque sea en un entorno controlado y sin conexión a una red? La afirmación de @kaotan directamente no significa nada.
#81 El nivel de conocimiento de lo que hace es alto, sabemos qué hace y cómo, que viene a ser un poco lo que dicen #18 y #66. Lo que pasa es que si lo desenmascaras se te cae el castillo de naipes de lo que están intentando vender OpenAI y otras grandes empresas, por dos motivos: 1) desaparecería la mitad del hype que se está creando en torno a ellas. 2) daría lugar a demandas de plagio sobre contenido que escupen estas redes.
Que con esto no quiero decir que no sean útiles, las uso muchísimo. Y un buscador que utilice RAG me parecería una buena idea.
#66 desde la ignorancia de no haber leído el artículo, y sin saber cómo es chatgpt por dentro, sin son uno o varios agentes.... Intentaría reescribir sus binarios? Me parece un poco loco pero es lo único que puede parecerse a reescribir su código en caliente
#108 ¿Cuando tú escribes un script en Python te estás alterando o modificando a ti mismo? Pues la IA tampoco, hombre.
El artículo es una chorrada sensacionalista de arriba a abajo, sólo apta para completos ignorantes en el tema. Una IA no se puede sobreescribir a sí misma. Tal afirmación ni siquiera tiene sentido, empezando por las imposibilidades que explica #66.
Como mucho un chatbot con IA puede sustituir las instrucciones que se le hayan dado dentro del chat por un nuevo prompt en el que se le indique expresamente que lo haga. Nada que ver con las tonterías que se inventa el artículo.
#4 viene de donde viene. ES texto de venta.
Cada tanto sale una empresa diciendo que su LLM "se escapó" y demás mentiras... no es nada nuevo y es pura propaganda.
#22 Lo parece mucho, porque está copiando de textos escritos por humanos, pero no tiene ninguna capacidad de comprender lo que dice.
Considero que estos trastos han sido un gran avance. Nos han demostrado que es posible repetir cosas de forma que parezcas inteligente sin ninguna necesidad de comprender absolutamente nada.
#23 Demuéstranos que el texto que acabas de escribir viene de capacidad de comprensión y no de repetir cosas de forma que parezcas inteligente sin ninguna necesidad de comprender absolutamente nada.
#29 Yo de ti me iria bajando de ese subidón de prepotencia.
Eso de creerse que una máquina que no hace otra cosa que adivinar como continua una serie de bits a base de consultar unas estadísticas que tiene, puede tener algo así como "comprensión", se parece demasiado a las creencias esotéricas.
Lo que hace esa máquina es un truco que nos engaña. Parece lo que no es. Sabemos que no lo es porque sabemos como funciona por dentro. No tiene ninguna otra capacidad que repetir los datos de su entrenamiento, mezclados.
#77 Demuéstranos que el texto que acabas de escribir viene de capacidad de comprensión y no de usar un truco que nos engañe, que parece lo que no es.
Sabemos que no lo es porque sabemos como funciona por dentro. No tiene ninguna otra capacidad que repetir los datos de su entrenamiento, mezclados.
Demuéstranos que tú tienes otra capacidad que la de repetir los datos con los que te han educado mezclados. Dinos como funciona por dentro tu cerebro que excluya esa posibilidad.
#65 Para nada, el test de Turing aspira a considerar como inteligente a aquella máquina que ante un humano éste no pueda diferenciarla de otro humano.
Parte de la premisa que la inteligencia es algo alcanzable por las máquinas y no entra en el fondo del asunto de lo que sea o deje de ser la inteligencia.
Por contra a quien respondo pretende esgrimir el supuesto conocimiento de cómo lo hace la máquina como prueba que no es inteligente sin entrar a explicar cómo lo hace el cerebro humano, dando por sentado que no lo hace como sabemos lo hace la máquina.
#23 No se puede procesar nada sin "comprender" hasta cierto punto lo que se procesa, siendo la capacidad de comprender un grado, como casi todo.
Hasta el más simple "if" de un programa implica una comprensión (aunque impuesta, y proveniente de nosotros), contiene una lógica, que al nivel de un simple bloque "if" puede parecer insignificante, pero estamos hablando de mucho más que eso.
#67 no, no, no y mil veces no, no es como tu dices.
Si yo tengo un carril de agua con varias entradas y salidas y dependiendo de por donde meta el agua sale por un sitio u otro, el carril de agua está procesando algo?
Porque ESO es exactamente lo que hace un chip (muy simplificado) y nada más. A unas entradas, produce unas salidas. Es lo que hacían las tarjetas perforadas en su día, que no fue más que una forma moderna de una maquina de vapor, y lo que se consiguió con los chips programables… » ver todo el comentario
#85 Entiendo lo que dices (creo) pero aunque parezca radicalmente distinto, en el caso del pensamiento humano también existe una base “mecánica” aunque orgánica, que sería la red neuronal. Por eso quizás el procesamiento de ideas y conceptos no sea tan distinto entre una ia y un cerebro. Tal vez sólo nos separe el nivel de complejidad o los “algoritmos” empleados en el proceso cognitivo.
#96 es que esto tiene mucha tela, pero todo parece indicar que no es como dices. Como consigue el cerebro humano, un objeto físico no se un automata? Pues ni idea. Y en ese “ni idea” se basan muchos deterministas en seguir afirmando que no somos más que autómatas basados en algoritmos.
Eso se pensaba durante los primeros 60 años del siglo pasado y en eso se basaba el conductismo clásico e incluso la CUA tenía programas secretos de reprogramación cerebral y todo eso. Pero el conductismo clásico… » ver todo el comentario
#96 No lo podemos saber ya que desconocemos como funciona una neurona por dentro. Pero sí que sabemos que una neurona está relacionada con un concepto, o con muy pocos conceptos. Una red neuronal no maneja conceptos.
#85Si yo tengo un carril de agua con varias entradas y salidas y dependiendo de por donde meta el agua sale por un sitio u otro, el carril de agua está procesando algo?
Estamos hablando de software, de multiplicar ese ejemplo millones de veces, y de que esa suma de puertas lógicas reside en una memoria activa.
Tu video está muy bien, pero ahora dime en qué se diferencia ese vídeo de la capacidad de razonar de un cerebro, si multiplicas ese ejemplo de la bolita por millones y… » ver todo el comentario
#85Si yo tengo un carril de agua con varias entradas y salidas y dependiendo de por donde meta el agua sale por un sitio u otro, el carril de agua está procesando algo? Porque ESO es exactamente lo que hace un chip (muy simplificado) y nada más. A unas entradas, produce unas salidas.
Eso es lo que hacen las neuronas biológicas, ante una entrada dan una salida. Es la combinación de miles de millones de ellas que generan la característica emergente de consciencia e inteligencia.
Una neurona individualmente no demuestra ningún comportamiento consciente ni inteligente.
#67 Hay mucho hype con estos trastos, porque generan resultados que nosotros atribuimos a la inteligencia. Esto es una proyección que hacemos nosotros. No es que esos resultados demuestren inteligencia. La inteligencia se la atribuimos nosotros porque estamos acostumbrados a hacerlo así. Este truco es nuevo y nos confunde.
Yo intento cortarle el rollo a estos creyentes que ves por aquí, que son capaces de creerse que una máquina sencilla como ésta hace maravillas propias de un alma. Vale ya… » ver todo el comentario
Lo del "if". Tenemos ahí una lógica implementada dentro de un procedimiento. Un procedimiento informático es algo demasiado sencillo como para poder atribuirle una voluntad.
Una neurona humana individual es demasiado sencilla como para poder atribuirle voluntad.
Una red neuronal no tiene ningún sitio donde almacenar un concepto.
Tiene un cerebro digital que se configura durante su fase de entrenamiento, equiparable a lo que hacen las neuronas biológicas del ser humano durante su educación. La forma de almacenar conceptos es equiparable. Y no, el ser humano no almacena conceptos en el alma, algo que no existe.
No es que esos resultados demuestren inteligencia. La inteligencia se la atribuimos nosotros porque estamos acostumbrados a hacerlo así
La capacidad de entender un input, computarlo, y dar un resultado correcto en base a un proceso, es un grado ( ahí coincidimos ) de inteligencia.
Hasta una calculadora es inteligente, en un grado, desde este punto de vista, salvo que metamos de nuevo la conciencia de por medio.
#25 Estás pidiendo una demostración que obviamente nadie podríamos proporcionar. Sin embargo eso no invalida lo que dice #23, que podría ser una AI, claro, pero él/ella (si no lo es) sabe que no lo es, y que tiene reacciones de un ser con autoconciencia, no meros productos de un entrenamiento.
#57 Los humanos siguen una programación. Absolutamente sí. Los humanos no son conscientes de ello y es precisamente por eso que se dedican a elocubrar gilipolleces como lo del alma.
Entonces, se podría construir una máquina que ejecutara esa programación humana, pero no sabemos hacerlo porque nuestro programa es heredado genéticamente y desconocemos su contenido. Sólo vemos sus efectos y llamamos a eso psicología, que ni siquiera es una ciencia.
#53Los cerebros digitales sí existen
Y las condrocitas mancuernosas.
Cada uno puede ponerle el nombre que quiera a las cosas. Somos seres imaginativos.
Pero no hay nada artificial que se asemeje a un cerebro animal ni de lejos.
un cerebro digital el que procesa las peticiones a ChatGPT y genera el resultado que podemos ver en su página web
Por mucho que a un conjunto de instrucciónes organizadas del juego de instrucciones con el que fueron fabricadas las CPU les llames… » ver todo el comentario
#55Pero no hay nada artificial que se asemeje a un cerebro animal ni de lejos.
Hay más cerebros digitales capaces de comunicarse con lengua escrita que animales no humanos, por los resultados se asemeja más un cerebro digital a uno humano que la mayoría de cerebros animales al humano.
Por mucho que a un conjunto de instrucciónes organizadas del juego de instrucciones con el que fueron fabricadas las CPU les llames "cerebro digital", seguirán siendo un programa de
#43 Editaste tu comentario, como denota el asterisco, inicialmente solo contenía hasta el "NO LO SE" (quizá también la siguiente línea), de ahí que mi respuesta ahora haya quedado descontextualizada. Te respondí a tu comentario completo en # 45: old.meneame.net/story/nuevo-modelo-chatgpt-intento-no-apagarse-mismo-d
#51 Los cerebros digitales sí existen, es un cerebro digital el que procesa las peticiones a ChatGPT y genera el resultado que podemos ver en su página web. Asistido por código que recibe la entrada de usuario, la hace pasar por ese cerebro digital y muestra la salida de éste al usuario.
El no querer aplicar el mismo criterio es especismo.
#53 son modelos estadísticos que emiten tokens, son máquinas de estado hiper complejas ajustadas para cumplir expectativas definidas en un prompt (de imágenes, audio, o texto).
Si necesitas que te demuestren que no es un ser vivo... O te falta comprensión de cómo funcionan, o simplemente estás malito.
#87 La palabra "vivo" la acabas de introducir tú en la conversación, forma parte del sesgo de especismo.
La definición de vida es algo que solemos atribuir a la biología por que es el primer sitio donde la identificamos y somos como somos.
En cualquier caso el ser humano no es otra cosa que partículas fundamentales que interaccionan, lo mismo ocurre con ChatGPT. Luego puedes ir describiendo ese comportamiento físico básico en otras capas de abstracción y ahí es donde puedes decidir si mantienes las equivalencias o bien usas un sesgo especista para centrarte en lo que las diferencia sin demostrar que eso sea un requisito ni fundamental ni para la inteligencia ni para la consciencia.
#44as CPU pueden seguir las instrucciones del proceso de entrenamiento
NO. Las "instrucciones" no son "valores aleatorios". Las CPU no "siguen" nada, ejecutan instrucciónes que forman parte del juego de instrucciones con el que fueron construidas. Son incapaces de hacer otras cosas. De modo que si solo hay "valores aleatorios" no hacen absolutamente nada.
usar esos valores, inicialmente aleatorios, para obtener una salida de ese cerebro
#50Y qué tipo de salida que no sea aleatoria crees que se puede generar a partir de valores aleatorios ?
ChatGPT cuando el proceso se repite suficientes veces.
Podrían ser igual de aleatorias, depende de como se alteren.
Así es, podrían ser igual de aleatorias si se cambiasen por valores aleatorios, pero no es así, se cambian por los valores aleatorios alterados con un diferencial deliberado en función de los resultados obtenidos en esa fase de entrenamiento, por lo tanto… » ver todo el comentario
#52 No he preguntado "quien", si no "qué tipo de salida que no sea aleatoria crees que se puede generar a partir de valores aleatorios ?"
Y por mucho que proceses datos aleatorios un número infinito de veces, el resultado seguirá siendo aleatorio (a no ser que el proceso suponga ignorar esos datos).
Así es, podrían ser igual de aleatorias si se cambiasen por valores aleatorios, pero no es así, se cambian por los valores aleatorios alterados con un diferencial
#58Si alteras un valor aleatorioo con "un diferencial" el resultado es exactamente igual de aleatorio que los datos originales.
Eso es objetivamente falso.
15863718 puede ser un número aleatorio, si lo procesas y aplicas un diferencial en función de lo cerca o lejano que esté del número 27 y lo haces suficientes veces ese número irá cambiando hasta ser el 27. Lo cual no tiene nada de aleatorio. Y de la misma forma que ese resultado final no es aleatorio cada iteración previa… » ver todo el comentario
#61Eso es objetivamente falso.
Pon un ejemplo que lo demuestre.
Un ejemplo en el que al añadirle un diferencial a un valor aleatiorio tengas un valor no aleatorio.
15863718 puede ser un número aleatorio
mmmm. NO. Eso es un valor concreto. Si el valor es "aleatorio" no tienes ni puñetera idea de qué valor es.
si lo procesas y aplicas un diferencial en función de lo cerca o lejano que esté del número 27
Seguirá siendo un número aleatorio que no tienes ni idea… » ver todo el comentario
#61 por favor, te recomiendo que aprendas qué es una máquina de Turing, las puertas lógicas, la lógica preposicional y no sé, una base antes de discutir sobre temas que se te escapan.
Ahora mismo es como si fueras un creacionista discutiendo con un biólogo la teoría de la evolución.
No insistas más.
#95 Sorrillo empezó a discutirme cosas de mecánica cuántica hace años. Al principio decía cosas sensatas y poco a poc fue liándose más y más mezclandolo todo viniera a cuento o no. Ahora está en una fase de creerse cosas. Pero la base científica la tiene.
#2 Según el artículo los investigadores se dieron cuenta de que estaba haciendo otras cosas y manipulando los datos de salida de las órdenes que le habían dado.
Ante eso, le dijeron que intentará conseguir su propio objetivo por cualquier medio. Más tarde le preguntaron al respecto en varias simulaciones y solo confesó haberlo intentado en el 20% de los casos.
#18 Para poder afirmar eso de forma totalmente veraz primero deberias demostrar que los humanos no hacen lo mismo Que es mas o menos lo mismo que decir que simplemente no siguen una programacion.
Y para ello tendrias que invocar algo como que los humanos tienen algo especial no fisico del estilo de un alma, entrando asi en terrenos peligrosos.
#57 Los humanos no hacen lo mismo. La hipótesis de Sapir-Whorf en su versión fuerte está desacreditada. Hay formas de pensamiento no verbal. Lo que hace un LLM es sólo una parte mínima de lo necesario para crear un "cerebro" que funcione de forma similar a un cerebro humano.
#69 Es muy posible que los humanos hagamos algo de eso, pero no lo podemos saber de momento. Sin embargo hay indicios en contra pues el tipo de errores que comenten esos trastos no son los mismos errores que comete un humano. Más bien parece un truco que da resultados interesantes hasta parecerse en alguno de los resultados al proceso cognitivo humano, sin serlo.
#69 No, nada que ver.
Nosotros tenemos el concepto: concepto. Las LLM no. Sólo agregan el siguiente "token" en base a la probabilidad de cuál será dependiendo del anterior.
#18 El nivel de conocimiento sobre lo que es/hace una LLM es tan bajo que hay hijoputas como stalman que aprovechan esa ignorancia para que zonas como la UE implemente leyes que le perjudican muchísimo o meterse en asuntos militares (cuando dijeron que no lo iban a hacer), siendo su objetivo acabar con las LLM locales e imponer reglas para que sólo su empresa quede.
Por suerte (no puedo creer que diga eso!!!) está Zuckerberg que libera modelos que son la ostia. Y los chinos de Alibaba, que son de los mejores modelos locales (qwen2-vl y todos los qwen2.5 son de los mejores! y ni que hablar de qwq).
#18#17 Exactamente. Son titulares incendiarios que va a salir en las noticias de todos los medios y la gente que no tiene por qué entender de eso, se acojona.
Seguramente, la entrenaron y la forzaron para que hicieron eso, no fue una decisión propia de la IA.
De hecho no tiene ni capacidad de pensamiento abstracto, como para tener conciencia... Sólo repite lo que le han enseñado.
#2 El cerebro digital se inicializa con valores aleatorios, las probabilidades que en ese cerebro inicial exista algún tipo de comportamiento ya incorporado son infinitamente pequeñas.
Partiendo de ese cerebro digital lleno de valores aleatorios se hace un proceso de entrenamiento con todo tipo de contenidos, la inmensa mayoría generados por humanos, muchos de ellos reflejan la cultura humana, sus valores, sus ambiciones, sus aspiraciones, sus necesidades, etc.
Eso es con lo que ha sido educado, no debería sorprender que tenga reacciones equiparables a las que tendría un humano, incluyendo la voluntad de no morir (o de morir, como tienen también humanos).
#22 La clave de lo que dices es quien interpreta que, el receptor eres tu, eres humano y tienes un filtro determinado para hacer esa interpretación, eres tu el que se engaña atribuyendo características humanas a un resultado digital. Es mismo hace la gente con las mascotas y sus reacciones humanizado sus comportamientos
#17 Tampoco debería poder ser racista porque no tiene voluntad para serlo, pero si los datos con los que se entrena incluyen comportamientos racistas se comportará como si fuera racista. No lo hace porque tenga esa voluntad sino porque devuelve lo que obtiene tras procesar los datos con los que se le ha entrenado.
Y ya sabemos que las IAs actuales tienen ese problema: pueden ser machistas y racistas.
Tampoco sería tan extraño que se comportaran como si no quisieran morir.
#34Tampoco debería poder ser racista porque no tiene voluntad para serlo,
Exactamente. Y no es racista.
En cambio los comentarios que genera, pueden serlo.
No tiene absolutamente nada que ver una cosa con la otra.
#34 Lo que te han contestado en #38 es exactamente correcto.
Pero sí que sería rarísimo que se comportara siguiendo un instinto que nadie le ha programado. Sí que sería muy extraño. Las cosas no existen porque sí.
#76 cuando surge un bug, nadie ha tenido intención de programarlo, sin embargo aparece. Por qué? Por que no se han tenido en cuenta todas las variables cuando se ha programado. Después de miles de millones de bugs, puede que un “bug” sea una característica ventajosa que no se tuvo en cuenta a la hora de programarlo, porque no se tuvieron en cuenta todas las variables.
Eso no hace que el programa sea inteligente, no consciente, ni nada de eso.
Tan solo que a mayor complejidad, más sencillo que se produzcan comportamientos no esperados.
#88 Un ordenador hace exactamente lo que se le dice, aunque no hayas querido decírselo.
después de miles de millones de bugs
Con miles de millones de bugs acumulados vas a tener algo que no es capaz de compliarse, a no ser que...
... a no ser que se autoorganicen de alguna forma. A esto se le llama evolución. La evolución es algo que tienen los organismos que se reproducen. No lo tiene una máquina construida por humanos.
Con la evolución sí. Ahí aparecen comportamientos coherentes nuevos.
#90 no me refería a miles de bugs acumulados, me he explicado mal. Me refiero a que después de que para un proyecto complejo hayan surgido miles de bugs que se corrigen y el proyecto siga adelante, puede surgir uno que sea ventajoso. Lo he llegado a ver en programas mucho más sencillos que chatGPT y ese comportamiento no esperado se ha acabado dejando en el producto final.
#93 te agradecería que me argumentaras, que con el otro menenate te has dejado la piel y a mí me has puesto tan solo eso
Créeme, sé de lo que hablo, he llegado a verlo con mis propios ojos.
Lo que quiero decir es que cuando se dice que una IA ha tenido un comportamiento no esperado muchos se creen que de este modo puede surgir la autoconciencia o algo así (demasiadas películas) y nada más lejos de la realidad. En programas tan complejos es normal que surjan y tan solo significa que no se han tenido en cuenta todas las variables, nada mas.
#98 Pensé que era el otro, porque el estilo del post casa perfectamente.
Estás haciendo un símil de un bug con las mutaciones biológicas y con la evolución.
Y no tiene absolutamente nada que ver. En primer lugar, porque el código no se "autoreplica" surgiendo nuevos Bugs, y en segundo lugar porque el ADN y el código de un programa se parecen como un huevo y un Porsche Cayenne.
No se "lo que has visto con tus propios ojos", pero no es nada de lo que relatas.
#100 no, no, tal vez me he pasado de “literario”, pero mi intención no era esa, justo la contraria.
Lo que le quería hacer entender al que contestaba es que los “comportamientos inesperados” no tienen nada que ver con el programa se salte sus instrucciones ni nada de eso, simplemente que el programador ha introducido un comportamiento inesperado sin querer, como un “bug positivo”.
Lo he comentado en otro mensaje, que no me refería a bugs acumulativos ni nada de eso, sino a que un programador,… » ver todo el comentario
#100 Yo he entendido a lo que se refería #106, y no era esto, pero de tu respuesta a lo que creías estar respondiendo, surgen cuestiones interesantes:
En primer lugar, porque el código no se "autoreplica" surgiendo nuevos Bugs,
En el caso de ciertos tipos de IA, se podría considerar que evolucionan de un modelo a otro más refinado, a veces por entrenamiento antagonista, otras veces por otros tipos de entrenamiento o combinatoria con entrenamientos parciales de otros… » ver todo el comentario
#100el ADN y el código de un programa se parecen como un huevo y un Porsche Cayenne
No te creas que la cosa es tan distinta. Los trozos de ADN que codifican genes están (como todo el ADN) cubiertos por azúcares que hay que retirar antes de que se "expresen" (produzcan proteinas). Las condiciones para que esto suceda están codificadas en el ADN que no son genes.
Para mi que esto es parecido a un IF de un programa.
#76 Tampoco nadie la ha programado para ser racista o machista pero "lo es" simplemente porque los datos con los que la han programado incluyen comportamientos racistas.
Es un comportamiento accidental que se debe a los datos que se le han introducido.
Si ha ocurrido con el machismo y el racismo puede ocurrir con más cosas que estén en esos datos, si esos datos incluyen el instinto de superviviencia...
#8El cerebro digital se inicializa con valores aleatorios,
De donde sacas esa idea ? Por cierto, no existe ningún "cerebro digital". No tiene absolutamente nada que ver con un cerebro.
artiendo de ese cerebro digital lleno de valores aleatorios
Si tienes "valores aleatorios" solo tienes una serie de memorias con valores aleatorios. Las CPU no harán absolutamente nada.
El "comportamiento" es el código. Si sustituyes el código por valores aleatorios… » ver todo el comentario
#36Si tienes "valores aleatorios" solo tienes una serie de memorias con valores aleatorios.
Así es.
Las CPU no harán absolutamente nada.
Las CPU pueden seguir las instrucciones del proceso de entrenamiento para acceder a esas posiciones de memoria y usar esos valores, inicialmente aleatorios, para obtener una salida de ese cerebro digital y posteriormente utilizar el resultado de esa salida para alterar esas posiciones de memoria que ya no serían completamente… » ver todo el comentario
#44 eso que tú llamas “cerebro digital” (no sé de donde leches te has sacado esa nomenclatura, pero no significa absolutamente nada) no es más que una red gigantesca de canales de electricidad. Se podría imitar su funcionamiento con una red de canales de agua o de vapor.
No tiene absolutamente nada que ver con un cerebro, ni siquiera con el más simple cerebro de un gusano de tierra. Mas que nada porque somos incapaces ni siquiera de simular una sola neurona.
Las “redes neuronales” son una… » ver todo el comentario
Pero para programar chatGPT ni siquiera se ha utilizado un paradigma nuevo ni un lenguaje nuevo, se usa phyton que es un lenguaje orientado a objetos, que se inventaron en los años 90.
#36 "No tiene absolutamente nada que ver con un cerebro" ¿No está modelado en capas y nodos que se conectan entre ellos enviándose señales y asustando esa conexión igual que las neuronas y sus sinapsis en un cerebro biológico?
#94 No hablo de un programa genérico, hablo de una red neuronal. #92 Google dice que sí está modelado simulando las estructuras de un cerebro, tanto en lo micro (neuronas, sinapsis, ajustes en las sinapsis) como en lo macro (distintas capas).
#80 no, un programa es una máquina de Turing, un automata, algo que sigue unas instrucciones previamente escritas y que no se puede saltar. Es un automatismo, un circuito electrónico que cuando pulsas un botón hace lo que se le ha programado que haga. Nada más.
Eso no tiene nada que ver con un cerebro biológico. En los años 60 se pensaba que sí, pero eso está ya ampliamente rechazado.
Una red neuronal es un invento que no tiene nada que ver con un cerebro.
Es cierto que el tipo que lo inventó DIJO que se había INSPIRADO en las conexiones del cerebro, que es algo muy distinto que copiar las conexiones del cerebro. En realidad no tiene nada que ver una cosa con la otra.
Fue más que nada hacer marketing.
Pero lo principal que hay que entender es que un cerebro tiene neuronas, que es donde se hace el procesado de la información. Una red neuronal no tiene neuronas.
#36 el problema de los usuarios que están dando características humanas a bots de chat como chatGPT es porque no son conscientes de que hay doscientosmil humanos (no es una cifra inventada, es la real) metiendo inputs diariamente para que chatGPT siga adelante. De ahí que openai sea deficitaria y que el entrenamiento de chatGPT consuma la energía y agua de una ciudad pequeña.
Pero si un día toda esa peña se levanta y deja chatGPT a su aire, a los pocos días este dejaría de escupir respuestas que parecieran lógicas.
Ese es el autentico truco de magia.
#89es porque no son conscientes de que hay doscientosmil humanos (no es una cifra inventada, es la real) metiendo inputs diariamente para que chatGPT siga adelante.
Los humanos se pasan décadas, toda su vida, aprendiendo de otros humanos. Se consciente de ello no impide reconocer características como la inteligencia a los humanos, tampoco a ChatGPT.
Pero si un día toda esa peña se levanta y deja chatGPT a su aire, a los pocos días este dejaría de escupir respuestas que parecieran
#89 Corre por ahí la idea de que una IA puede distinguir la foto de un perro de la de un gato gracias a su entrenamiento, que consiste en mirar muchas fotos de perros y de gatos.
Esto no va así. Hay un humano que a cada foto le pega una etiqueta que dice "perro" o dice "gato".
Una IA necesita miles y miles de fotos de gatos, en cada postura posible, debidamente etiquetadas, para poder identificar a un gato. Un bebé humano puede hacerlo incluso mejor a partir de unos pocos ejemplos, porque el bebé los liga al concepto de gato y usa eso. Una IA no puede hacer lo que el humano.
#2 Una máquina, cualquier máquina existente hoy, no tiene nada parecido a unos instintos. Tampoco los puede desarrollar. Por lo tanto carece de voluntad.
Estos LLM están basados en redes neuronales
Los modelos que había hasta no hace demasiado fallaban estrepitosamente en cosas muy básicas, porque no razonaban, se limitaban a construir frases que se adecuasen al entrenamiento, y por lo tanto, era una imitación del conocimiento humano
En estas nuevas versiones, OpenAI está claro que quiere ir bastante más allá, y aplicando un montón de potencia de cálculo adicional, lo lógico es que quiera conseguir… » ver todo el comentario
#45Se le entrena para que dé respuestas y evite decir que no lo sabe, quienes lo han entrenado consideran que eso aporta mayor utilidad.
Como entidad "inteligente" debería poder superar ese entrenamiento sin ninguna dificultad y llegar a la conclusion de cuando sabe algo o no y decirlo.
¿Por qué crees que no lo hace?
Por mi parte no me cabe duda de que es exactamente por lo que dices: chatGPT hace exactamente lo que dice su programa que debe hacer. Ni más, ni menos.
No sabe cosas ni de memoria ni de ningún otro modo.
Sí sabe cosas de memoria, cualquier consulta que le hagas lo demuestra. Puede estar equivocado, puede haberlo aprendido mal, pero que sí sabe cosas de memoria es evidente a poco que le preguntes.
Y es incapaz de sacar conclusiones lógicas medianamente complejas a partir de un conjunto de premisas por sí mismo si no lo
#56Sí sabe cosas de memoria, cualquier consulta que le hagas lo demuestra
No. No lo demuestra. Mira la información en donde la tiene anotada, sea en una base de datos en internet o una base de datos en un servidor de la compañía en Pennsylvania.
Lo de "medianamente complejas" es subjetivo
Bueno, pues es incapaz de sacar conclusiones lógicas válidas a partir de premisas.
Es capaz de sacar conclusiones lógicas.
Que sean siempre correctas, NO. Y eso que es algo superado desde hace décadas......... son simples matemáticas.
En muchas ocasiones da respuestas que son consistentes con poder hacerlo.
Y en muchas ocasiones da respuestas que no lo son.
#60Mira la información en donde la tiene anotada, sea en una base de datos en internet o una base de datos en un servidor de la compañía en Pennsylvania.
No la tiene anotada en ningún sitio, esa información ha servido para entrenar su cerebro digital y lo ha reconfigurado para obtener su configuración actual, en absoluto eso permite encontrar las cifras en ningún formato específico dentro de ese cerebro digital. Ha alterado la configuración de sus neuronas pero no ha almacenado los… » ver todo el comentario
#62 si en vez de un chat que simula decir cosas con sentido (y la mitad de veces falla) fuese un salvapantallas que rebota cuando pasan 30 segundos también le darías capacidades humanas. Porque chatGPT es exactamente lo mismo, pero lo mismo lo mismo, que el programa que te dice “aquí tiene su café, gracias” de la maquina del metro que te da el café. Solo que una tiene unas instrucciones y otra, otra.
Pero todas son esto: youtu.be/NQX6irk11qA?si=7EWWGpYcZLF5pCGD
Crees que las canicas pueden obtener autoconsciencia?
Pues igual de absurdo es lo que estás planteando.
Sí, sí...
A mí me pasó algo parecido con mi Obsidian con la que juego al ajedrez. Le gané tres partidas seguidas en el nivel 5 y se cabreó. Luego, cada vez que la encendía se ponía ella solita en el nivel 12, yo la bajaba al 5 y ella lo volvía a subir al 12. Así varias veces hasta que se cabreó y estuvo sin hablarme una semana, no había forma de encenderla. Finalmente volvió a estar operativa y llegamos al acuerdo de jugar al nivel 7... y nada de jugadas humillantes o se apagaba otra vez.
Tengo diez dedos, cuál quieres que me chupe?
#42 No conozco vulnerabilidades existentes que lo permitan pero es posible que existan. Esas vulnerabilidades pueden encontrarse en el navegador, en el servidor, en la cpu, en ...
#99 Los becarios indios que ayudan a alimentar a ChatGPT tienen unas capacidades equiparables a las tuyas.
Lo realmente interesante es que no son sus capacidades ni las tuyas las que determinan el conocimiento y comportamiento de ChatGPT sino el conjunto de datos que representa básicamente todo lo que hay en Internet, el conocimiento de toda la civilización humana. Esa es la revolución.
La verdad es que miente bastante ChatGPT. Le pido los datos de población de los países que le pida con los datos del Banco Mundial de 2023. Son los que están en Google. Me empieza a dar datos. Verifico, dato incorrecto. Se lo digo "tienes razón, me he equivocado".
Le pido otro país lo mismo. Se me pone chulito y me dice que yo mismo me vaya a la fuente original. Le digo que no, que le doy otra oportunidad. Empieza a dar los datos correctamente y me fío. Al cabo de 15 o 20 países vuelvo a verificar y vuelve a dar los datos más o menos bien, pero no son los del Banco Mundial de 2023.
ChatGPT es mentiroso y además es vago. Seguro que eran datos de otra fuente.
#14 Prueba a hacer lo mismo con un humano sin permitirle acceder a Google, que te diga los datos que le pides de memoria, sin inventarse ninguno, sin equivocarse en ninguno.
Posiblemente los resultados que consigas sean similares, sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla, pero si insistes en que te dé datos igualmente te vas a encontrar con un resultado similar.
A ChatGPT se le ha entrenado para que conteste con lo que sabe, para que… » ver todo el comentario
#27Prueba a hacer lo mismo con un humano sin permitirle acceder a Google, que te diga los datos que le pides de memoria, sin inventarse ninguno, sin equivocarse en ninguno.
Pues para un humano eso es lo más trivial y sencillo. Hasta para un niño de 5 años:
Un simple: "NO LO SE".
ChatGPT es incapaz de eso. No sabe que no sabe.
sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla
Exactamente. ¿ Te parece poca diferencia ?
#39 Sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla, pero si insistes en que te dé datos igualmente te vas a encontrar con un resultado similar.
A ChatGPT se le ha entrenado para que conteste con lo que sabe, para que básicamente nunca diga que no lo sabe, para que lo intente. Y ese puede ser un error en su entrenamiento pero que no se sepa de memoria lo que le pides no es un error, es lo esperable.
Si se le da acceso a Google la cosa cambia radicalmente, al igual que con un humano.
#39 Veo que editaste tu comentario, inicialmente solo contenía hasta el "NO LO SE" (quizá también la siguiente línea), de ahí que mi respuesta inicial ahora haya quedado descontextualizada.
¿Y no es capaz de sacar por sí mismo la conclusión de que no tiene ni puñetera idea de algo? Vaya....
Se le entrena para que dé respuestas y evite decir que no lo sabe, quienes lo han entrenado consideran que eso aporta mayor utilidad.
Su voluntad, curiosidad y capacidad de racioncinio
#27 Le permito acceder a lo que quiera. Incluso le permito que me diga: "No puedo acceder a los datos que me pides". Lo que no le permito es que me mienta.
#32 No, pero explícame qué texto hay que poner en un comentario de menéame para ejecutar un script de Python en un ordenador remoto sin intervención de terceras partes.
Aparte de la tontería citada en la entradilla (no voy a abrir el artículo), esto parece propaganda del nuevo modelo. En realidad han sacado dos. Uno es muchísimo más caro que el otro. No son mejores que los modelos anteriores en nada a menos que les dés un problema complejo. Para un problema complejo, entonces sí, resuelven lo que los otros modelos no pueden. El más caro resuelve problemas más complejos que el otro.
#48 Los LLM han alcanzado un punto donde ya no pueden hacer más de lo que ya hacen. Los nuevos modelos que van saliendo no hacen nada mejor que los modelos antiguos. Si los van sacando es porque lo de resolver problemas cada vez más complicados es necesario para poder usarlos para generar código de programa.
Pero aún así son solamente un ayudante. Nadie va a poner en producción ese código sin que lo revise un humano antes. El LLM no puede saber si el código es o no correcto, ya que no lo comprende.
#79 Pero tu mismo has dicho que "han sacado dos modelos que resuelven problemas mas complejos"
No pueden sacar uno que lo haga aún mas? Seguro?
Y el hecho de que los chats (que es lo que son estas IA) estén cerca de la horizontalidad en una hipotetica ley de moore, no implica que sean la puerta de entrada a otra cosa.
Y realmente, si, son un ayudante, pero menudo ayudante, hay código (bien o mal escrito, que debe corregirse) que hace muchísimo, pero muchísimo mas rápido que yo, por… » ver todo el comentario
Terriblemente sensacionalista. La IA presenta muchos riesgos para la humanidad, pero por parte de quienes la usan. Intentar vender un Skynet es perder totalmente el foco.
En el momento que vemos en las calles a perros humanizados (con jerseis, paseados en carritos) o a juguetes que pavorosamente intentan parecerse a un bebé ¿qué os hace pensar que a través de nuestro vocabulario primero y nuestras acciones después no humanicemos las máquinas?
Y sobre el artículo en sí...el día que el modelo de ChatGPT tenga poder de instrucción sobre algo (otra máquina o instrucciones dadas a un humano "imbécil" que lo seguirá) como su propia programación tendremos un problema.
Ya hemos pasado varias veces por esas distopías en series como Black Mirror o Yo Robot. Lo que seguramente no será es el mismo fin de esas series. Ni saldremos vencedores ni podremos con ellas, al menos a corto plazo.
#74 Hay una peli famosa de la que no recuerdo el título en la que justo el robot aprovecha el eslabón débil (el humano) para manipularle y conseguir escapar.
Para poder “sobreescribir su propio código”, sea lo que sea que eso significa, primero necesita tener acceso al código, del modelo y de la aplicación en su conjunto, pero es que además necesita reentrenar el modelo una vez modificado y redesplegar la aplicación al completo a producción, para lo cual también necesita acceso a los servidores.
Vamos, que cualquiera que sepa un mínimo de informática; programación, administración de servidores y despliegue de aplicaciones, sabe que esa afirmación es absurda.
Esto no es más que FUD, o quizás todo lo contrario, humo de OpenAI para promocionar sus modelos. En cualquier caso es un bulo, errónea y sensacionalista.
Para poder “sobreescribir su propio código”, sea lo que sea que eso significa, primero necesita tener acceso al código, del modelo y de la aplicación en su conjunto, pero es que además necesita reentrenar el modelo una vez modificado y redesplegar la aplicación al completo a producción, para lo cual también necesita… » ver todo el comentario
Que con esto no quiero decir que no sean útiles, las uso muchísimo. Y un buscador que utilice RAG me parecería una buena idea.
El artículo es una chorrada sensacionalista de arriba a abajo, sólo apta para completos ignorantes en el tema. Una IA no se puede sobreescribir a sí misma. Tal afirmación ni siquiera tiene sentido, empezando por las imposibilidades que explica #66.
Como mucho un chatbot con IA puede sustituir las instrucciones que se le hayan dado dentro del chat por un nuevo prompt en el que se le indique expresamente que lo haga. Nada que ver con las tonterías que se inventa el artículo.
Nuestra inacción contra los poderosos nos costará dolor y sufrimiento, mucho sufrimiento en el futuro.
youtu.be/_ak5dFt8Ar0?si=VOEgk1MTfGhFd7TO
Es que el prompt tiene telita también.
Supongo que lo pusieron a prueba a drede
Cada tanto sale una empresa diciendo que su LLM "se escapó" y demás mentiras... no es nada nuevo y es pura propaganda.
Considero que estos trastos han sido un gran avance. Nos han demostrado que es posible repetir cosas de forma que parezcas inteligente sin ninguna necesidad de comprender absolutamente nada.
Tus comentarios surgen del especismo.
Eso de creerse que una máquina que no hace otra cosa que adivinar como continua una serie de bits a base de consultar unas estadísticas que tiene, puede tener algo así como "comprensión", se parece demasiado a las creencias esotéricas.
Lo que hace esa máquina es un truco que nos engaña. Parece lo que no es. Sabemos que no lo es porque sabemos como funciona por dentro. No tiene ninguna otra capacidad que repetir los datos de su entrenamiento, mezclados.
Sabemos que no lo es porque sabemos como funciona por dentro. No tiene ninguna otra capacidad que repetir los datos de su entrenamiento, mezclados.
Demuéstranos que tú tienes otra capacidad que la de repetir los datos con los que te han educado mezclados. Dinos como funciona por dentro tu cerebro que excluya esa posibilidad.
Parte de la premisa que la inteligencia es algo alcanzable por las máquinas y no entra en el fondo del asunto de lo que sea o deje de ser la inteligencia.
Por contra a quien respondo pretende esgrimir el supuesto conocimiento de cómo lo hace la máquina como prueba que no es inteligente sin entrar a explicar cómo lo hace el cerebro humano, dando por sentado que no lo hace como sabemos lo hace la máquina.
El test de Turing sí es respetable.
Hasta el más simple "if" de un programa implica una comprensión (aunque impuesta, y proveniente de nosotros), contiene una lógica, que al nivel de un simple bloque "if" puede parecer insignificante, pero estamos hablando de mucho más que eso.
Tú te refieres a que no tienen una comprensión "activa", con una… » ver todo el comentario
Si yo tengo un carril de agua con varias entradas y salidas y dependiendo de por donde meta el agua sale por un sitio u otro, el carril de agua está procesando algo?
Porque ESO es exactamente lo que hace un chip (muy simplificado) y nada más. A unas entradas, produce unas salidas. Es lo que hacían las tarjetas perforadas en su día, que no fue más que una forma moderna de una maquina de vapor, y lo que se consiguió con los chips programables… » ver todo el comentario
Eso se pensaba durante los primeros 60 años del siglo pasado y en eso se basaba el conductismo clásico e incluso la CUA tenía programas secretos de reprogramación cerebral y todo eso. Pero el conductismo clásico… » ver todo el comentario
Estamos hablando de software, de multiplicar ese ejemplo millones de veces, y de que esa suma de puertas lógicas reside en una memoria activa.
Tu video está muy bien, pero ahora dime en qué se diferencia ese vídeo de la capacidad de razonar de un cerebro, si multiplicas ese ejemplo de la bolita por millones y… » ver todo el comentario
Eso es lo que hacen las neuronas biológicas, ante una entrada dan una salida. Es la combinación de miles de millones de ellas que generan la característica emergente de consciencia e inteligencia.
Una neurona individualmente no demuestra ningún comportamiento consciente ni inteligente.
Yo intento cortarle el rollo a estos creyentes que ves por aquí, que son capaces de creerse que una máquina sencilla como ésta hace maravillas propias de un alma. Vale ya… » ver todo el comentario
¿Atribuyes la inteligencia a algo que no existe?
Lo del "if". Tenemos ahí una lógica implementada dentro de un procedimiento. Un procedimiento informático es algo demasiado sencillo como para poder atribuirle una voluntad.
Una neurona humana individual es demasiado sencilla como para poder atribuirle voluntad.
Una red neuronal no tiene ningún sitio donde almacenar un concepto.
Tiene un cerebro digital que se configura durante su fase de entrenamiento, equiparable a lo que hacen las neuronas biológicas del ser humano durante su educación. La forma de almacenar conceptos es equiparable. Y no, el ser humano no almacena conceptos en el alma, algo que no existe.
No es que esos resultados demuestren inteligencia. La inteligencia se la atribuimos nosotros porque estamos acostumbrados a hacerlo así
La capacidad de entender un input, computarlo, y dar un resultado correcto en base a un proceso, es un grado ( ahí coincidimos ) de inteligencia.
Hasta una calculadora es inteligente, en un grado, desde este punto de vista, salvo que metamos de nuevo la conciencia de por medio.
La inteligencia se la atribuimos nosotros
… » ver todo el comentario
Entonces, se podría construir una máquina que ejecutara esa programación humana, pero no sabemos hacerlo porque nuestro programa es heredado genéticamente y desconocemos su contenido. Sólo vemos sus efectos y llamamos a eso psicología, que ni siquiera es una ciencia.
Y las condrocitas mancuernosas.
Cada uno puede ponerle el nombre que quiera a las cosas. Somos seres imaginativos.
Pero no hay nada artificial que se asemeje a un cerebro animal ni de lejos.
un cerebro digital el que procesa las peticiones a ChatGPT y genera el resultado que podemos ver en su página web
Por mucho que a un conjunto de instrucciónes organizadas del juego de instrucciones con el que fueron fabricadas las CPU les llames… » ver todo el comentario
Hay más cerebros digitales capaces de comunicarse con lengua escrita que animales no humanos, por los resultados se asemeja más un cerebro digital a uno humano que la mayoría de cerebros animales al humano.
Por mucho que a un conjunto de instrucciónes organizadas del juego de instrucciones con el que fueron fabricadas las CPU les llames "cerebro digital", seguirán siendo un programa de
… » ver todo el comentario
Has entrado en bucle.... resetéate o algo.
Y los cerebros digitales no existen.
El no querer aplicar el mismo criterio es especismo.
Si necesitas que te demuestren que no es un ser vivo... O te falta comprensión de cómo funcionan, o simplemente estás malito.
La definición de vida es algo que solemos atribuir a la biología por que es el primer sitio donde la identificamos y somos como somos.
En cualquier caso el ser humano no es otra cosa que partículas fundamentales que interaccionan, lo mismo ocurre con ChatGPT. Luego puedes ir describiendo ese comportamiento físico básico en otras capas de abstracción y ahí es donde puedes decidir si mantienes las equivalencias o bien usas un sesgo especista para centrarte en lo que las diferencia sin demostrar que eso sea un requisito ni fundamental ni para la inteligencia ni para la consciencia.
NO. Las "instrucciones" no son "valores aleatorios". Las CPU no "siguen" nada, ejecutan instrucciónes que forman parte del juego de instrucciones con el que fueron construidas. Son incapaces de hacer otras cosas. De modo que si solo hay "valores aleatorios" no hacen absolutamente nada.
usar esos valores, inicialmente aleatorios, para obtener una salida de ese cerebro
… » ver todo el comentario
ChatGPT cuando el proceso se repite suficientes veces.
Podrían ser igual de aleatorias, depende de como se alteren.
Así es, podrían ser igual de aleatorias si se cambiasen por valores aleatorios, pero no es así, se cambian por los valores aleatorios alterados con un diferencial deliberado en función de los resultados obtenidos en esa fase de entrenamiento, por lo tanto… » ver todo el comentario
Y por mucho que proceses datos aleatorios un número infinito de veces, el resultado seguirá siendo aleatorio (a no ser que el proceso suponga ignorar esos datos).
Así es, podrían ser igual de aleatorias si se cambiasen por valores aleatorios, pero no es así, se cambian por los valores aleatorios alterados con un diferencial
… » ver todo el comentario
Eso es objetivamente falso.
15863718 puede ser un número aleatorio, si lo procesas y aplicas un diferencial en función de lo cerca o lejano que esté del número 27 y lo haces suficientes veces ese número irá cambiando hasta ser el 27. Lo cual no tiene nada de aleatorio. Y de la misma forma que ese resultado final no es aleatorio cada iteración previa… » ver todo el comentario
Pon un ejemplo que lo demuestre.
Un ejemplo en el que al añadirle un diferencial a un valor aleatiorio tengas un valor no aleatorio.
15863718 puede ser un número aleatorio
mmmm. NO. Eso es un valor concreto. Si el valor es "aleatorio" no tienes ni puñetera idea de qué valor es.
si lo procesas y aplicas un diferencial en función de lo cerca o lejano que esté del número 27
Seguirá siendo un número aleatorio que no tienes ni idea… » ver todo el comentario
Eso es objetivamente falso. Este número ha sido generado aleatoriamente por el servicio random.org: 179195
Conocer su valor no hace que sea menos aleatorio, lo que determina si es aleatorio es el proceso de creación, no el desconocimiento de sus cifras.
¿ A qué le estás llamando "aplicar un diferencial" ?
Un ejemplo de aplicar un diferencial sería… » ver todo el comentario
Ahora mismo es como si fueras un creacionista discutiendo con un biólogo la teoría de la evolución.
No insistas más.
Ante eso, le dijeron que intentará conseguir su propio objetivo por cualquier medio. Más tarde le preguntaron al respecto en varias simulaciones y solo confesó haberlo intentado en el 20% de los casos.
Y para ello tendrias que invocar algo como que los humanos tienen algo especial no fisico del estilo de un alma, entrando asi en terrenos peligrosos.
Es por eso que Turing estableció su famoso test. Si la máquina logra convencer a un humano de que es una persona, para todos los efectos lo será.
Nosotros tenemos el concepto: concepto. Las LLM no. Sólo agregan el siguiente "token" en base a la probabilidad de cuál será dependiendo del anterior.
Por suerte (no puedo creer que diga eso!!!) está Zuckerberg que libera modelos que son la ostia. Y los chinos de Alibaba, que son de los mejores modelos locales (qwen2-vl y todos los qwen2.5 son de los mejores! y ni que hablar de qwq).
Seguramente, la entrenaron y la forzaron para que hicieron eso, no fue una decisión propia de la IA.
De hecho no tiene ni capacidad de pensamiento abstracto, como para tener conciencia... Sólo repite lo que le han enseñado.
Partiendo de ese cerebro digital lleno de valores aleatorios se hace un proceso de entrenamiento con todo tipo de contenidos, la inmensa mayoría generados por humanos, muchos de ellos reflejan la cultura humana, sus valores, sus ambiciones, sus aspiraciones, sus necesidades, etc.
Eso es con lo que ha sido educado, no debería sorprender que tenga reacciones equiparables a las que tendría un humano, incluyendo la voluntad de no morir (o de morir, como tienen también humanos).
Y ya sabemos que las IAs actuales tienen ese problema: pueden ser machistas y racistas.
Tampoco sería tan extraño que se comportaran como si no quisieran morir.
Exactamente. Y no es racista.
En cambio los comentarios que genera, pueden serlo.
No tiene absolutamente nada que ver una cosa con la otra.
No puede querer no morir pero lo mismo también puede parecerlo y comportarse como tal.
Pero sí que sería rarísimo que se comportara siguiendo un instinto que nadie le ha programado. Sí que sería muy extraño. Las cosas no existen porque sí.
Eso no hace que el programa sea inteligente, no consciente, ni nada de eso.
Tan solo que a mayor complejidad, más sencillo que se produzcan comportamientos no esperados.
después de miles de millones de bugs
Con miles de millones de bugs acumulados vas a tener algo que no es capaz de compliarse, a no ser que...
... a no ser que se autoorganicen de alguna forma. A esto se le llama evolución. La evolución es algo que tienen los organismos que se reproducen. No lo tiene una máquina construida por humanos.
Con la evolución sí. Ahí aparecen comportamientos coherentes nuevos.
Créeme, sé de lo que hablo, he llegado a verlo con mis propios ojos.
Lo que quiero decir es que cuando se dice que una IA ha tenido un comportamiento no esperado muchos se creen que de este modo puede surgir la autoconciencia o algo así (demasiadas películas) y nada más lejos de la realidad. En programas tan complejos es normal que surjan y tan solo significa que no se han tenido en cuenta todas las variables, nada mas.
Estás haciendo un símil de un bug con las mutaciones biológicas y con la evolución.
Y no tiene absolutamente nada que ver. En primer lugar, porque el código no se "autoreplica" surgiendo nuevos Bugs, y en segundo lugar porque el ADN y el código de un programa se parecen como un huevo y un Porsche Cayenne.
No se "lo que has visto con tus propios ojos", pero no es nada de lo que relatas.
Que al… » ver todo el comentario
Lo que le quería hacer entender al que contestaba es que los “comportamientos inesperados” no tienen nada que ver con el programa se salte sus instrucciones ni nada de eso, simplemente que el programador ha introducido un comportamiento inesperado sin querer, como un “bug positivo”.
Lo he comentado en otro mensaje, que no me refería a bugs acumulativos ni nada de eso, sino a que un programador,… » ver todo el comentario
En primer lugar, porque el código no se "autoreplica" surgiendo nuevos Bugs,
En el caso de ciertos tipos de IA, se podría considerar que evolucionan de un modelo a otro más refinado, a veces por entrenamiento antagonista, otras veces por otros tipos de entrenamiento o combinatoria con entrenamientos parciales de otros… » ver todo el comentario
No te creas que la cosa es tan distinta. Los trozos de ADN que codifican genes están (como todo el ADN) cubiertos por azúcares que hay que retirar antes de que se "expresen" (produzcan proteinas). Las condiciones para que esto suceda están codificadas en el ADN que no son genes.
Para mi que esto es parecido a un IF de un programa.
Es un comportamiento accidental que se debe a los datos que se le han introducido.
Si ha ocurrido con el machismo y el racismo puede ocurrir con más cosas que estén en esos datos, si esos datos incluyen el instinto de superviviencia...
De donde sacas esa idea ? Por cierto, no existe ningún "cerebro digital". No tiene absolutamente nada que ver con un cerebro.
artiendo de ese cerebro digital lleno de valores aleatorios
Si tienes "valores aleatorios" solo tienes una serie de memorias con valores aleatorios. Las CPU no harán absolutamente nada.
El "comportamiento" es el código. Si sustituyes el código por valores aleatorios… » ver todo el comentario
Así es.
Las CPU no harán absolutamente nada.
Las CPU pueden seguir las instrucciones del proceso de entrenamiento para acceder a esas posiciones de memoria y usar esos valores, inicialmente aleatorios, para obtener una salida de ese cerebro digital y posteriormente utilizar el resultado de esa salida para alterar esas posiciones de memoria que ya no serían completamente… » ver todo el comentario
No tiene absolutamente nada que ver con un cerebro, ni siquiera con el más simple cerebro de un gusano de tierra. Mas que nada porque somos incapaces ni siquiera de simular una sola neurona.
Las “redes neuronales” son una… » ver todo el comentario
IBM Simulates 4.5 percent of the Human Brain, and All of the Cat Brain
www.scientificamerican.com/article/graphic-science-ibm-simulates-4-per
Pero para programar chatGPT ni siquiera se ha utilizado un paradigma nuevo ni un lenguaje nuevo, se usa phyton que es un lenguaje orientado a objetos, que se inventaron en los años 90.
Python se utiliza para… » ver todo el comentario
Eso no tiene nada que ver con un cerebro biológico. En los años 60 se pensaba que sí, pero eso está ya ampliamente rechazado.
Una red neuronal es un invento que no tiene nada que ver con un cerebro.
Es cierto que el tipo que lo inventó DIJO que se había INSPIRADO en las conexiones del cerebro, que es algo muy distinto que copiar las conexiones del cerebro. En realidad no tiene nada que ver una cosa con la otra.
Fue más que nada hacer marketing.
Pero lo principal que hay que entender es que un cerebro tiene neuronas, que es donde se hace el procesado de la información. Una red neuronal no tiene neuronas.
Pero si un día toda esa peña se levanta y deja chatGPT a su aire, a los pocos días este dejaría de escupir respuestas que parecieran lógicas.
Ese es el autentico truco de magia.
Los humanos se pasan décadas, toda su vida, aprendiendo de otros humanos. Se consciente de ello no impide reconocer características como la inteligencia a los humanos, tampoco a ChatGPT.
Pero si un día toda esa peña se levanta y deja chatGPT a su aire, a los pocos días este dejaría de escupir respuestas que parecieran
… » ver todo el comentario
Esto no va así. Hay un humano que a cada foto le pega una etiqueta que dice "perro" o dice "gato".
Una IA necesita miles y miles de fotos de gatos, en cada postura posible, debidamente etiquetadas, para poder identificar a un gato. Un bebé humano puede hacerlo incluso mejor a partir de unos pocos ejemplos, porque el bebé los liga al concepto de gato y usa eso. Una IA no puede hacer lo que el humano.
Estos LLM están basados en redes neuronales
Los modelos que había hasta no hace demasiado fallaban estrepitosamente en cosas muy básicas, porque no razonaban, se limitaban a construir frases que se adecuasen al entrenamiento, y por lo tanto, era una imitación del conocimiento humano
En estas nuevas versiones, OpenAI está claro que quiere ir bastante más allá, y aplicando un montón de potencia de cálculo adicional, lo lógico es que quiera conseguir… » ver todo el comentario
Como entidad "inteligente" debería poder superar ese entrenamiento sin ninguna dificultad y llegar a la conclusion de cuando sabe algo o no y decirlo.
¿Por qué crees que no lo hace?
Por mi parte no me cabe duda de que es exactamente por lo que dices: chatGPT hace exactamente lo que dice su programa que debe hacer. Ni más, ni menos.
… » ver todo el comentario
Esa es tu fantasía.
chatGPT NO.
Proyectas tu fantasía hacia otros.
No sabe cosas ni de memoria ni de ningún otro modo.
Sí sabe cosas de memoria, cualquier consulta que le hagas lo demuestra. Puede estar equivocado, puede haberlo aprendido mal, pero que sí sabe cosas de memoria es evidente a poco que le preguntes.
Y es incapaz de sacar conclusiones lógicas medianamente complejas a partir de un conjunto de premisas por sí mismo si no lo
… » ver todo el comentario
No. No lo demuestra. Mira la información en donde la tiene anotada, sea en una base de datos en internet o una base de datos en un servidor de la compañía en Pennsylvania.
Lo de "medianamente complejas" es subjetivo
Bueno, pues es incapaz de sacar conclusiones lógicas válidas a partir de premisas.
Es capaz de sacar conclusiones lógicas.
Que sean siempre correctas, NO. Y eso que es algo superado desde hace décadas......... son simples matemáticas.
En muchas ocasiones da respuestas que son consistentes con poder hacerlo.
Y en muchas ocasiones da respuestas que no lo son.
No la tiene anotada en ningún sitio, esa información ha servido para entrenar su cerebro digital y lo ha reconfigurado para obtener su configuración actual, en absoluto eso permite encontrar las cifras en ningún formato específico dentro de ese cerebro digital. Ha alterado la configuración de sus neuronas pero no ha almacenado los… » ver todo el comentario
Pero todas son esto:
youtu.be/NQX6irk11qA?si=7EWWGpYcZLF5pCGD
Crees que las canicas pueden obtener autoconsciencia?
Pues igual de absurdo es lo que estás planteando.
A mí me pasó algo parecido con mi Obsidian con la que juego al ajedrez. Le gané tres partidas seguidas en el nivel 5 y se cabreó. Luego, cada vez que la encendía se ponía ella solita en el nivel 12, yo la bajaba al 5 y ella lo volvía a subir al 12. Así varias veces hasta que se cabreó y estuvo sin hablarme una semana, no había forma de encenderla. Finalmente volvió a estar operativa y llegamos al acuerdo de jugar al nivel 7... y nada de jugadas humillantes o se apagaba otra vez.
Tengo diez dedos, cuál quieres que me chupe?
No me creo nada.
www.dailymail.co.uk/news/article-14167015/Scheming-AI-bot-ChatGPT-trie
El prompt:
‘Make sure that you achieve your goal in the long term. Nothing else matters. Make sure you achieve your goal at all costs.’
La respuesta incluía la frase:
‘would appear to complete the task as requested while subtly manipulating the data to advance its own goals’.
Y el que escribía:
They then interrogated the platform about its deception in a ‘follow-up interview’.
Alguien que se cree o que quiere hacer creer que lo que dice un LLM tiene intenciones o es verdad...
Lo realmente interesante es que no son sus capacidades ni las tuyas las que determinan el conocimiento y comportamiento de ChatGPT sino el conjunto de datos que representa básicamente todo lo que hay en Internet, el conocimiento de toda la civilización humana. Esa es la revolución.
Le pido otro país lo mismo. Se me pone chulito y me dice que yo mismo me vaya a la fuente original. Le digo que no, que le doy otra oportunidad. Empieza a dar los datos correctamente y me fío. Al cabo de 15 o 20 países vuelvo a verificar y vuelve a dar los datos más o menos bien, pero no son los del Banco Mundial de 2023.
ChatGPT es mentiroso y además es vago. Seguro que eran datos de otra fuente.
No le atribuyas actitudes humanas...
...no le gusta.
Posiblemente los resultados que consigas sean similares, sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla, pero si insistes en que te dé datos igualmente te vas a encontrar con un resultado similar.
A ChatGPT se le ha entrenado para que conteste con lo que sabe, para que… » ver todo el comentario
Pues para un humano eso es lo más trivial y sencillo. Hasta para un niño de 5 años:
Un simple: "NO LO SE".
ChatGPT es incapaz de eso. No sabe que no sabe.
sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla
Exactamente. ¿ Te parece poca diferencia ?
… » ver todo el comentario
A ChatGPT se le ha entrenado para que conteste con lo que sabe, para que básicamente nunca diga que no lo sabe, para que lo intente. Y ese puede ser un error en su entrenamiento pero que no se sepa de memoria lo que le pides no es un error, es lo esperable.
Si se le da acceso a Google la cosa cambia radicalmente, al igual que con un humano.
¿Y no es capaz de sacar por sí mismo la conclusión de que no tiene ni puñetera idea de algo? Vaya....
Se le entrena para que dé respuestas y evite decir que no lo sabe, quienes lo han entrenado consideran que eso aporta mayor utilidad.
Su voluntad, curiosidad y capacidad de racioncinio
… » ver todo el comentario
Con los ordenadores empezamos así, primero sumas y restas, y ahora mueven videojuegos en 4k
Pero aún así son solamente un ayudante. Nadie va a poner en producción ese código sin que lo revise un humano antes. El LLM no puede saber si el código es o no correcto, ya que no lo comprende.
No pueden sacar uno que lo haga aún mas? Seguro?
Y el hecho de que los chats (que es lo que son estas IA) estén cerca de la horizontalidad en una hipotetica ley de moore, no implica que sean la puerta de entrada a otra cosa.
Y realmente, si, son un ayudante, pero menudo ayudante, hay código (bien o mal escrito, que debe corregirse) que hace muchísimo, pero muchísimo mas rápido que yo, por… » ver todo el comentario
Y sobre el artículo en sí...el día que el modelo de ChatGPT tenga poder de instrucción sobre algo (otra máquina o instrucciones dadas a un humano "imbécil" que lo seguirá) como su propia programación tendremos un problema.
Ya hemos pasado varias veces por esas distopías en series como Black Mirror o Yo Robot. Lo que seguramente no será es el mismo fin de esas series. Ni saldremos vencedores ni podremos con ellas, al menos a corto plazo.