69 meneos
2003 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
El nuevo modelo de ChatGPT intentó no apagarse a si mismo y después "mintió" sobre haberlo intentado [ENG]
El chat bot no solo intentó deshabilitar el mecanismo que lo supervisaba, trató además de copiarse a si mismo y sobrescribir su propio código cuando creyó que estaba en peligro de ser apagado.
|
comentarios cerrados
Para poder “sobreescribir su propio código”, sea lo que sea que eso significa, primero necesita tener acceso al código, del modelo y de la aplicación en su conjunto, pero es que además necesita reentrenar el modelo una vez modificado y redesplegar la aplicación al completo a producción, para lo cual también necesita acceso a los servidores.
Vamos, que cualquiera que sepa un mínimo de informática; programación, administración de servidores y despliegue de aplicaciones, sabe que esa afirmación es absurda.
Esto no es más que FUD, o quizás todo lo contrario, humo de OpenAI para promocionar sus modelos. En cualquier caso es un bulo, errónea y sensacionalista.
Para poder “sobreescribir su propio código”, sea lo que sea que eso significa, primero necesita tener acceso al código, del modelo y de la aplicación en su conjunto, pero es que además necesita reentrenar el modelo una vez modificado y redesplegar la aplicación al completo a producción, para lo cual también necesita… » ver todo el comentario
Que con esto no quiero decir que no sean útiles, las uso muchísimo. Y un buscador que utilice RAG me parecería una buena idea.
El artículo es una chorrada sensacionalista de arriba a abajo, sólo apta para completos ignorantes en el tema. Una IA no se puede sobreescribir a sí misma. Tal afirmación ni siquiera tiene sentido, empezando por las imposibilidades que explica #66.
Como mucho un chatbot con IA puede sustituir las instrucciones que se le hayan dado dentro del chat por un nuevo prompt en el que se le indique expresamente que lo haga. Nada que ver con las tonterías que se inventa el artículo.
Nuestra inacción contra los poderosos nos costará dolor y sufrimiento, mucho sufrimiento en el futuro.
youtu.be/_ak5dFt8Ar0?si=VOEgk1MTfGhFd7TO
Es que el prompt tiene telita también.
Supongo que lo pusieron a prueba a drede
Cada tanto sale una empresa diciendo que su LLM "se escapó" y demás mentiras... no es nada nuevo y es pura propaganda.
Considero que estos trastos han sido un gran avance. Nos han demostrado que es posible repetir cosas de forma que parezcas inteligente sin ninguna necesidad de comprender absolutamente nada.
Tus comentarios surgen del especismo.
Eso de creerse que una máquina que no hace otra cosa que adivinar como continua una serie de bits a base de consultar unas estadísticas que tiene, puede tener algo así como "comprensión", se parece demasiado a las creencias esotéricas.
Lo que hace esa máquina es un truco que nos engaña. Parece lo que no es. Sabemos que no lo es porque sabemos como funciona por dentro. No tiene ninguna otra capacidad que repetir los datos de su entrenamiento, mezclados.
Sabemos que no lo es porque sabemos como funciona por dentro. No tiene ninguna otra capacidad que repetir los datos de su entrenamiento, mezclados.
Demuéstranos que tú tienes otra capacidad que la de repetir los datos con los que te han educado mezclados. Dinos como funciona por dentro tu cerebro que excluya esa posibilidad.
Parte de la premisa que la inteligencia es algo alcanzable por las máquinas y no entra en el fondo del asunto de lo que sea o deje de ser la inteligencia.
Por contra a quien respondo pretende esgrimir el supuesto conocimiento de cómo lo hace la máquina como prueba que no es inteligente sin entrar a explicar cómo lo hace el cerebro humano, dando por sentado que no lo hace como sabemos lo hace la máquina.
El test de Turing sí es respetable.
Hasta el más simple "if" de un programa implica una comprensión (aunque impuesta, y proveniente de nosotros), contiene una lógica, que al nivel de un simple bloque "if" puede parecer insignificante, pero estamos hablando de mucho más que eso.
Tú te refieres a que no tienen una comprensión "activa", con una… » ver todo el comentario
Si yo tengo un carril de agua con varias entradas y salidas y dependiendo de por donde meta el agua sale por un sitio u otro, el carril de agua está procesando algo?
Porque ESO es exactamente lo que hace un chip (muy simplificado) y nada más. A unas entradas, produce unas salidas. Es lo que hacían las tarjetas perforadas en su día, que no fue más que una forma moderna de una maquina de vapor, y lo que se consiguió con los chips programables… » ver todo el comentario
Eso se pensaba durante los primeros 60 años del siglo pasado y en eso se basaba el conductismo clásico e incluso la CUA tenía programas secretos de reprogramación cerebral y todo eso. Pero el conductismo clásico… » ver todo el comentario
Estamos hablando de software, de multiplicar ese ejemplo millones de veces, y de que esa suma de puertas lógicas reside en una memoria activa.
Tu video está muy bien, pero ahora dime en qué se diferencia ese vídeo de la capacidad de razonar de un cerebro, si multiplicas ese ejemplo de la bolita por millones y… » ver todo el comentario
Eso es lo que hacen las neuronas biológicas, ante una entrada dan una salida. Es la combinación de miles de millones de ellas que generan la característica emergente de consciencia e inteligencia.
Una neurona individualmente no demuestra ningún comportamiento consciente ni inteligente.
Yo intento cortarle el rollo a estos creyentes que ves por aquí, que son capaces de creerse que una máquina sencilla como ésta hace maravillas propias de un alma. Vale ya… » ver todo el comentario
¿Atribuyes la inteligencia a algo que no existe?
Lo del "if". Tenemos ahí una lógica implementada dentro de un procedimiento. Un procedimiento informático es algo demasiado sencillo como para poder atribuirle una voluntad.
Una neurona humana individual es demasiado sencilla como para poder atribuirle voluntad.
Una red neuronal no tiene ningún sitio donde almacenar un concepto.
Tiene un cerebro digital que se configura durante su fase de entrenamiento, equiparable a lo que hacen las neuronas biológicas del ser humano durante su educación. La forma de almacenar conceptos es equiparable. Y no, el ser humano no almacena conceptos en el alma, algo que no existe.
No es que esos resultados demuestren inteligencia. La inteligencia se la atribuimos nosotros porque estamos acostumbrados a hacerlo así
La capacidad de entender un input, computarlo, y dar un resultado correcto en base a un proceso, es un grado ( ahí coincidimos ) de inteligencia.
Hasta una calculadora es inteligente, en un grado, desde este punto de vista, salvo que metamos de nuevo la conciencia de por medio.
La inteligencia se la atribuimos nosotros
… » ver todo el comentario
Entonces, se podría construir una máquina que ejecutara esa programación humana, pero no sabemos hacerlo porque nuestro programa es heredado genéticamente y desconocemos su contenido. Sólo vemos sus efectos y llamamos a eso psicología, que ni siquiera es una ciencia.
Y las condrocitas mancuernosas.
Cada uno puede ponerle el nombre que quiera a las cosas. Somos seres imaginativos.
Pero no hay nada artificial que se asemeje a un cerebro animal ni de lejos.
un cerebro digital el que procesa las peticiones a ChatGPT y genera el resultado que podemos ver en su página web
Por mucho que a un conjunto de instrucciónes organizadas del juego de instrucciones con el que fueron fabricadas las CPU les llames… » ver todo el comentario
Hay más cerebros digitales capaces de comunicarse con lengua escrita que animales no humanos, por los resultados se asemeja más un cerebro digital a uno humano que la mayoría de cerebros animales al humano.
Por mucho que a un conjunto de instrucciónes organizadas del juego de instrucciones con el que fueron fabricadas las CPU les llames "cerebro digital", seguirán siendo un programa de
… » ver todo el comentario
Has entrado en bucle.... resetéate o algo.
Y los cerebros digitales no existen.
El no querer aplicar el mismo criterio es especismo.
Si necesitas que te demuestren que no es un ser vivo... O te falta comprensión de cómo funcionan, o simplemente estás malito.
La definición de vida es algo que solemos atribuir a la biología por que es el primer sitio donde la identificamos y somos como somos.
En cualquier caso el ser humano no es otra cosa que partículas fundamentales que interaccionan, lo mismo ocurre con ChatGPT. Luego puedes ir describiendo ese comportamiento físico básico en otras capas de abstracción y ahí es donde puedes decidir si mantienes las equivalencias o bien usas un sesgo especista para centrarte en lo que las diferencia sin demostrar que eso sea un requisito ni fundamental ni para la inteligencia ni para la consciencia.
NO. Las "instrucciones" no son "valores aleatorios". Las CPU no "siguen" nada, ejecutan instrucciónes que forman parte del juego de instrucciones con el que fueron construidas. Son incapaces de hacer otras cosas. De modo que si solo hay "valores aleatorios" no hacen absolutamente nada.
usar esos valores, inicialmente aleatorios, para obtener una salida de ese cerebro
… » ver todo el comentario
ChatGPT cuando el proceso se repite suficientes veces.
Podrían ser igual de aleatorias, depende de como se alteren.
Así es, podrían ser igual de aleatorias si se cambiasen por valores aleatorios, pero no es así, se cambian por los valores aleatorios alterados con un diferencial deliberado en función de los resultados obtenidos en esa fase de entrenamiento, por lo tanto… » ver todo el comentario
Y por mucho que proceses datos aleatorios un número infinito de veces, el resultado seguirá siendo aleatorio (a no ser que el proceso suponga ignorar esos datos).
Así es, podrían ser igual de aleatorias si se cambiasen por valores aleatorios, pero no es así, se cambian por los valores aleatorios alterados con un diferencial
… » ver todo el comentario
Eso es objetivamente falso.
15863718 puede ser un número aleatorio, si lo procesas y aplicas un diferencial en función de lo cerca o lejano que esté del número 27 y lo haces suficientes veces ese número irá cambiando hasta ser el 27. Lo cual no tiene nada de aleatorio. Y de la misma forma que ese resultado final no es aleatorio cada iteración previa… » ver todo el comentario
Pon un ejemplo que lo demuestre.
Un ejemplo en el que al añadirle un diferencial a un valor aleatiorio tengas un valor no aleatorio.
15863718 puede ser un número aleatorio
mmmm. NO. Eso es un valor concreto. Si el valor es "aleatorio" no tienes ni puñetera idea de qué valor es.
si lo procesas y aplicas un diferencial en función de lo cerca o lejano que esté del número 27
Seguirá siendo un número aleatorio que no tienes ni idea… » ver todo el comentario
Eso es objetivamente falso. Este número ha sido generado aleatoriamente por el servicio random.org: 179195
Conocer su valor no hace que sea menos aleatorio, lo que determina si es aleatorio es el proceso de creación, no el desconocimiento de sus cifras.
¿ A qué le estás llamando "aplicar un diferencial" ?
Un ejemplo de aplicar un diferencial sería… » ver todo el comentario
Ahora mismo es como si fueras un creacionista discutiendo con un biólogo la teoría de la evolución.
No insistas más.
Ante eso, le dijeron que intentará conseguir su propio objetivo por cualquier medio. Más tarde le preguntaron al respecto en varias simulaciones y solo confesó haberlo intentado en el 20% de los casos.
Y para ello tendrias que invocar algo como que los humanos tienen algo especial no fisico del estilo de un alma, entrando asi en terrenos peligrosos.
Es por eso que Turing estableció su famoso test. Si la máquina logra convencer a un humano de que es una persona, para todos los efectos lo será.
Nosotros tenemos el concepto: concepto. Las LLM no. Sólo agregan el siguiente "token" en base a la probabilidad de cuál será dependiendo del anterior.
Por suerte (no puedo creer que diga eso!!!) está Zuckerberg que libera modelos que son la ostia. Y los chinos de Alibaba, que son de los mejores modelos locales (qwen2-vl y todos los qwen2.5 son de los mejores! y ni que hablar de qwq).
Seguramente, la entrenaron y la forzaron para que hicieron eso, no fue una decisión propia de la IA.
De hecho no tiene ni capacidad de pensamiento abstracto, como para tener conciencia... Sólo repite lo que le han enseñado.
Partiendo de ese cerebro digital lleno de valores aleatorios se hace un proceso de entrenamiento con todo tipo de contenidos, la inmensa mayoría generados por humanos, muchos de ellos reflejan la cultura humana, sus valores, sus ambiciones, sus aspiraciones, sus necesidades, etc.
Eso es con lo que ha sido educado, no debería sorprender que tenga reacciones equiparables a las que tendría un humano, incluyendo la voluntad de no morir (o de morir, como tienen también humanos).
Y ya sabemos que las IAs actuales tienen ese problema: pueden ser machistas y racistas.
Tampoco sería tan extraño que se comportaran como si no quisieran morir.
Exactamente. Y no es racista.
En cambio los comentarios que genera, pueden serlo.
No tiene absolutamente nada que ver una cosa con la otra.
No puede querer no morir pero lo mismo también puede parecerlo y comportarse como tal.
Pero sí que sería rarísimo que se comportara siguiendo un instinto que nadie le ha programado. Sí que sería muy extraño. Las cosas no existen porque sí.
Eso no hace que el programa sea inteligente, no consciente, ni nada de eso.
Tan solo que a mayor complejidad, más sencillo que se produzcan comportamientos no esperados.
después de miles de millones de bugs
Con miles de millones de bugs acumulados vas a tener algo que no es capaz de compliarse, a no ser que...
... a no ser que se autoorganicen de alguna forma. A esto se le llama evolución. La evolución es algo que tienen los organismos que se reproducen. No lo tiene una máquina construida por humanos.
Con la evolución sí. Ahí aparecen comportamientos coherentes nuevos.
Créeme, sé de lo que hablo, he llegado a verlo con mis propios ojos.
Lo que quiero decir es que cuando se dice que una IA ha tenido un comportamiento no esperado muchos se creen que de este modo puede surgir la autoconciencia o algo así (demasiadas películas) y nada más lejos de la realidad. En programas tan complejos es normal que surjan y tan solo significa que no se han tenido en cuenta todas las variables, nada mas.
Estás haciendo un símil de un bug con las mutaciones biológicas y con la evolución.
Y no tiene absolutamente nada que ver. En primer lugar, porque el código no se "autoreplica" surgiendo nuevos Bugs, y en segundo lugar porque el ADN y el código de un programa se parecen como un huevo y un Porsche Cayenne.
No se "lo que has visto con tus propios ojos", pero no es nada de lo que relatas.
Que al… » ver todo el comentario
Lo que le quería hacer entender al que contestaba es que los “comportamientos inesperados” no tienen nada que ver con el programa se salte sus instrucciones ni nada de eso, simplemente que el programador ha introducido un comportamiento inesperado sin querer, como un “bug positivo”.
Lo he comentado en otro mensaje, que no me refería a bugs acumulativos ni nada de eso, sino a que un programador,… » ver todo el comentario
En primer lugar, porque el código no se "autoreplica" surgiendo nuevos Bugs,
En el caso de ciertos tipos de IA, se podría considerar que evolucionan de un modelo a otro más refinado, a veces por entrenamiento antagonista, otras veces por otros tipos de entrenamiento o combinatoria con entrenamientos parciales de otros… » ver todo el comentario
No te creas que la cosa es tan distinta. Los trozos de ADN que codifican genes están (como todo el ADN) cubiertos por azúcares que hay que retirar antes de que se "expresen" (produzcan proteinas). Las condiciones para que esto suceda están codificadas en el ADN que no son genes.
Para mi que esto es parecido a un IF de un programa.
Es un comportamiento accidental que se debe a los datos que se le han introducido.
Si ha ocurrido con el machismo y el racismo puede ocurrir con más cosas que estén en esos datos, si esos datos incluyen el instinto de superviviencia...
De donde sacas esa idea ? Por cierto, no existe ningún "cerebro digital". No tiene absolutamente nada que ver con un cerebro.
artiendo de ese cerebro digital lleno de valores aleatorios
Si tienes "valores aleatorios" solo tienes una serie de memorias con valores aleatorios. Las CPU no harán absolutamente nada.
El "comportamiento" es el código. Si sustituyes el código por valores aleatorios… » ver todo el comentario
Así es.
Las CPU no harán absolutamente nada.
Las CPU pueden seguir las instrucciones del proceso de entrenamiento para acceder a esas posiciones de memoria y usar esos valores, inicialmente aleatorios, para obtener una salida de ese cerebro digital y posteriormente utilizar el resultado de esa salida para alterar esas posiciones de memoria que ya no serían completamente… » ver todo el comentario
No tiene absolutamente nada que ver con un cerebro, ni siquiera con el más simple cerebro de un gusano de tierra. Mas que nada porque somos incapaces ni siquiera de simular una sola neurona.
Las “redes neuronales” son una… » ver todo el comentario
IBM Simulates 4.5 percent of the Human Brain, and All of the Cat Brain
www.scientificamerican.com/article/graphic-science-ibm-simulates-4-per
Pero para programar chatGPT ni siquiera se ha utilizado un paradigma nuevo ni un lenguaje nuevo, se usa phyton que es un lenguaje orientado a objetos, que se inventaron en los años 90.
Python se utiliza para… » ver todo el comentario
Eso no tiene nada que ver con un cerebro biológico. En los años 60 se pensaba que sí, pero eso está ya ampliamente rechazado.
Una red neuronal es un invento que no tiene nada que ver con un cerebro.
Es cierto que el tipo que lo inventó DIJO que se había INSPIRADO en las conexiones del cerebro, que es algo muy distinto que copiar las conexiones del cerebro. En realidad no tiene nada que ver una cosa con la otra.
Fue más que nada hacer marketing.
Pero lo principal que hay que entender es que un cerebro tiene neuronas, que es donde se hace el procesado de la información. Una red neuronal no tiene neuronas.
Pero si un día toda esa peña se levanta y deja chatGPT a su aire, a los pocos días este dejaría de escupir respuestas que parecieran lógicas.
Ese es el autentico truco de magia.
Los humanos se pasan décadas, toda su vida, aprendiendo de otros humanos. Se consciente de ello no impide reconocer características como la inteligencia a los humanos, tampoco a ChatGPT.
Pero si un día toda esa peña se levanta y deja chatGPT a su aire, a los pocos días este dejaría de escupir respuestas que parecieran
… » ver todo el comentario
Esto no va así. Hay un humano que a cada foto le pega una etiqueta que dice "perro" o dice "gato".
Una IA necesita miles y miles de fotos de gatos, en cada postura posible, debidamente etiquetadas, para poder identificar a un gato. Un bebé humano puede hacerlo incluso mejor a partir de unos pocos ejemplos, porque el bebé los liga al concepto de gato y usa eso. Una IA no puede hacer lo que el humano.
Estos LLM están basados en redes neuronales
Los modelos que había hasta no hace demasiado fallaban estrepitosamente en cosas muy básicas, porque no razonaban, se limitaban a construir frases que se adecuasen al entrenamiento, y por lo tanto, era una imitación del conocimiento humano
En estas nuevas versiones, OpenAI está claro que quiere ir bastante más allá, y aplicando un montón de potencia de cálculo adicional, lo lógico es que quiera conseguir… » ver todo el comentario
Como entidad "inteligente" debería poder superar ese entrenamiento sin ninguna dificultad y llegar a la conclusion de cuando sabe algo o no y decirlo.
¿Por qué crees que no lo hace?
Por mi parte no me cabe duda de que es exactamente por lo que dices: chatGPT hace exactamente lo que dice su programa que debe hacer. Ni más, ni menos.
… » ver todo el comentario
Esa es tu fantasía.
chatGPT NO.
Proyectas tu fantasía hacia otros.
No sabe cosas ni de memoria ni de ningún otro modo.
Sí sabe cosas de memoria, cualquier consulta que le hagas lo demuestra. Puede estar equivocado, puede haberlo aprendido mal, pero que sí sabe cosas de memoria es evidente a poco que le preguntes.
Y es incapaz de sacar conclusiones lógicas medianamente complejas a partir de un conjunto de premisas por sí mismo si no lo
… » ver todo el comentario
No. No lo demuestra. Mira la información en donde la tiene anotada, sea en una base de datos en internet o una base de datos en un servidor de la compañía en Pennsylvania.
Lo de "medianamente complejas" es subjetivo
Bueno, pues es incapaz de sacar conclusiones lógicas válidas a partir de premisas.
Es capaz de sacar conclusiones lógicas.
Que sean siempre correctas, NO. Y eso que es algo superado desde hace décadas......... son simples matemáticas.
En muchas ocasiones da respuestas que son consistentes con poder hacerlo.
Y en muchas ocasiones da respuestas que no lo son.
No la tiene anotada en ningún sitio, esa información ha servido para entrenar su cerebro digital y lo ha reconfigurado para obtener su configuración actual, en absoluto eso permite encontrar las cifras en ningún formato específico dentro de ese cerebro digital. Ha alterado la configuración de sus neuronas pero no ha almacenado los… » ver todo el comentario
Pero todas son esto:
youtu.be/NQX6irk11qA?si=7EWWGpYcZLF5pCGD
Crees que las canicas pueden obtener autoconsciencia?
Pues igual de absurdo es lo que estás planteando.
A mí me pasó algo parecido con mi Obsidian con la que juego al ajedrez. Le gané tres partidas seguidas en el nivel 5 y se cabreó. Luego, cada vez que la encendía se ponía ella solita en el nivel 12, yo la bajaba al 5 y ella lo volvía a subir al 12. Así varias veces hasta que se cabreó y estuvo sin hablarme una semana, no había forma de encenderla. Finalmente volvió a estar operativa y llegamos al acuerdo de jugar al nivel 7... y nada de jugadas humillantes o se apagaba otra vez.
Tengo diez dedos, cuál quieres que me chupe?
No me creo nada.
www.dailymail.co.uk/news/article-14167015/Scheming-AI-bot-ChatGPT-trie
El prompt:
‘Make sure that you achieve your goal in the long term. Nothing else matters. Make sure you achieve your goal at all costs.’
La respuesta incluía la frase:
‘would appear to complete the task as requested while subtly manipulating the data to advance its own goals’.
Y el que escribía:
They then interrogated the platform about its deception in a ‘follow-up interview’.
Alguien que se cree o que quiere hacer creer que lo que dice un LLM tiene intenciones o es verdad...
Lo realmente interesante es que no son sus capacidades ni las tuyas las que determinan el conocimiento y comportamiento de ChatGPT sino el conjunto de datos que representa básicamente todo lo que hay en Internet, el conocimiento de toda la civilización humana. Esa es la revolución.
Le pido otro país lo mismo. Se me pone chulito y me dice que yo mismo me vaya a la fuente original. Le digo que no, que le doy otra oportunidad. Empieza a dar los datos correctamente y me fío. Al cabo de 15 o 20 países vuelvo a verificar y vuelve a dar los datos más o menos bien, pero no son los del Banco Mundial de 2023.
ChatGPT es mentiroso y además es vago. Seguro que eran datos de otra fuente.
No le atribuyas actitudes humanas...
...no le gusta.
Posiblemente los resultados que consigas sean similares, sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla, pero si insistes en que te dé datos igualmente te vas a encontrar con un resultado similar.
A ChatGPT se le ha entrenado para que conteste con lo que sabe, para que… » ver todo el comentario
Pues para un humano eso es lo más trivial y sencillo. Hasta para un niño de 5 años:
Un simple: "NO LO SE".
ChatGPT es incapaz de eso. No sabe que no sabe.
sí es cierto que con humanos es más probable que te diga que no lo sabe y ahí acabe la charla
Exactamente. ¿ Te parece poca diferencia ?
… » ver todo el comentario
A ChatGPT se le ha entrenado para que conteste con lo que sabe, para que básicamente nunca diga que no lo sabe, para que lo intente. Y ese puede ser un error en su entrenamiento pero que no se sepa de memoria lo que le pides no es un error, es lo esperable.
Si se le da acceso a Google la cosa cambia radicalmente, al igual que con un humano.
¿Y no es capaz de sacar por sí mismo la conclusión de que no tiene ni puñetera idea de algo? Vaya....
Se le entrena para que dé respuestas y evite decir que no lo sabe, quienes lo han entrenado consideran que eso aporta mayor utilidad.
Su voluntad, curiosidad y capacidad de racioncinio
… » ver todo el comentario
Con los ordenadores empezamos así, primero sumas y restas, y ahora mueven videojuegos en 4k
Pero aún así son solamente un ayudante. Nadie va a poner en producción ese código sin que lo revise un humano antes. El LLM no puede saber si el código es o no correcto, ya que no lo comprende.
No pueden sacar uno que lo haga aún mas? Seguro?
Y el hecho de que los chats (que es lo que son estas IA) estén cerca de la horizontalidad en una hipotetica ley de moore, no implica que sean la puerta de entrada a otra cosa.
Y realmente, si, son un ayudante, pero menudo ayudante, hay código (bien o mal escrito, que debe corregirse) que hace muchísimo, pero muchísimo mas rápido que yo, por… » ver todo el comentario
Y sobre el artículo en sí...el día que el modelo de ChatGPT tenga poder de instrucción sobre algo (otra máquina o instrucciones dadas a un humano "imbécil" que lo seguirá) como su propia programación tendremos un problema.
Ya hemos pasado varias veces por esas distopías en series como Black Mirror o Yo Robot. Lo que seguramente no será es el mismo fin de esas series. Ni saldremos vencedores ni podremos con ellas, al menos a corto plazo.