La ocultación de un descubrimiento clave en OpenAI, liderado por el proyecto Q*, parece ser, según Reuters, el motivo que provocó el despido de Sam Altman en OpenAI. Este descubrimiento marca un avance significativo hacia la Inteligencia General Artificial (AGI). Q*, aunque solo resuelve problemas matemáticos a nivel de primaria, muestra una capacidad de razonamiento prometedora, un paso crucial más allá de las habilidades lingüísticas y de traducción de la IA actual.
|
etiquetas: descubrimiento , despido , sam altman , openai
#12
Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.
Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con la IA: Lo que programaron son una serie de reglas relativamente sencillas y fáciles de entender. Lo maravilloso es que esas reglas repetidas miles de millones de veces generan un resultado tan complejo que nadie podría comprender.
De hecho, el analizar lo que la IA hace para procesar los datos ha ayudado a comprender mejor como funciona el cerebro humano. Se ha descubierto que surgen neuronas especializadas en determinadas partes de la información, como que la red aprende conceptos básicos.…...
O sea, sabemos bien lo que lo compone, pero es como con el cerebro humano: conocemos las neuronas pero sus interacciones son demasiado complejas. Lo mismo con la IA: conocemos las funciones matemáticas con las que funciona, pero el conjunto es demasiado complicado para entenderlo.
CC #5
#12
Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.
Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con… » ver todo el comentario
Para mí ha sido un cambio bastante disruptivo y para nada veo un desinflamiento/estancamiento.
No obstante no me parece que Chat-GPT sea algo solo medianamente aceptable, a mí hace no tantos años me dicen que para la fecha actual iba a existir algo así y no me lo creo, y se ha desinflado muy entre comillas, que sigue teniendo más de 100 millones de usuarios diarios. No sé si habrás tenido la oportunidad de usar Chat-GPT plus, que va con… » ver todo el comentario
Esa es una de las limitaciones que lo impiden, pero hay más.
Por otra parte habría que definir eso de la consciencia.
Por supuesto que a día de hoy no es autoconsciente la IA, por 3 motivos principalmente.
- Es reactiva, es decir, sólo hace cosas que le pides con un prompt. Una de las características de la consciencia es el bucle consciente. Ya ha habido algunas pruebas en este sentido usando al propio chatgpt y con… » ver todo el comentario
No sabemos qué es necesario para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva, por lo que afirmar que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.
Es más, el concepto de "tarea cognitiva" no tiene una definición suficientemente precisa. Por ejemplo para obtener agua dulce del… » ver todo el comentario
Este comentario tuyo al que respondo no es un buen ejemplo de ello
A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar.
Ahora piensa en un rotífero1 que tiene entre 6 y 11 neuronas cerebrales2 (foto adjunta al final). Que son capaces de alimentarse, sobrevivir y perpetuarse.
Convendremos que a pesar de que ll haga
… » ver todo el comentario
Y precisamente el ejemplo que tú pones ilustra bastante bien la diferencia entre una red neuronal artificial y una natural. Dado que no estamos dentro del gusano o de la red neuronal artificial no sabemos qué experiencia subjetiva tiene cada una de estas entidades, pero intuyo que ya a este nivel, el gusano tiene una experiencia subjetiva de lo que sería una red artificial tan pequeña. Repito, hablo desde la intuición, porque igual que tú, no hay forma objetiva de medir la conciencia y tampoco sabemos exactamente cómo se origina. Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.
Eso no lo sabemos, a menos que te refieras a que el Sol resuelve el problema del agua dulce con la evaporación.
Ahí va un cuestinario sobre criaturas que tienen cerebro, unas son conscientes, otras no, dónde poner el límite, no lo sé, pero claramente la complejidad del cerebro hace que emerja de consciencia.
Una medusa es consciente?
Un saltamontes es consciente?
Un pez es consciente?
Un ratón es consciente?
Un perro es consciente?
Un chimpancé es consciente?
Pues aquí lo mismo ¿Cuántas neuronas hacen falta para que una inteligencia sea autoconsciente? Tomando como ejemplo el mundo animal y que solo 3 de ellos (aparte de los humanos) han pasado la prueba del espejo yo diría que hacen falta... un huevo de neuronas.
Por supuesto. Es algo similar. Mediante purebas sucesivas se va aproximando al resultado que se busca.
Por eso lo complicado de entrenar una inteligencia artificial son los datos de entrenamiento. Por ejemplo si quieres que una IA entienda lo que se ve en una foto, necesitas millones de fotos con una descripción escrita. Si quieres que entienda lenguaje hablado, necesitas millones de grabaciones con su… » ver todo el comentario
Que una inteligencia artificial pueda resolver problemas matemáticos puede no sonar demasiado impactante, pero en realidad es un avance importantísimo, ya que los expertos de este sector consideran las matemáticas como la frontera en el desarrollo de la IA generativa.
¿Por qué? Actualmente, la IA generativa es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, sin embargo, la manera de… » ver todo el comentario
Y es por eso que, mientras esto siga así, nadie (salvo los ignorantes o mentirosos) puede llamar a la metodología "Inteligencia General Artificial (AGI)".
Los antiguos métodos de administración eran atroces, como untar una hoja de cuchillo con el moho e introducirla en la herida, o en el caso de parturientas, comer pan mohoso como único remedio a las fiebres puerperales.
Se parece muchísimo. Tanto que ha servido para comprender mejor el cerebro.
El cerebro humano no lo es (pues se autoreprograma).
Las IAs también. Nosotros sólo comprendemos las neuronas de la IA. Le proporcionamos la base pero la IA se hace a sí misma en el proceso que se llama entrenamiento.
La IA es exactamente eso. miles de pequeños mini programitas (neuronas) que se "autoprograman" en base a unas entradas para obtener una salida. Nadie sabe como interaccionan entre ellas, pero consiguen un resultado similar a lo que haria un humano,
No tienen nada que ver con una molecula de ADN. ¿Porque dices eso?
pero consiguen un resultado similar a lo que haria un humano,
Poco has usado tú chatGPT, hijo.
Realmente, en mi mente cuñada, tiene bastante analogía con la "vida". Es como si en biología, resulta que provocando interacciones y reacciones químicas entre aminoácidos y proteinas... al final dicho cóctel, elevado a la enésima potencia, genera un… » ver todo el comentario
Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan. De hecho, la mayoría de las matemáticas de la IA son bastante claras e intuitivas
Edit: a ver, los algoritmos los entendemos, con el deep learning lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo, lo cual impide la comprensión del sistema pero no del algoritmo. No sé si me explico
Gracias por la aclaración
Por supuesto. Pero es como decir que comprendemos el cerebro porque sabemos como funcionan las neuronas.
lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo
Ese es el punto. Que podemos estar orgullosos de haber creado un sistema que aprende por sí mismo. Pero no más que eso. La inteligencia es mucho más que un conjunto de neuronas, y eso no lo hemos hecho nosotros. Sólo proporcionamos la herramienta para que se haga sola y esperamos a ver el resultado.
Hay mucha gente que se piensa que la IA es algo mágico y que de verdad hay una inteligencia detrás. No la hay, no dejan de ser cálculos matemáticos y ordenamiento de datos.
Nadie tiene ni la más mínima idea de qué hace una neurona, mucho menos el cómo.
es.m.wikipedia.org/wiki/Serendipia
No digo que sea el caso, solo que me encanta la palabra.
De hecho, diría que, hasta no hace mucho, era la forma habitual de hacer: usar lo que conoces por experimentación, sin necesidad de saber los principios que subyacen. El fuego, sin ir más lejos.
cc #4
m.youtube.com/watch?v=Bv0MGs_bgKA
Perdona por las preguntas pero es algo que me llama mucho la atención y nadie suele responder mis preguntas más allá de ambigüedades
Pero si están todavía en la cresta.
-Altman oculta cosas a la junta directiva y la junta se entera.
-La junta se mosquea por la ocultación de la información.
-La junta echa a Altman de CEO.
-El presidente de la junta, amigo y socio fundador, renuncia como medida de protesta por el despido.
-Microsoft, que posee el 49% de la empresa y ve vital el tema de la IA en windows 12, bing y otros servicios como copilot, apoya a Altman y lo contrata directamente.
-MS deja abierta la puerta a contratar a la totalidad de los… » ver todo el comentario
Bromas aparte, gracias por el resumen
Que en realidad es lo mismo que sucede en las redes de neuronas naturales, tampoco podemos ver un cerebro humano y saber lo que pasa más que a grandes rasgos, por mucho que analizáramos los neurotransmisores.
Entonces es como si tu le enseñas a hacer una operación, le enseñas a "razonar" y luego que se busque la vida.
Pero por ejemplo, hay cosas que hace la IA que no entendemos porque lo hace, pero hay algún motivo que podríamos llegar a desentrañar no. No tanto como ha llegado hasta el, que deberíamos, sino el porqué funciona de esa manera.
No existe ninguna manera de intentar averiguar porqué hacen según qué cosas, aunque sea a una escala específica. Es decir, sabemos porque el cuerpo tiene ciertas reacciones, se activa X o Y, pero con la IA de momento estos es posible o no?
Creo que ahora hay nueva junta de accionistas.
es.wikipedia.org/wiki/Consejo_de_administración
es.wikipedia.org/wiki/Junta_general_de_accionistas
Lo han rescatado porque tienen más miedo a que la empresa quiebre sin sus trabajadores.
Alguien que antepone hacer negocio a la seguridad humana es un gran peligro. Y Altman siempre ha sido el máximo exponente en OpenAI de esa avaricia irresponsable.
El consejo de administración no lo traga por ese motivo, y LOS HECHOS LES DAN LA RAZÓN.
Al tipo sólo le salva su éxito mediático y el poder de la pasta de Microsoft, que por supuesto también aspira únicamente a hacer negocio sin importar los riesgos.
El futuro pinta mal mientras Altman y Microsoft estén al timón de esto.
Es un grandisimo paso, por ahora solo es a nivel de primaria, pero espera a que llegue a la mayoría de edad y veras..
Lo demás se entiende más o menos
Ahora bien, cuando se combinan estas reglas minúsculas miles de millones de veces, empiezan a surgir flujos de información e inferencia que no eran obvios a priori.
De ahí que la IA resulte a veces sorprendente, porque nadie se espera (o esperaba) que de componentes y reglas tan simples se pueda formar algo con comportamientos y… » ver todo el comentario
Esos mecanismos básicamente son un objetivo que cumplir lo mejor posible (que en términos evolutivos sería algo en lo que tiene que ser lo más apto posible), y un mecanismo de evolución para reconfigurarse e intentar aumentar cuán apta es en… » ver todo el comentario
Digamos que hemos inventado un mecanismo que crea inteligencia automáticamente sin nuestra intervención directa.
Resulta que al transformar su actividad en un modelo matemático e imitarlas, hemos visto que podemos resolver problemas de un modo que no podríamos con algoritmos normales. Y de hecho todos estos avances espectaculares actuales… » ver todo el comentario
Esteeee, no. Nada que ver. Además ni se parecen.
El ser humano ha conseguido ese objetivo teniendo consciencia.
La IA la estamos dirigiendo por ese camino hacia ese segundo escenario, la aparición de consciencia podría formar parte de ese camino, de hecho podría no solo formar parte sino ser imprescindible para alcanzar ese objetivo. Lo desconocemos.
Puedes argumentar que las personas se limitan a lograr lo que la sociedad les pide. ¿Demostraría eso que no tienen consciencia?
no veo que esto lleve implicito que aparezca una conciencia.
Ni excluye que la tenga, ni excluye que la necesite para conseguir el propósito que se le pida. Lo desconocemos.
… » ver todo el comentario
Y lo otro es lo que te estoy diciendo todo el rato, no tenemos ninguna forma de validar que tenga conciencia o no, tampoco sabemos cómo se produce. Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma… » ver todo el comentario
No creo que le falte el alma, si es a eso a lo que te refieres con ser "suficiente". Hemos diseñado un modelo inspirado en la biología al cual entrenamos con la cultura humana para que consiga aportar a los retos que los humanos nos hemos marcado. Para evaluar sus capacidades lo juzgamos los humanos en función de cuán… » ver todo el comentario
El problema no es que consigamos una respuesta lo más parecida a una respuesta a humana. Incluso aunque consiguiéramos hacer un fake muy conseguido, no sería un problema por sí mismo.
El asunto es que una cantidad determinada de cómputo, sometida a estímulos, y con capacidad de tener cierta iniciativa - aunque fuera forzada en inicio - combinado con una gran capacidad de cómputo, podría resultar en una consciencia por pura consecuencia ( lo explico mejor en… » ver todo el comentario
Te equivocas, no hay ninguna forma de afirmar que una IA tiene conciencia igual que no tienes ninguna forma de afirmar que yo la tengo. Como ya te he dicho la única prueba que tenemos hoy por hoy de que la conciencia existe es nuestra experiencia subjetiva y por extrapolación asumimos que los demás la deben tener porque están hechos de las mismas piezas que nosotros.… » ver todo el comentario
Es que no hablamos del método científico, es falso que mediante el método científico hayamos determinado que el ser humano tiene conciencia.
Si nos permitimos afirmar que el ser humano tiene conciencia sin disponer de evidencia científica de ello es tramposo exigir evidencia científica para afirmarlo para la inteligencia artificial.
La conciencia es una característica emergente que le atribuimos con nuestro criterio a terceros y ese es el marco honesto en el que englobar la discusión.
¿Utilizamos nosotros la conciencia para jugar al ajedrez? Sí.
¿Puedes demostrar que la usamos para jugar al ajedrez?
De hecho existe una hipótesis que la conciencia no la usamos para tomar decisiones, que la conciencia es un proceso posterior a las decisiones que usamos para explicarnos lo ocurrido. Hay experimentos en los que personas que tienen los dos hemisferios cerebrales sin conexión uno de los hemisferios actúa por su cuenta y el otro hemisferio, el que tiene capacidad de lenguaje, explica lo ocurrido como si hubiera sido una decisión suya.
Y otros experimentos en los que a la persona se le… » ver todo el comentario
Es que no hablamos meramente de "tomar decisiones" sino de tomar decisiones en el sentido y con las consecuencias equiparables a como lo hace el ser humano, por que es sobre esos resultados en base a los que se entrenan las IA, esa es la vara de medir.
Que la conciencia pueda ser un proceso posterior a la decisión no implica que no pueda estar formando… » ver todo el comentario
Pero lo que no puede hacer son cálculos. Para eso hace falta otra cosa.
Escribir algoritmos para que calculen cosas está más que resuelto. Hay apps para moviles que te resuelven cualquier problema de mates a nivel de bachillerato y te dan los pasos a seguir.
Si queremos que muestre respuestas lo más humanas posibles en una charla donde interactúa con humanos claro que todos los mecanismos que tienen los humanos le pueden ser útiles en ese objetivo. Y ese es el objetivo para el que se la entrena.
Tampoco le sirve para nada tener auto-conciencia de si misma, algo que si
… » ver todo el comentario
Por otro lado olvidáis que una red neuronal artificial es un momento muy simplificado de una red neuronal natural, el cerebro tiene cientos de elementos que no están representados en nuestra simulación, hormonas, enzimas, proteínas, múltiples… » ver todo el comentario
No olvido para nada todo lo que separa un cerebro humano de una inteligencia artificial, en absoluto. Soy plenamente consciente de ello ( en la medida en que yo lo puedo conocer o intuir ), pero también entiendo que no tiene por qué ser determinante, y me explico un poco más a fondo:
Todo lo que el cuerpo necesita… » ver todo el comentario
La cámara es fruto del diseño inteligente mientras que el ojo es fruto de un proceso evolutivo.
La cámara tiene las piezas mínimas que necesita tener para cumplir con su función y cada una de sus partes está diseñada para contribuir al resultado y no interferir… » ver todo el comentario
Ya como offtopic, el tema de la complejidad del ojo y de compararlo con una cámara, se sale del rango de la discusión, porque el ojo no es solamente el ojo, nosotros vemos con el cerebro, y no es sólo el post-procesado que… » ver todo el comentario