edición general
276 meneos
3829 clics
Descubrimiento revolucionario en IA detrás del despido de Sam Altman en OpenAI [EN]

Descubrimiento revolucionario en IA detrás del despido de Sam Altman en OpenAI [EN]

La ocultación de un descubrimiento clave en OpenAI, liderado por el proyecto Q*, parece ser, según Reuters, el motivo que provocó el despido de Sam Altman en OpenAI. Este descubrimiento marca un avance significativo hacia la Inteligencia General Artificial (AGI). Q*, aunque solo resuelve problemas matemáticos a nivel de primaria, muestra una capacidad de razonamiento prometedora, un paso crucial más allá de las habilidades lingüísticas y de traducción de la IA actual.

| etiquetas: descubrimiento , despido , sam altman , openai
Comentarios destacados:                                  
#16 #6 Pero es un mecanismo que hay que programar.
#12
Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.

Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con la IA: Lo que programaron son una serie de reglas relativamente sencillas y fáciles de entender. Lo maravilloso es que esas reglas repetidas miles de millones de veces generan un resultado tan complejo que nadie podría comprender.
De hecho, el analizar lo que la IA hace para procesar los datos ha ayudado a comprender mejor como funciona el cerebro humano. Se ha descubierto que surgen neuronas especializadas en determinadas partes de la información, como que la red aprende conceptos básicos.…...
¿Descubrimiento o invento? A los periodistas les cuesta entender la diferencia.
#2 Sería discutible... Recuerda que en IA lo que se crea es una especie de "lienzo en blanco" y es la propia máquina la que se enseña a sí misma a hacer las cosas. Nosotros solo proporcionamos el mecanismo de aprendizaje pero en realidad no comprendemos cómo funciona por dentro.

O sea, sabemos bien lo que lo compone, pero es como con el cerebro humano: conocemos las neuronas pero sus interacciones son demasiado complejas. Lo mismo con la IA: conocemos las funciones matemáticas con las que funciona, pero el conjunto es demasiado complicado para entenderlo.
#3 Pero es un mecanismo que hay que programar. No te lo encuentras debajo de una piedra, no es una ley natural. Mientras no lo implemente alguien, no existe.

CC #5
#6 Pero es un mecanismo que hay que programar.
#12
Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.

Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con…   » ver todo el comentario
#16 en el caso de chatGPT por ejemplo se tardó dos años de prueba y error hasta conseguir algo medianamente aceptable y tras el furor inicial la cosa se ha desinflado bastante. Que no digo que no tenga mérito, eh? Pero de ahí a estar a un paso de IA autoconscientes como muchos aseguran…
#34 ¿a qué te refieres con que se ha desinflado bastante? La capacidad de razonamiento, síntesis, comprensión lectora, creatividad de GPT-4 fueron un salto increíble con respecto a GPT-3.5. Ahora es capaz de comprender imágenes como input, lo que amplifica sus capacidades aún más. Personalmente la uso todos los días en mi trabajo (soy informático) y en mi vida privada (apenas busco ya en Google).

Para mí ha sido un cambio bastante disruptivo y para nada veo un desinflamiento/estancamiento.
#54 en mi trabajo (soy informático) también ha supuesto un cambio bastante importante, pero se ha desinflado a nivel del publico general (esto lo ha dicho la propia openIA) y no ha tenido el impacto que se esperaba (se hablaba de que iba a sustituir Google y, aunque sea tu caso, no ha sido el de la inmensa mayoría).
#54 Desde el completo desconocimiento, ¿cómo lo usas en tu vida privada? ¿Qué es lo que te aporta que no pueda hacer Google? Todo esto de chatGPT e IAs en general lo veo desde la barrera porque no tengo ni idea de cómo funciona ni cómo sacarle partido a nivel básico.
#34 Chat GPT no puede ser autoconsciente entre otras cosas porque solo responde a un prompt, entre prompts no está viva ni razona, que yo sepa.
No obstante no me parece que Chat-GPT sea algo solo medianamente aceptable, a mí hace no tantos años me dicen que para la fecha actual iba a existir algo así y no me lo creo, y se ha desinflado muy entre comillas, que sigue teniendo más de 100 millones de usuarios diarios. No sé si habrás tenido la oportunidad de usar Chat-GPT plus, que va con…   » ver todo el comentario
#69 pues mira, tienes toda la razón y te voto positivo porque me lo has hecho ver. No he tenido la posibilidad de usar la versión PRO (estamos barajando la posibilidad de pedir a la empresa que lo compre durante un tiempo porque la versión gratuita ha cambiado mi forma de currar por completo), y es verdad que hace nada algo así era impensable y por supuesto que es el software más avanzado e increíble que se haya programado jamás, pero ya. No es ni por asomo autoconsciente y que haya tanta gente que me lo discuta me hace darme cuenta del problema que va a suponer la aparición de robots humanoides. Es un placer leer comentarios tan bien razonados como el tuyo por aquí de vez en cuando ;)
#117 Muchas gracias, si la versión que estáis usando es la 3.5 y le estáis sacando rendimiento, sin duda deberíais pasaros a la de pago, o al menos hacer la prueba a ver que os parece, hay un buen salto, yo pagué la versión plus solo por probar y no vuelvo atrás ni de coña, al menos mientras me siga ayudando con los proyectos que tengo entre manos.
#69 Chat GPT no puede ser autoconsciente entre otras cosas porque solo responde a un prompt

Esa es una de las limitaciones que lo impiden, pero hay más.

Por otra parte habría que definir eso de la consciencia.
#34 Se ha desinflado como se desinflan todas las innovaciones tecnológicas. La gente siempre piensa que es más de lo que es, hasta que de pronto nos damos cuenta y han cambiado los procesos de manera que ni imaginábamos. No sé si serán autoconscientes, no tengo muy claro qué significa ser autoconsciente de hecho, pero son una revolución importantísima y en 10 años pensaremos eso de "antes, ¿cómo hacíamos esto?"
#41 son una revolución impresionante, eso no lo pongo en duda, pero como va a ser autoconsciente un árbol de posibilidades basado en reglas que se autoreplican? Es un simple algoritmo, no nos vengamos arriba. No me quiero ni imaginar la que se va a liar cuando salga el primer humanoide que imite más o menos bien cuatro cosas de los humanos.
#46 Si es que ese debate me parece muy filosófico ¿qué es la consciencia? ¿son los animales autoconscientes? ¿cómo lo sabemos? Y, de manera análoga a tu pregunta, ¿cómo va a ser autoconsciente una planta química que funciona en base a transmisiones de productos químicos e impulsos eléctricos?
#53 no se sabe lo que es la consciencia, pero si se sabe que el cerebro no es una maquina de Turing (un automata). Las IA sí lo son.
#122 Pero eso no nos dice nada, solo que si hay autoconsciencia su origen sería diferente.
#53 De hecho hasta cierto punto #46 Casi, definió la consciencia en la definición de IA.
#46 Cómo va a ser autoconsciente una amalgama de células que se conectan entre sí y que reenvían pequeñas corrientes eléctricas?
#141 te veo tratando de ligar con una máquina de refrescos tras escuchar “aquí tiene su bebida, gracias “. Hay que tener algo de conocimiento sobre un tema para hacer afirmaciones tan arriesgadas.
#166 Haces afirmaciones categóricas, propias de alguien de palillo y barra de bar, no sé si merece la pena contestarte, pero te voy a dar el beneficio de la duda. Probablemente me arrepienta.

Por supuesto que a día de hoy no es autoconsciente la IA, por 3 motivos principalmente.

- Es reactiva, es decir, sólo hace cosas que le pides con un prompt. Una de las características de la consciencia es el bucle consciente. Ya ha habido algunas pruebas en este sentido usando al propio chatgpt y con…   » ver todo el comentario
#34, las AGI no son entidades auto-conscientes, si no entendemos esto, mal vamos. No hace falta la conciencia para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva.
#57 No hace falta la conciencia para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva.

No sabemos qué es necesario para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva, por lo que afirmar que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.

Es más, el concepto de "tarea cognitiva" no tiene una definición suficientemente precisa. Por ejemplo para obtener agua dulce del…   » ver todo el comentario
#83, yo el debate sobre la conciencia trato de eludirlo porque añade más ruido que otra cosa y da alas a los que dicen que la IA es un bluf, además creo que no aporta demasiado, primero, porque no entendemos bien qué mecanismo la produce y segundo porque no tenemos ninguna forma empírica de evaluar que existe más allá de nuestra propia experiencia subjetiva. Hay académicos como Geoffrey Hinton, al cual le tengo una enorme admiración que afirman que es probable que a medida que escalen las redes…   » ver todo el comentario
#94 yo el debate sobre la conciencia trato de eludirlo

Este comentario tuyo al que respondo no es un buen ejemplo de ello xD

A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar.

Ahora piensa en un rotífero1 que tiene entre 6 y 11 neuronas cerebrales2 (foto adjunta al final). Que son capaces de alimentarse, sobrevivir y perpetuarse.

Convendremos que a pesar de que ll haga

…  media   » ver todo el comentario
#96, hablé de la conciencia respondiendo un comentario de otro usuario, no empezando una discusión sobre el tema.

Y precisamente el ejemplo que tú pones ilustra bastante bien la diferencia entre una red neuronal artificial y una natural. Dado que no estamos dentro del gusano o de la red neuronal artificial no sabemos qué experiencia subjetiva tiene cada una de estas entidades, pero intuyo que ya a este nivel, el gusano tiene una experiencia subjetiva de lo que sería una red artificial tan pequeña. Repito, hablo desde la intuición, porque igual que tú, no hay forma objetiva de medir la conciencia y tampoco sabemos exactamente cómo se origina. Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.
#98 Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.

Eso no lo sabemos, a menos que te refieras a que el Sol resuelve el problema del agua dulce con la evaporación.
#94 El tema es que de la complejidad emerge la consciencia.

Ahí va un cuestinario sobre criaturas que tienen cerebro, unas son conscientes, otras no, dónde poner el límite, no lo sé, pero claramente la complejidad del cerebro hace que emerja de consciencia.

Una medusa es consciente?
Un saltamontes es consciente?
Un pez es consciente?
Un ratón es consciente?
Un perro es consciente?
Un chimpancé es consciente?
#83 Fe de erratas: por lo que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.
#83 Relacionando conceptos chatgpt supera a muuuchos humanos ya
#57 la verdad es que #63 te lo explica súper bien (está siendo un placer leer comentarios tan bien razonados), pero quería añadir algo: a lo que gana una maquina a cualquier ser humano es a hacer cálculos muy rápidos Y YA. Eso es lo único que hacer cualquier ordenador jamás construido y cualquier tarea que le veas hacer se reduce a eso. Como bien explica #63 los seres humanos cada vez hemos ido averiguando nuevas tareas que se pueden hacer sólo a base de cálculos (como conducir un coche) y que…   » ver todo el comentario
#119, estás seguro que lo único en lo que gana una IA al ser humano es en eso? Yo apostaría a que chatGPT programa en Python mejor que mi madre (y que unos cuantos desarrolladores que conozco, para que engañarnos), sabe identificar mejor una cardiopatía mejor que yo o puede hacer una disquisición sobre los supuestos más comunes en los que se manumetía a los esclavos durante el imperio romano o puede dibujar una réplica de la mona lisa con pelo afro mejor que el 100% de los meneantes que están…   » ver todo el comentario
#134 yo no he dicho que las IA hayan alcanzado el límite ni mucho menos, he dicho que cualquier ordenador y software que corra sobre ellos lo único que hacen es hacer cálculos muy rápidos, no saben hacer otra cosa. Sobre todo lo demás que comentas no sé, pero chatGPT no genera imágenes (otras IA sí) y programar, programar, tampoco. Resuelve problemas muy específicos a gran velocidad y programa alguno cosa genérica desde cero. Ahora pásale una aplicación existente y que te cree una funcionalidad nueva en ella, ya verás ya.
#34 Eso parece el chiste de "¿Cuantos funcionarios hacen falta para cambiar una bombilla?"

Pues aquí lo mismo ¿Cuántas neuronas hacen falta para que una inteligencia sea autoconsciente? Tomando como ejemplo el mundo animal y que solo 3 de ellos (aparte de los humanos) han pasado la prueba del espejo yo diría que hacen falta... un huevo de neuronas.
#16, #6, creo que teneis un poco de razón los dos. Seguramente inventaron algo, por ejemplo una nueva arquitectura o una nueva forma de entrenar estas redes y luego descubrieron que era más potente de lo que pensaban.
#16 Lo que describes me recuerda mucho al concepto darwiniano de evolución.
#79 Lo que describes me recuerda mucho al concepto darwiniano de evolución.

Por supuesto. Es algo similar. Mediante purebas sucesivas se va aproximando al resultado que se busca.

Por eso lo complicado de entrenar una inteligencia artificial son los datos de entrenamiento. Por ejemplo si quieres que una IA entienda lo que se ve en una foto, necesitas millones de fotos con una descripción escrita. Si quieres que entienda lenguaje hablado, necesitas millones de grabaciones con su…   » ver todo el comentario
#16 ¿Por qué Q* de OpenAI supone un riesgo para la humanidad?
Que una inteligencia artificial pueda resolver problemas matemáticos puede no sonar demasiado impactante, pero en realidad es un avance importantísimo, ya que los expertos de este sector consideran las matemáticas como la frontera en el desarrollo de la IA generativa.

¿Por qué? Actualmente, la IA generativa es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, sin embargo, la manera de…   » ver todo el comentario
#16 Muy bien explicado.

Y es por eso que, mientras esto siga así, nadie (salvo los ignorantes o mentirosos) puede llamar a la metodología "Inteligencia General Artificial (AGI)".
#16 el cerebro humano, que es maravilloso, tiene límites, pero la IA no, ese es el "problema"
#6 Depende (sí, aquí el gallego). El descubrimiento de la penicilina ¿fue tal o un invento? Porque fue algo no esperado, y puede que te hayas preparado y diseñado un algoritmo para hacer X y resulta que hace otras cosas que no esperabas. Eso para mí es más un descubrimiento que un invento en sí.
#7 La penicilina existía antes de que Fleming se diese cuenta de que tenía efecto antibiótico. Por tanto, fué un descubrimiento. En todo caso, se puede "inventar" un sistema para producirla a gran escala.
#10 Exacto, los efectos del Penicillium se conocen desde hace al menos 5000 años. Lo que hizo Fleming fue descubrir y aislar la molécula en 1928, aunque la producción a gran escala no se inició hasta 1941.
Los antiguos métodos de administración eran atroces, como untar una hoja de cuchillo con el moho e introducirla en la herida, o en el caso de parturientas, comer pan mohoso como único remedio a las fiebres puerperales.
#3 no, no es como el cerebro humano. Tal y como dice #6, en este caso hay que programarlo y la IA no se puede salir de esa programación, pues sigue siendo un autómata. El cerebro humano no lo es (pues se autoreprograma).
#29 La IA se reprograma. Si fuera un autómata sería un sistema experto, un conjunto de reglas que se aplican y ya, como el Mycin (o algo así, uno de los primeros sistemas expertos que salieron para medicina, era muy listo pero no aprendía). Las IAs aprenden, si no, no son IAs (y nos venden muchas cosas como IAs que en realidad no lo son, pero eso es otra historia).
#38 claro que son automatatas, las IAs siguen siendo maquinas de Turing. Si se hubiera conseguido programar añgo que hubiera dejado de ser un autómata hubiera sido el invento del siglo. Las IAs “aprenden”, pero no se reprograman. Cuando un humano aprende, se reprograma.
#38, técnicamente no está tan claro, porque la definición de lo que es IA se ha ido moviendo. Los algoritmos que aprenden en realidad son algoritmos de machine learning, un subcampo dentro de la IA. Pero en los años 90 y principios de los 2000 los sistemas expertos basados en reglas se consideraban IAs por derecho propio. El caso es que el machine learning ha barrido del mapa todo lo demás en pocos años porque su desempeño está a años luz.
#29 no, no es como el cerebro humano.

Se parece muchísimo. Tanto que ha servido para comprender mejor el cerebro.

El cerebro humano no lo es (pues se autoreprograma).

Las IAs también. Nosotros sólo comprendemos las neuronas de la IA. Le proporcionamos la base pero la IA se hace a sí misma en el proceso que se llama entrenamiento.
#33 como se va a parecer muchísimo, hombre? Creo que no sabemos hasta qué punto desconocemos el cerebro humano. No se sabe ni como se enruta las señales neuronales entre los trilllones de caminos que hay en el cerebro. No es que no sepamos como surgen los pensamientos o el amor, es que no sabemos como esas señales se convierten en imágenes en la zona de procesamiento de imágenes del cerebro. Quiero decir, usa matrices? Ni idea. Ni siquiera las llamadas “redes neuronales “ se parecen un pimiento al cerebro, imagínate una IA que es un árbol de posibilidades. Para que te hagas una idea, una IA imita a una molécula de ADN. Así de lejos del cerebro está.
#40 Con todos los respetos, creo que no acabas de comprender como funciona una IA, pero tu mismo la estas explicando. No sabemos como las conexiones neuronales convierten unos pensamientos en otros, pero sabemos que esta basado en un mecanismo de neuronas con diferentes pequeñas funciones cada una que, sumadas, hacen algo llamado "pensamiento" o "inteligencia"

La IA es exactamente eso. miles de pequeños mini programitas (neuronas) que se "autoprograman" en base a unas entradas para obtener una salida. Nadie sabe como interaccionan entre ellas, pero consiguen un resultado similar a lo que haria un humano,

No tienen nada que ver con una molecula de ADN. ¿Porque dices eso?
#48 con todos los respetos, soy informático y por eso estoy aquí, porque hay muchos malentendidos que yo sí conozco. No, las IA no se reprograman, su código no cambia, añaden variables a su árbol de posibilidades. Hace años la gente flipaba con el Aquinator y se basa en el mismo principio que chatGPT, no se ha inventado nada nuevo: se ha invertido mucho más tiempo y las maquinas son lo suficientemente potentes para que sea mejor.

pero consiguen un resultado similar a lo que haria un humano,
Poco has usado tú chatGPT, hijo.
#124 Yo tambien soy informatico y precisamente trabajo en este campo. Cuando digo "autoprograman" lo pongo entre comillas. Es una forma de hablar. Es dificil explicar a la gente que la IA no son mas que variables ponderadas y que en el fondo son clasificadores.
#6 El tema más bien, es que las consecuencias de una IA, no se programan en si mismas... digamos que lo que se programa, es "metodología de aprendizaje" y en buena parte, dicha metodología, es autoaprendida por la propia IA.

Realmente, en mi mente cuñada, tiene bastante analogía con la "vida". Es como si en biología, resulta que provocando interacciones y reacciones químicas entre aminoácidos y proteinas... al final dicho cóctel, elevado a la enésima potencia, genera un…   » ver todo el comentario
#6 Supongo que será algo así como patrones de aprendizaje. Como dices, no le dejas todo y le dices "ale, aprende"
#3 Como reza el dicho: "si nuestro cerebro fuera tan sencillo que pudiéramos comprenderlo, no tendríamos la inteligencia suficiente para entneder qué hacemos en Menéame"
#20 JAJAJAJAJA el giro final me ha molado, pero tomándolo en serio, el cerebro se está estudiando a sí mismo. Da qué pensar.
#3 eso que dices es aplicable al deep learning.
Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan. De hecho, la mayoría de las matemáticas de la IA son bastante claras e intuitivas

Edit: a ver, los algoritmos los entendemos, con el deep learning lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo, lo cual impide la comprensión del sistema pero no del algoritmo. No sé si me explico
#32, no es exactamente lo que te quería decir #26. Una recta de regresión puede ser un algoritmo de machine learning y entendemos perfectamente lo que es, no solo como se entrena sino qué criterios pondera para realizar sus predicciones. Con el deep learning se nos escapa.
#74 eso es. Es que me he explicado fatal!
Gracias por la aclaración
#26 Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan

Por supuesto. Pero es como decir que comprendemos el cerebro porque sabemos como funcionan las neuronas.

lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo

Ese es el punto. Que podemos estar orgullosos de haber creado un sistema que aprende por sí mismo. Pero no más que eso. La inteligencia es mucho más que un conjunto de neuronas, y eso no lo hemos hecho nosotros. Sólo proporcionamos la herramienta para que se haga sola y esperamos a ver el resultado.
#3 No, no es tan complicado. Se basa en algoritmos programados por humanos, que saben lo que hacen exactamente.

Hay mucha gente que se piensa que la IA es algo mágico y que de verdad hay una inteligencia detrás. No la hay, no dejan de ser cálculos matemáticos y ordenamiento de datos.
#3 entonces podemos decir que se ha creado algo que el humano no entiende?
#3 el cerebro humano: conocemos las neuronas

Nadie tiene ni la más mínima idea de qué hace una neurona, mucho menos el cómo.
#3 como no se va a entender si está programado por humanos...
#3 Es un invento. Descubrirlo. Cómo mucho. Sería después del invento.
#2 los teoremas, metodos y aplicaciones generales de las matematicas se suelen considerar descubrimientos.
#2 Conste que te he votado positivo, pero no sería la primera vez que se argumenta que, el algoritmo en cuestión, ya estaba ahí antes de que el programador de turno "lo descubriera".
#2 Un invento es casi siempre un descubrimiento.
#2 No son excluyentes.
#2 Una serendipia es un descubrimiento que puede llegar a ser bueno o valioso de manera accidental o casual, al momento de estar buscando una cosa diferente a la sucedida.[1] De igual forma puede referirse a la habilidad de un sujeto para reconocer que ha hecho un descubrimiento importante aunque no tenga relación con lo que busca.
es.m.wikipedia.org/wiki/Serendipia
No digo que sea el caso, solo que me encanta la palabra.
#2 si la inteligencia no es sólo propia de los seres vivos sería un descubrimiento, sino invento
#4 Por supuesto. Y no es tan raro.
#9 Un ejemplo sencillo de que no es tan raro son, por ejemplo, las lentes: se han usado desde hace mucho sin tener conocimiento de los principios que subyacen, la gente sólo sabía, por experimentación, que funcionaban, y ya.

De hecho, diría que, hasta no hace mucho, era la forma habitual de hacer: usar lo que conoces por experimentación, sin necesidad de saber los principios que subyacen. El fuego, sin ir más lejos.

cc #4
#19 si si eso estoy de acuerdo, es como la anestesia se sabe que funciona pero no se sabe que proceso fisiológico desarrolla para estar en ese estado, pero el tema de la IA creía que había algo más que lo hiciera funcionar.
#21 Como el viento o la lluvia, que no se sabe de donde vienen pero los utilizamos.
#24 si yo creo que es lo mismo... No sé sabe de donde viene la lluvia o al viento...
#9 ok. Entonces podemos decir que sabemos que herramientas usa para aprender, pero no como lo hace, es decir que en algún momento aprenda a usar una herramienta que no se la ha proporcionado.
Perdona por las preguntas pero es algo que me llama mucho la atención y nadie suele responder mis preguntas más allá de ambigüedades
¿Hype para intentar reparar la fama rota de OpenAI?
#11 La fama rota?
Pero si están todavía en la cresta.
#23 La patada viene por las discusiones sobre como usar ese descubrimiento. Etica y dineros
#23 Por ocultarselo. Es su deber mantener a la junta directiva informada.
#22 En YouTube " dot csv" lo intentaba recientemente www.youtube.com/live/F6DTEcjpuEU?si=w3gcJSV0EGByZX1V
Arnold calienta que sales...
#39 no es tanto el numero (las ballenas y elefantes tienen más), si no la proporción tamaño del cuerpo, número de conexiones, etc. Y algo más parece que hay, porque los cuervos o los pulpos han resultado ser la hostia de inteligentes.
#43 Es que seria mas preciso decir, cuantas neuronas dedicadas a problemas generales. Esos bichos tienen mas neuronas simplemente porque tienen un cuerpo mayor, con lo que se necesitan mas neuronas para gestionar ese cuerpo, pero las neuronas dedicadas a problemas generales son pocas porque en su ambiente no necesitan mas. A los bichos pequeños les pasa parecido, parecen la ostia de inteligentes porque aunque tengan menos neuronas, tienen muchas mas en proporción para problemas generales.
#49 exacto, perfectamente resumido :-)
#43 Con los pulpos se está exagerando un poco.
#22 Básicamente:
-Altman oculta cosas a la junta directiva y la junta se entera.
-La junta se mosquea por la ocultación de la información.
-La junta echa a Altman de CEO.
-El presidente de la junta, amigo y socio fundador, renuncia como medida de protesta por el despido.
-Microsoft, que posee el 49% de la empresa y ve vital el tema de la IA en windows 12, bing y otros servicios como copilot, apoya a Altman y lo contrata directamente.
-MS deja abierta la puerta a contratar a la totalidad de los…   » ver todo el comentario
#44 yo creo que los de Netflix necesitan sauce para una nueva serie basada en hechos reales.
xD
Bromas aparte, gracias por el resumen :hug:
#4 Las redes de neuronas artificiales, aunque sepamos como funcionan, son una "caja negra" en el sentido de que no sabemos exactamente qué operaciones están realizando con los datos (técnicamente, cómo dividen el espacio N-dimensional que determinan los parámetros de entrada). Las entrenamos diciéndoles qué respuesta es correcta y cuál incorrecta y les damos un método para que se adapten y aprendan. Pero el resultado de este entrenamiento no podemos analizarlo a simple vista.

Que en realidad es lo mismo que sucede en las redes de neuronas naturales, tampoco podemos ver un cerebro humano y saber lo que pasa más que a grandes rasgos, por mucho que analizáramos los neurotransmisores.
#47 uf, cuantas respuestas y cuantas preguntas me surgen a todos vosotros.
Entonces es como si tu le enseñas a hacer una operación, le enseñas a "razonar" y luego que se busque la vida.
Pero por ejemplo, hay cosas que hace la IA que no entendemos porque lo hace, pero hay algún motivo que podríamos llegar a desentrañar no. No tanto como ha llegado hasta el, que deberíamos, sino el porqué funciona de esa manera.
No existe ninguna manera de intentar averiguar porqué hacen según qué cosas, aunque sea a una escala específica. Es decir, sabemos porque el cuerpo tiene ciertas reacciones, se activa X o Y, pero con la IA de momento estos es posible o no?
#47 No existen las neuronas artificiales, al menos que yo sepa.
#1 la junta de accionistas lo echo porque "no confiaban en el"

Creo que ahora hay nueva junta de accionistas.
#52 sera la consejo de administración ("board or directors"), la junta de accionistas no puede cambiar a no ser que cambie la composición accionarial de la empresa, que no creo que lo haya hecho en tan poco tiempo. Pero los accionistas, sobre todo los mayoritarios, si pueden cambiar la composición del consejo o el consejo mismo cambiarse a si mismo.

es.wikipedia.org/wiki/Consejo_de_administración
es.wikipedia.org/wiki/Junta_general_de_accionistas
#64 puede ser, la verdad es que no recuerdo el término usado en el artículo, aunque llego a portada ayer o anteayer
#1 Al revés, lo echaron para frenar el avance en IA porque les entró miedo.
Lo han rescatado porque tienen más miedo a que la empresa quiebre sin sus trabajadores.
#61 Y bien echado estaba.

Alguien que antepone hacer negocio a la seguridad humana es un gran peligro. Y Altman siempre ha sido el máximo exponente en OpenAI de esa avaricia irresponsable.

El consejo de administración no lo traga por ese motivo, y LOS HECHOS LES DAN LA RAZÓN.

Al tipo sólo le salva su éxito mediático y el poder de la pasta de Microsoft, que por supuesto también aspira únicamente a hacer negocio sin importar los riesgos.

El futuro pinta mal mientras Altman y Microsoft estén al timón de esto.
#31 Según el artículo, tiene que ver con un avance importante en la capacidad de comprensión y resolución de lógica matemática para la IA, lo cuál es uno de sus mayores puntos débiles en la actualidad. Difícil de decir hasta qué punto es algo revolucionario o solo un pequeño paso más hacia la inteligencia artificial general.
#62 ha solucionado problemas matemáticos de nivel de primaria sin proporcionarle ninguna herramienta matemática, es decir, el bicho ha razonado y creado sus propias herramientas matemáticas para dar con la solución.

Es un grandisimo paso, por ahora solo es a nivel de primaria, pero espera a que llegue a la mayoría de edad y veras..
#12 yo lo entiendo como los ordenadores que juegan al ajedrez, tú les das las normas y se ponen a pensar millones de jugadas hasta que dan con la buena. El resultado es el que queremos, pero no te pongas a investigar los millones de intentos que ha realizado para obtenerla.
#65 pero no queda constancia del proceso me refiero, creemos que aprenden a fuerza de ensayo y berros pero con una capacidad superior a la nuestra. Pero no queda reflejado cuáles son los errores. Quizás se pueda indagar por ahi
Para que quede constancia yo nunca he tratado mal ni siquiera a un tostador. A veces le di un par de golpes a un mando antes de darme cuenta que no tenía pilas. Queda dicho.
#45, spoiler, el deep learning ya es el invento del siglo.
#72 sí, pero no al nivel que sería poder programar algo que no fuera un automata.
#32 pero solo pasa con las redes neuronales.
Lo demás se entiende más o menos
Me recuerda esto al episodio final de Silicon Valley
#63 Mira el video ;)
#1 O el jovencito Frankainstain  media
#12 Todas las partes fundamentales del proceso de aprendizaje y razonamiento son conocidas y entendibles. Cada una de las partes individuales fundamentales.
Ahora bien, cuando se combinan estas reglas minúsculas miles de millones de veces, empiezan a surgir flujos de información e inferencia que no eran obvios a priori.

De ahí que la IA resulte a veces sorprendente, porque nadie se espera (o esperaba) que de componentes y reglas tan simples se pueda formar algo con comportamientos y…   » ver todo el comentario
#86 entonces podemos decir que la IA llege un momento que se autoentrene, a partir de sus resultados y se autoconfigure y vaya mejorando o no es posible. Me refiero puede pasar de x cálculos simple a xy cálculos complejos
Sam Altman parece que tiene principios
#55 Continuando lo que dice #77. las IAs no están programadas por humanos. Están construídas por humanos, y les son dados un puñado de mecanismos para autoconfigurarse, y miles de millones de entradas (el equivalente a nuestros sentidos, nervios, etc).
Esos mecanismos básicamente son un objetivo que cumplir lo mejor posible (que en términos evolutivos sería algo en lo que tiene que ser lo más apto posible), y un mecanismo de evolución para reconfigurarse e intentar aumentar cuán apta es en…   » ver todo el comentario
#90 no se si me convence el argumento, al final es aplicar un modelo estadístico complejo, ya que los parámetros de entrada no son infinitos y los datos de los que parte tampoco, (data lake? ) algún tipo de testing se habrá hecho, o depuración. Creo que necesitaré otra IA para analizar la respuesta. Gracias por la explicación. Me voy a tener que poner a investigar esto un poquito.
#97 Es un invento.

Digamos que hemos inventado un mecanismo que crea inteligencia automáticamente sin nuestra intervención directa.
#101 Qué podría salir mal... :troll:
#66 Bueno, tampoco podemos con el cerebro. Podemos tener una idea de qué hacen determinadas señales químicas, y la investigación en Redes de Neuronas Artificiales nos ha facilitado comprender muchísimo que hacen las redes de neuronas reales que hay en nuestro cerebro.

Resulta que al transformar su actividad en un modelo matemático e imitarlas, hemos visto que podemos resolver problemas de un modo que no podríamos con algoritmos normales. Y de hecho todos estos avances espectaculares actuales…   » ver todo el comentario
#102 la investigación en Redes de Neuronas Artificiales nos ha facilitado comprender muchísimo que hacen las redes de neuronas reales que hay en nuestro cerebro

Esteeee, no. Nada que ver. Además ni se parecen.
#100, es un buen ejemplo de cómo se está resolviendo un problema sin consciencia. La única diferencia es que a los modelos de IA les podemos definir qué problemas queremos que resuelvan. Eso es lo que las convierte en una herramienta.
#103 Pero reconocemos una diferencia entre que el Sol evapore agua y acabe en los ríos a construir una desaladora y bombear agua hacia los ciudadanos.

El ser humano ha conseguido ese objetivo teniendo consciencia.

La IA la estamos dirigiendo por ese camino hacia ese segundo escenario, la aparición de consciencia podría formar parte de ese camino, de hecho podría no solo formar parte sino ser imprescindible para alcanzar ese objetivo. Lo desconocemos.
#68 Que el consejo de administración no sepa lo que hace no es estar en la cresta.
#104, el propósito se lo damos nosotros la IA se limita a lograr lo que nosotros le pedimos, no veo que esto lleve implicito que aparezca una conciencia. De todas formas llegará un punto en el que no tendremos forma de determinar si una IA es consciente o no, porque será indistinguible de un ser humano desde fuera.
#112 Añades conceptos de difícil definición, ahora añades "propósito". ¿Qué o quién le da propósito a una persona? ¿Él mismo? ¿Su familia? ¿La sociedad? ¿No tiene propósito?

Puedes argumentar que las personas se limitan a lograr lo que la sociedad les pide. ¿Demostraría eso que no tienen consciencia?

no veo que esto lleve implicito que aparezca una conciencia.

Ni excluye que la tenga, ni excluye que la necesite para conseguir el propósito que se le pida. Lo desconocemos.



…   » ver todo el comentario
#111 de verdad crees que a eso se reduce la consciencia?
#113 Si. De echo actualmente todos los imputs serían datos computables.
#114, no añado nada, sino que contesto tu comentario en el que dices "El ser humano ha conseguido ese objetivo teniendo consciencia" y yo entiendo que conseguir este objetivo es sinónimo de cumplir un propósito.

Y lo otro es lo que te estoy diciendo todo el rato, no tenemos ninguna forma de validar que tenga conciencia o no, tampoco sabemos cómo se produce. Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma…   » ver todo el comentario
#120 Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma espontánea, yo lo dudo enormemente.

No creo que le falte el alma, si es a eso a lo que te refieres con ser "suficiente". Hemos diseñado un modelo inspirado en la biología al cual entrenamos con la cultura humana para que consiga aportar a los retos que los humanos nos hemos marcado. Para evaluar sus capacidades lo juzgamos los humanos en función de cuán…   » ver todo el comentario
#126 #120, perdonad que me meta.

El problema no es que consigamos una respuesta lo más parecida a una respuesta a humana. Incluso aunque consiguiéramos hacer un fake muy conseguido, no sería un problema por sí mismo.

El asunto es que una cantidad determinada de cómputo, sometida a estímulos, y con capacidad de tener cierta iniciativa - aunque fuera forzada en inicio - combinado con una gran capacidad de cómputo, podría resultar en una consciencia por pura consecuencia ( lo explico mejor en…   » ver todo el comentario
#116 pues te recomiendo que investigues un poco más sobre neurociencia :-)
#126, "como la única forma que tenemos de afirmar que algo tenga consciencia es que la muestre pues el camino"

Te equivocas, no hay ninguna forma de afirmar que una IA tiene conciencia igual que no tienes ninguna forma de afirmar que yo la tengo. Como ya te he dicho la única prueba que tenemos hoy por hoy de que la conciencia existe es nuestra experiencia subjetiva y por extrapolación asumimos que los demás la deben tener porque están hechos de las mismas piezas que nosotros.…   » ver todo el comentario
#128 el método científico necesita pruebas para afirmar cosas tan rotundas como que algo artificial tiene conciencia.

Es que no hablamos del método científico, es falso que mediante el método científico hayamos determinado que el ser humano tiene conciencia.

Si nos permitimos afirmar que el ser humano tiene conciencia sin disponer de evidencia científica de ello es tramposo exigir evidencia científica para afirmarlo para la inteligencia artificial.

La conciencia es una característica emergente que le atribuimos con nuestro criterio a terceros y ese es el marco honesto en el que englobar la discusión.

¿Utilizamos nosotros la conciencia para jugar al ajedrez? Sí.

¿Puedes demostrar que la usamos para jugar al ajedrez?
#129, puedes demostrar tú que usamos la conciencia para algo?
#131 No.

De hecho existe una hipótesis que la conciencia no la usamos para tomar decisiones, que la conciencia es un proceso posterior a las decisiones que usamos para explicarnos lo ocurrido. Hay experimentos en los que personas que tienen los dos hemisferios cerebrales sin conexión uno de los hemisferios actúa por su cuenta y el otro hemisferio, el que tiene capacidad de lenguaje, explica lo ocurrido como si hubiera sido una decisión suya.

Y otros experimentos en los que a la persona se le…   » ver todo el comentario
#132, no se si te das cuenta que esto refuerza mi argumento, porque estás diciendo que para tomar decisiones no hace falta utilizar la auto-conciencia. Lo que tu llamas "proceso posterior a las decisiones que usamos para explicarnos lo ocurrido" es lo que yo he llamado "los mecanismos de recompensa asociados a los neurotransmisores". Al final la conciencia actúa como algo similar a la función de coste de una red neuronal artificial, algo que nos permite hacer…   » ver todo el comentario
#135 esto refuerza mi argumento, porque estás diciendo que para tomar decisiones no hace falta utilizar la auto-conciencia.

Es que no hablamos meramente de "tomar decisiones" sino de tomar decisiones en el sentido y con las consecuencias equiparables a como lo hace el ser humano, por que es sobre esos resultados en base a los que se entrenan las IA, esa es la vara de medir.

Que la conciencia pueda ser un proceso posterior a la decisión no implica que no pueda estar formando…   » ver todo el comentario
#130 sin duda lo probaré porque desde luego curiosidad me has generado ;)
#127 pensar que un algoritmo puede tener autoconsciencia es ir un poco en contra de los postulados de la computabilidad, pero yo que sé ya.
#95 Una red neuronal se puede autoentrenar. Por ejemplo, así se consiguió que ganara al GO.

Pero lo que no puede hacer son cálculos. Para eso hace falta otra cosa.

Escribir algoritmos para que calculen cosas está más que resuelto. Hay apps para moviles que te resuelven cualquier problema de mates a nivel de bachillerato y te dan los pasos a seguir.
#66 Los intentos de usar redes neuronales para explicar como funciona otra red neuronal generan informes demasiado complejos.
#137, cuando digo que le viene dado a través de su diseño, me refiero a que es el algoritmo de entrenamiento el que actúa como mecanismo de evaluación y recompensa. No hace falta que "desarrolle" internamente algo extra para saber si lo está haciendo bien a la hora de aproximarse a la solución que tiene que encontrar. Tampoco le sirve para nada tener auto-conciencia de si misma, algo que si nos sirve a los seres humanos para reforzar el instinto de conservación.
#156 No hace falta que "desarrolle" internamente algo extra para saber si lo está haciendo bien a la hora de aproximarse a la solución que tiene que encontrar.

Si queremos que muestre respuestas lo más humanas posibles en una charla donde interactúa con humanos claro que todos los mecanismos que tienen los humanos le pueden ser útiles en ese objetivo. Y ese es el objetivo para el que se la entrena.

Tampoco le sirve para nada tener auto-conciencia de si misma, algo que si

…   » ver todo el comentario
#154 sí, sí, pero joer, pero la relación nº de neuronas/inteligencia sigue siendo brutal, eh?
#167 a ver, yo soy programador y también trabajo a diario con chatGPT y no, no creo que razone, lo que pasa que se tira el pisto muy bien. Es “fácil” ver qué hace para conseguirlo: cuando le entrenaban y le daban feedback, las respuestas que parecían más seguras se puntuaban mejor. A veces te está soltando una bula como una casa y lo suelta segurísimo de sí mismo. Le indicas el error y si no tiene definida una ruta alternativa, sigue insistiendo en ello tras disculparse y reconocer el error.…   » ver todo el comentario
#126, #173, perdona pero no estoy de acuerdo, si a día de hoy no podemos tener ninguna prueba material de que los demás seres humanos tienen conciencia, no se como afirmas tan rotundamente que no tendremos la menor duda cuando una IA la desarrolle.

Por otro lado olvidáis que una red neuronal artificial es un momento muy simplificado de una red neuronal natural, el cerebro tiene cientos de elementos que no están representados en nuestra simulación, hormonas, enzimas, proteínas, múltiples…   » ver todo el comentario
#174 No he dicho que tengamos una prueba irrefutable de forma científica, pero sí del mismo nivel con el que tú mismo determinas que la persona que tienes al lado tiene conciencia.

No olvido para nada todo lo que separa un cerebro humano de una inteligencia artificial, en absoluto. Soy plenamente consciente de ello ( en la medida en que yo lo puedo conocer o intuir ), pero también entiendo que no tiene por qué ser determinante, y me explico un poco más a fondo:

Todo lo que el cuerpo necesita…   » ver todo el comentario
#199 Todo lo que el cuerpo necesita para que un ojo pueda recibir información visual del entorno no está presente en una simple cámara. Una cámara es infinitamente más sencilla que un cuerpo humano completo, y que un ojo.

La cámara es fruto del diseño inteligente mientras que el ojo es fruto de un proceso evolutivo.

La cámara tiene las piezas mínimas que necesita tener para cumplir con su función y cada una de sus partes está diseñada para contribuir al resultado y no interferir…   » ver todo el comentario
#200 Estoy completamente de acuerdo, pero era simplemente un símil entre la complejidad necesaria de ambos sistemas, y que si nos basamos únicamente en la función, podemos llegar por varios caminos distintos sin requerir la totalidad de la complejidad del ojo.

Ya como offtopic, el tema de la complejidad del ojo y de compararlo con una cámara, se sale del rango de la discusión, porque el ojo no es solamente el ojo, nosotros vemos con el cerebro, y no es sólo el post-procesado que…   » ver todo el comentario
#204 sí, árboles de decisión y clasificaciones, exacto.
«123
comentarios cerrados

menéame