Noticias de ciencia y lo que la rodea
13 meneos
35 clics

La IA no es omnipotente: Investigación reciente revela que los mejores modelos de AI muestran deficiencias cognitivas similares a la demencia temprana (ENG)

Un estudio reciente indica que los modelos líderes de inteligencia artificial muestran deterioros cognitivos similares a los síntomas tempranos de demencia cuando se someten a la prueba de la Evaluación Cognitiva de Montreal (MoCA). Este hallazgo pone de relieve las limitaciones de la IA en las aplicaciones clínicas, especialmente en las tareas que requieren habilidades visuales y ejecutivas.

| etiquetas: ia , chatbot , demencia
10 3 0 K 104
10 3 0 K 104
Tendrán que hacer IAs para tratar los problemas mentales de otras IAs.

Un gran avance.
#1 las hay para detectar si alucinan...
#1 o EUs, como control.
#1 jaque mate a las ia ya por siempre, con este demoledor artículo, ya toda la inversión es un absurdo
Ya nacen tontas.
Demencias artificiales.
Corregidme si me equivoco porque probablemente lo haga pero...¿las IA no se supone que van aprendiendo a medida que se las utiliza? ¿Y eso no significa que en poco tiempo serán mucho más potentes?
#3 Pueden aprender mal.
#9 existe esa opción? No discrimina la propia IA en base a toda la información a la que tiene acceso?

Si 9 personas me dicen que algo es A y una que es B, tenderé a pensar que la verdad es A...bueno espera, no xD
#10 Un ejemplo típico. Reconocimiento de números de matrícula.

Generalmente se entrenan enseñándole miles de matrículas o de números y diciéndole que esto es un 5, esto un 7, etc..

Resulta que si le das pocas iteraciones no aprende bien y a veces puede confundir dos símbolos parecidos.

Pero si la entrenas demasiado, es capaz de aprenderse demasiado bien los 5 que le has enseñado, y no reconocerlo cuando le enseñes otro 5 que tenga una tipografia diferente.

Eso está muy documentado con las IAs tradicionales basadas en redes neurales.

Con los GPTs no está tan claro, porque nadie las entrena. Y ese es precisamente el objetivo de estos estudios. Intentar saber que han aprendido, como, si se les va la pinza, cuando, por qué...etc..
#11 ah, guay, gracias por la explicación :-)
#11 Pero los GPTs también están basados en redes neuronales, ¿no?
#3 No. Las IAs que utilizamos actualmente primero pasan un proceso de aprendizaje y luego se usan para obtener resultados.

Al usar gpt-4, este no va aprendiendo cosas con el uso.

Pero esto puede cambiar. La IA generativa es muy reciente y aparecen modelos y estrategias de uso nuevas constantemente.

Han aparecido los modelos o-3 que han demostrado ser capaces de resolver problemas con los que nunca habían sido entrenados. Son modelos que dedican tiempo y recursos a 'razonar' la respuesta.
#20 gracias por la respuesta :-)
#20 Entonces ¿cuando cargas archivos a una IA, esta no "aprende" de los nuevos archivos?
¿La estás entrenando cada vez que cargas un archivo?
#25 No. Las IA tienen una 'ventana de contexto' que es un espacio de memoria donde guarda información con la que trabajar al elaborar las respuestas.

Pero esa memoria es temporal. Si quitas el archivo, lo olvida, porque no lo ha usado para entrenar su modelo.

* Así funciona las soluciones actuales. Igual en pocos meses se presenta un modelo que vaya aprendiendo con el uso. Es un área donde hay una innovación muy rápida
#3 En realidad no. Sólo "aprenden" durante la fase de entrenamiento. A partir de ahí son funciones deterministas, algo que no se ve porque usan números aleatorios para variar las respuestas.
#16 gracias por la aclaración, la verdad es que el tema me fascina pero no me entero bien del todo cómo llegan a funcionar ciertas IAs.
#17 Hay videos muy bien hechos que explican los fundamentos del invento

www.youtube.com/watch?v=jKCQsndqEGQ
#18 gracias! Le echo un ojo :-)
#3 o mucho más deficientes. La educación hay que supervisarla.
#3 Eso cuando se llegue a la IA general.
Las exigencias a una nueva tecnologia que ya sustituye telefonistas de telemarketing, tendria que hacerles valorar que necesita para sustituir al resto si es mucho mas o poco.
Pero bueno , cada cual ve las deficiencias que puede asumir.
Lo que aprendan no habra que volverselo a enseñar. Comparar con enfermedades humanas algo que no lo es. Es absurdo.
*todavía. :roll:
Lo he dicho varias veces. Con la IA se va a repetir la crisis de las puntocom.

Aquí queremos meter IA hasta en la sopa porque mola, aunque no sea capaz de aportar nada a muchos procesos. Los que estén trabajando en el camino correcto se van a forrar, la mayor parte se van a dar la hostia, como la mitad irán a la quiebra, luego la cosa se tranqulizará y la IA seguirá evolucionando a su ritmo porque el puto futuro y dentro de 10-15 años va a ser imprescindible para casi todo.
Pero aún podría ser onmívora :roll:
A ver, quizas el tema de como se utilizan "trucos" para poder calcular determinados temas, como usar Teoria Bayesiana cuando no sabes si los eventos son independientes, o lo de los Kernels, ... quizas tiene algo que ver.

Que me estoy comiendo un Bootcamp de esos y, con todo el respeto, he escuchado lo de "Esto no es computable, asi que hacemos este truqui", unas cuantas veces.

menéame