Cultura y divulgación
82 meneos
649 clics
La hipocresía cultural: demonizar la inteligencia artificial mientras se sucumbe a los algoritmos

La hipocresía cultural: demonizar la inteligencia artificial mientras se sucumbe a los algoritmos

El pasado jueves 26 de septiembre, en el marco de las Conversaciones de Formentor, se celebró un «Coloquio de revistas, suplementos y monográficos, literarios y culturales» que pretendía girar en torno al tema «El dilema postmoderno: ¿lectores o usuarios?», algo que no llegó a suceder. En este evento se reunieron responsables de medios y suplementos culturales para analizar y discutir la complejidad de los medios y suplementos culturales. A raíz de la intervención de Isaac Marcet de Playground Magazine el debate se centró en la inteligencia...

| etiquetas: hipocrecia , cultura , inteligencia , artificial , algoritmos
48 34 0 K 369
48 34 0 K 369
"Criticar la IA en nombre de la esencia cultural mientras se aplican fórmulas preestablecidas para satisfacer los algoritmos de posicionamiento es un acto de hipocresía. El verdadero dilema postmoderno no parece ser «lectores o usuarios», sino «principios o conveniencia»."

Magnífico análisis en dos simples frases. Muy buen artículo.
#1 Lo de ponerle nombre distinto a las IAs que gestionan el contenido y a las que "chatean" contigo es lo que tiene.
Lo de pedir que los algoritmos sean públicos cuando muchos se diseñan de tal manera que "aprenden" de manera independiente es peligroso porque da a entender lo que no es.

Y una cosa, los que dicen que "va demasiado rápido", "no podemos adaptarnos"...

Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas

…   » ver todo el comentario
tul #3 tul *
#2 las leyes de la robotica? que eso es fantasia, ni existen, ni existiran en el mundo real.
#2 ok. Pensé que sabías de qué hablabas hasta que hablaste de las leyes de la robótica. Las leyes de la robótica tienen todos estos problemas:
1) Son un tropo literario. Nunca pretendieron ser nada científico. Y no lo son. No son leyes. Solo es literatura.
2) Asimov las expone para mostrarte en todas y cada una de las maneras que esas tres leyes fallan de todas maneras.
3) No es posible algorítmicamente diseñar circuitos que sigan esas leyes que son abstractas y literarias y no tienen una formulación matemática posible.

Todo esto leído a un experto en IA y habiendo leído muchos relatos de Asimov.
#5 Asimov: aquí tienes las leyes que todo robot debe cumplir

También asimov: aquí tienes decenas de cuentos y novela explicando porqué esas leyes van a fallar

Solo le faltaba haber propuesto soluciones a los problemas que sus leyes han creado para convalidar la carrera de político xD :troll:
#2 como puntillosito profesional agregaría que el gran cambio fue el backpropagation en el año 86.
#2 no es cierto, el paper de los transformers (Atention is all you need) es de 2017 y es lo que ha habilitado esta generación de IAs y ha abierto nuevas vías de investigación y de negocio.

Obviamente se apoya en fundamentos matemáticos desarrollados en los 50-60 como dices, pero no ha sido solo hardware.
#17 Claro...
Ese paper es la mejora algorítmica que comento, que permite la optimización bestial en el uso de memoria.
A mi las IAs me parecen geniales mientras no manguen el trabajo de la gente para entrenarlas.
#4 En mi opinión nadie inventa nada, todo el mundo manga el trabajo de otros para entrenarse, desde Velázquez a Freddy Mercury.
#7 Si eso fuera cierto, seguiríamos en la Prehistoria, básicamente.
#7 Lo que dices es imposible, por pura lógica. En algún momento alguien ha tenido que crear algo para que otros puedan copiarlo. Si no, sería como dice #8
#8 #9 Obviamente comienzas interpretando la naturaleza, es lo primero que te dicen en historia del arte. Luego aprendes y reinterpretas lo que existe, es de lo primero que te dicen en historia del arte.
#8 Creo que más bien lo contrario. Si cada individuo tuviera que crear desde cero, entonces sí que seguiríamos en la prehistoria. Todo el conocimiento acumulado se refleja en cada creación, tanto artística como técnicamente. De vez en cuando aparecen "genios" que hacen algo totalmente diferente, pero ninguno de ellos tuvo que inventar el pincel, experimentar hasta entender la perspectiva o inventar un lenguaje musical.
#7 Por supuesto que se inventan cosas nuevas y por supuesto que mangan. No te hablo de una persona que se "Inspira" en algo ya hecho. Te hablo de una corporación que manga las imágenes de un banco de imágenes sin pagar la correspondiente licencia de uso para entrenar una IA generativa y cobrarte una suscripción por usar su "invento". Eso por poner un ejemplo real y que está en los tribunales.
#11, el problema son las corporaciones o la tecnología? Porque hay modelos de código abierto que pueden hacer cosas parecidas.

A mi me da que algunos prefieren prohibir una tecnología que bien utilizada nos podría llevar a una era de abundancia sin parangón, porque tienen el capitalismo tan metido en la cabeza, que no pueden imaginar una solución en la que podamos utilizar esta tecnología en beneficio de todos.
#11 Hace un año salió un arXiv ("Scalable Extraction of Training Data from (Production) Language Models") que mostraba evidencias de que es posible extraer datos de entrenamiento de los LLMs (el que más ChatGPT, a veces por el sobreentrenamiento sobre los mismos datos). Sumado a una nueva legislación en California para 2026 que estarán obligados a mostrar el origen de los datos, parece que empieza a haber esperanza por el lado legal de crujir a estas empresas por usar datos sin permiso (privatizar el beneficio y socializar las pérdidas), ojalá haya suerte.
#11#7 Bueno, el tema es algo más complejo, porque las licencias permiten ciertos usos (por ejemplo ver las imágenes), por ello -en principio- que yo o una IA estemos mirando bancos de imágenes para aprender no es automáticamente "mangar". La cosa es si al reproducir las ideas aprendidas la IA copia o no fragmentos de imágenes con derechos de autor.

Te pongo un ejemplo: Yo , o una IA, miramos un banco de imágenes para buscar ideas sobre como ilustrar el concepto "…   » ver todo el comentario
Ha cambiado el titular
Teniendo en cuenta que la mayoría de páginas tienen la desfachatez de pedir dinero por navegar sin cookies en lugar de por el contenido que producen, es para desearles la ruina más absoluta.

Que fracase esta puta mierda de internet.

Se han convertido en putillas recabadoras de datos para grandes compañías y han adoptado un formato lleno de referencias a su web, de explicaciones que no vienen a cuento y de suposiciones sin fundamento.

Se han convertido en meros datos de entrada para…   » ver todo el comentario
Las leyes de la robótica sí se pueden expresar mediante lógica formal. Pero las IAs modernas usan lógica probabilística, no es posible (actualmente) hacerlas razonar de forma que apliquen proposiciones lógicas a sus acciones.

Bueno, a las que eligen objetivos a los que disparar sí.
#10, no se que te refieres exactamente con la lógica probabilística de las IAs modernas. Pero desde luego que existen formas de alinear los modelos para que no se salgan de lo que sus diseñadores quieren que hagan. Intenta que chatpt-o1-preview te diga algo fuera de tono a ver si lo consigues.
#22 Los LLMs generan respuestas en base a la distribución de muestras con las que fueron entrenadas. Básicamente, analizan la entrada y generan su salida como la sucesión de sílabas (tokens) más probable que se correspondería a la misma. El muestreo es aleatorio y por ello responden cosas levemente distintas cada vez.

Lo que tienen los sistemas comerciales es filtros de moderación, que eliminan y modifican texto de la entrada y de la salida. Muchas veces es otra red por encima que bloquea la…   » ver todo el comentario
#25, no, no siempre es el token con mayor activación el que se muestra, para eso está la temperatura del modelo y de hecho está demostrado que la calidad de las respuestas empeora si la temperatura es cero.

Por otro lado lo de generar respuestas en base a la distribución es una definición muy vaga de cómo funcionan que podría incluso aplicarse a los humanos. Sinceramente, definir los LLM como modelos puramente probabilísticos es simplista y engañoso, uno podría pensar que se limitan a mostrar…   » ver todo el comentario
Se sale un poco del contenido del artículo, pero es como cuando dicen que la IA solo copia y no tiene capacidad creativa, como si por ejemplo la música popular o el Hollywood de los últimos 50 años hubiera hecho muchos productos innovadores.
#6 La IA hace exactamente lo mismo que nosotros. Hay quien tiene la ilusión de pensarse que es super creativo, cuando lo que hace es tomar un 5% de este, un 5% del otro y al final resulta que añades un 1% nuevo propio. Y la mezcla de copias y la mínima aportación de uno da en muy contadas ocasiones la genialidad. Y eso es exactamente lo mismo que hace la IA. Pillar de uno y de otro y añadir algo própio, muy poco. Y alguna vez hará algo genial.
#12 Justo mi opinión sobre el tema.
#12 A lo mejor la diferencia es que la IA tiene tantas fuentes más que una persona y es tan eficiente compartimentando los conocimientos que el resultado canta demasiado a plagio. Tú tienes una combinación única y abundante de influencias en un batiburrillo en tu cabeza en el que coges algo que te gusta de este, esto otro que te gusta de esto otro, las influencias se interfieren y anulan entre sí dando como resultado una combinación "única", mientras que a la IA le dices, respóndeme a esto como si fueras mi madre y si la tiene en su base de datos te lo va a aislar de todo lo demás y te va a responder como mi madre.
#12 En realidad no es así, no hace lo mismo que nosotros. Pero entiendo que es muy dificil rebatir ese argumento con ejemplos cuando desde hace 30-40 años la producción creativa (por ejemplo la música o Hollywood, y también la literatura best-seller) apenas aporta contraejemplos de lo contrario, y mucho antes del advenimiento de los LLMs: el ecosistema creativo actual hace perfectamente válida esa afirmación.
Las IAs son BA SU CO.

menéame