edición general
rojo_separatista

rojo_separatista

En menéame desde abril de 2007

10,57 Karma
955 Ranking
1.250 Enviadas
109 Publicadas
30K Comentarios
56 Notas

El fiscal general ordena a los fiscales del procés aplicar la ley de amnistía para todos los delitos [123]

  1. #43 Me parece muy bien que expreses tu opinion pero hace falta que me pongas negativo? yo no he hecho la ley de amnistia ni la de malversacion
  1. #53 Vamos que te la tragas bien dobladita. Lo que suponía.
  1. #48 Efectivamente habrá que aplicarla si todo está en orden, yo solo he preguntado si os parece bien o no. No está fuera de discusión para mi, únicamente pregunto por la opinión de la gente sobre ello. Si no quieres contestar, te retratas solito.

Tania Sánchez analiza la dimisión de Yolanda Díaz de Sumar: "Ha dejado huérfana a toda la gente que está en ese espacio" [25]

  1. #2 y de trepas xD

La inteligencia artificial, y no la sequía, nos matará de sed [19]

  1. #7 Los datos te contradicen.

    A pesar del despliegue mundial de placas solares, no representan ni el 5% de la energía que necesitamos.

    Y es que necesitamos cada vez más energía, para por ejemplo... Fabricar placas solares.

    #10 Cuanto optimismo, pero una vez más, los datos no indican que las cosas vayan por ese camino, y desde que usamos las IAs, el consumo energético no ha hecho más que subir.

Éxito en las elecciones europeas del partido de Wagenknecht [213]

  1. #189 
    Son calcados programáticamente. El FO no está con Rusia ni con Israel.
    Evidentemente en Alemania muchos más cerca de Rusia se focalizan más en contra de Rusia. Pero desde luego el FO no es pro-putin.
    Y respecto a Cuba o Venezuela como para no criticarlas...
    Estamos casi de acuerdo en el problema de FO.
    En la izquierda lo consideran fascista. Porque nuestra izquierda es woke.
  1. #183 

    También tienen en VOX un comunista como líder?

El surrealista discurso de Silvia Orriols: "El Estado español quiere aniquilar la raza catalana con inmigrantes conflictivos" [344]

  1. #65 Pero si fue gracias a Junts que estos gobiernan que cojones dices jajajajaja

Éxito en las elecciones europeas del partido de Wagenknecht [213]

  1. #101 

    Pues lee y mira más. Tienen hasta un sindicato. 

El surrealista discurso de Silvia Orriols: "El Estado español quiere aniquilar la raza catalana con inmigrantes conflictivos" [344]

  1. #65 Hay gente de Junts con actitudes similares a esta desde hace décadas. Qué me estás contando.
  1. #66 Oopsie. Perdon. Me pasa constantemente con esta tipa. Como ella es de Vic, mi cerebro asocia con ser alcaldesa de Vic. Pero si, asi es. Es la alcaldesa de Ripoll.

Si Alvise saca un escaño en las elecciones será la prueba palpable de que la construcción de una realidad paralela puede tener éxito cuando un grupo numeroso de personas solo consumen tus mentiras [220]

  1. #180 Es que precisamente el problema es que la socialdemocracia ya no es socialdemocracia. Dicen ser socialdemocratas pero ellos mismos se definen en sus estatutos como "socioliberales". Dicen que son de izquierda pero dejaron de ser socialistas y socialdemocratas hace decadas.

    Ese es el problema de los partidos que se dicen "socialdemocracia": es que no son socialdemocratas, pero eso vende mucho de cara al electorado, como cuando el PSOE sale con "Somos la izquierda"...

    La socialdemocracia en suecia con Olof Palme tuvo un avance espectacular de la sociedad sueca que no serian lo que son hoy sin eso: pero claro, tenian servicios publicos controaldos por el estado, tenian pensiones publicas, tenian vivienda regulada, tenian economia regulada por el estado, fuertes sindicados apoyados por el gobierno... todo eso ya no existe y los herederos de aquello siguen estirando el chicle: "es que como mi abuelo fue socialdemocrata, yo tambien lo soy, asi que votadme".... no mira, tu abuelo fue socialdemocrata y tu eres un puto neoliberal que se esta haciendo pasar por socialdemocrata...

¿Puedes sentir la aceleración? [47]

  1. #38 sin duda, los benchmarks son importantes. Yo desde el principio te dije que mi opinión se basa en la experiencia de usarlos durante el último año, todos los días, y lo que me queda, porque pienso seguir.

    Ahora, también pienso que los benchmarks, si no los puedo reproducir en mi máquina, personalmente los tomo con ciertas reservas. No digo que sean incorrectos, pero soy de los que quieren comprobar terceras afirmaciones.
  1. #35 bueno, honestamente no creo haber dicho que el problema sea insalvable, si no que con la arquitectura de transformadores actuales no parece que llegamos a este ritmo a igualar a un ser humano.

    Según preguntas a gpt4-o, esto responde:

    As of 2024, no large language model (LLM), including the most advanced models like GPT-4, has consistently demonstrated superior logical-mathematical reasoning and common sense compared to a human. Here are some key points and comparisons:

    ### Logical-Mathematical Reasoning

    1. **HumanEval Benchmark**:
    - GPT-4 shows significant improvement in solving programming tasks compared to its predecessors, achieving performance close to human levels on certain coding benchmarks. However, it still makes mistakes that an experienced programmer might not, indicating it hasn't surpassed human capability overall [oai_citation:1,GPT-4 | OpenAI](openai.com/research/gpt-4/) .

    2. **MATH Dataset**:
    - GPT-4 has achieved better results on mathematical problems, yet it still struggles with complex or novel problems that require deeper understanding or innovative solutions [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](aclanthology.org/2024.eacl-long.99/).

    ### Common Sense Reasoning

    1. **Winograd Schema Challenge**:
    - Human performance on the Winograd Schema Challenge is around 95%, while GPT-4's performance is about 68.7%. This indicates that while LLMs are improving, they haven't surpassed human common sense reasoning [oai_citation:3,GPT-4 | OpenAI](openai.com/research/gpt-4/).

    2. *CommonsenseQA*:
    - GPT-4 achieves around 83% accuracy on CommonsenseQA, whereas human performance is generally higher. This further shows that while LLMs are closing the gap, they haven't surpassed humans in common sense reasoning [oai_citation:4,GPT-4 | OpenAI](openai.com/research/gpt-4/).

    ### Current Limitations and Challenges

    1. **Contextual…   » ver todo el comentario
  1. #21 Yo creo que tendrá el mismo impacto que la llegada de los ordenadores a las oficinas.

    Se harán cosas que nunca se pensó que se podrían hacer y la gente aprendió a trabajar con sistemas que ni se les había pasado por la cabeza que un día iban a utilizar.

    Mi padre me contaba que tenían un ordenador PC en una habitación y les dejaban ir 2 horas a la semana por departamento... y él aprendió a hacer virguerías con el lotus 123 que le quitaba muchisimo trabajo de encima!
  1. #33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


    ### Medición del Sentido Común

    1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
    - **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
    - **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
    - **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

    2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
    - *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
    - *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

    3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
    - *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
    - *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

    ### Medición del Razonamiento Lógico-Matemático

    1. **Problemas de Matemáticas**:
    - **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos…   » ver todo el comentario
  1. #29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.
  1. #21 Lo que yo veo es que no está teniendo un gran impacto, es decir, no se está despidiendo de manera masiva a ingenieros por culpa de la IA. Están despidiendo por otros momentos pero no se debe a la eficacia en la IA, de hecho, yo estoy notando que hay una gran reticencia a implantar la IA en producción, y es normal porque para empezar es muy dificil y es muy costosa. Por ahora, he visto al BBVA, a seguros Ocaso, al Santander, a Ericsson, por decirte unos cuantos que conozco de cerca que están explorando la tecnología, vamos, que han conseguido licencias enterprise de openAI y están viendo como integrarlos en sus modelos de negocio.

    Me dicen que cuando se enteran que tendrían que integrar sus datos, que ya tienen en otras nubes de otros proveedores con los sistemas internos de openAI o con Azure, no les gusta demasiado, porque ya de por sí no están muy cómodos con haber perdido el control de los que les hace funcionar. Los datos de los clientes. Los que usan Azure de manera masiva ponen menos problemas, pero otro proveedor más,...

    Una primera aproximación es usar los datos que tienen en el JIRA para tratar de crear un chatbot que ayude en los onboarding, pero como esos datos tienen escasa calidad, se encuentran que hay mucha información inconexa. Culpa del modelo?, yo diría que no, es culpa del estado de los datos, que es un berengenal. Cada tribu ha introducido su manera de hacer no se que historia, algunos usan una versión de un software, otros usan otras versiones, algunos están mejor escritos que otros, por lo que, esos chats generan unos resúmenes muy malos, y poco fiables.

    Otros, han usado gpt con los datos de los pacientes y del vademecum para tratar de crear una herramienta que ayude a los médicos. Como la han hecho de espaldas a los médicos, en cuanto la usan empiezan a sacarle problemas y dejan de usarla. Es lo que ocurre cuando haces algo a espaldas del usuario.

    Otros han hecho soluciones ad hoc con datos de pacientes con algún tipo de cáncer, en plan reconocimiento de imágenes para dar una opinión rápida al médico especialista si ese bultito es maligno o benigno. Esto lo hacen hospitales privados que han encargado este tipo de software. Por lo que me dicen funciona bastante bien, pero como son empresas pequeñitas, están muy limitadas por el hardware del que disponen. También tienen un software que directamente no escala, por lo que tienen ese problema.
  1. #24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

    Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

    Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

    Eso es malo, muy malo.
  1. #27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

    Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

    Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA…   » ver todo el comentario
  1. #24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance
  1. #16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.
  1. #1 ¿Superior a nuestra capacidad de adaptarnos a ella? :-S

    No se de donde sacas eso... es como decir que los teléfonos móviles evolucionaron a una velocidad superior a la que te puedes adaptar...

    No niego que hubo gente que tuvo problemas con el cambio del Nokia 3060 al smartphone, pero la mayoría de la gente se adaptó sin problemas.

    Al igual que harán cuando les digan que no tienen que hacerse costosas pruebas diagnósticas ya que una IA, con una gota de sangre, ya es capaz de identificar la tira de enfermedades.

    La gente se va a adaptar a toda velocidad, igual que se adaptó a las resonancias magnéticas, a los aviones y a las neveras.
  1. #10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

    El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

    Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.
  1. #4 Mientras no resuelvan el tema de las alucinaciones yo me mantendre esceptico
    Luego esta el tema de los costos, que no son para nada despreciables.
    Y para que en 5 años las IAs sean mas inteligentes que cualquier ser humano, primero tendrian que ser inteligentes como un humano., cosa que no son.

    Mucho cuidado con el hype...
« anterior123451409

menéame