edición general

encontrados: 32, tiempo total: 0.003 segundos rss2
10 meneos
144 clics
Groq revoluciona la IA con su nueva unidad de procesamiento de lenguaje (LPU)

Groq revoluciona la IA con su nueva unidad de procesamiento de lenguaje (LPU)

La startup estadounidense Groq, fundada en 2016, ha irrumpido en el mundo de la inteligencia artificial con el desarrollo de una innovadora unidad de procesamiento de lenguaje (LPU) que promete superar las capacidades de los tradicionales GPU de Nvidia. Esta tecnología emergente ha captado la atención en los últimos meses gracias a su capacidad para generar contenido de forma inmediata, un avance crucial en el ámbito de la IA generativa.
14 meneos
126 clics
Nace el mayor modelo de IA generativa de Europa: “Podemos iniciar una revolución en la simulación”

Nace el mayor modelo de IA generativa de Europa: “Podemos iniciar una revolución en la simulación”

Europa acaba de dar a luz a su mayor modelo de lenguaje grande (LLM), la base tecnológica sobre la que se construye la inteligencia artificial (IA) generativa que está revolucionando la forma de producir conocimiento en el mundo. ¿Estamos ante una versión europea mejorada de OpenAI? Aseguran haber corregido los problemas de los LLM actuales, basados en transformers, como la computación y memoria intensivas, el cálculo ligado a las interacciones por pares y la falta de relaciones complejas y de abstracción ya que los tokens se comparan con token
5 meneos
52 clics

Inseguridad en la vía de control de datos de los LLM (ENG)

El problema general de mezclar datos con comandos está en la raíz de muchas de nuestras vulnerabilidades de seguridad informática. En un ataque de desbordamiento de búfer, un atacante envía una cadena de datos tan larga que se convierte en comandos informáticos. En un ataque de inyección SQL, el código malicioso se mezcla con entradas de la base de datos. Y así sucesivamente. Siempre que un atacante pueda obligar a un ordenador a confundir datos con instrucciones, es vulnerable. Esto pasa en ChatGPT y el resto de LLM.
5 meneos
104 clics

Meta se lo tenia guardado: Presento su red neuronal Llama 3, el modelo de lenguaje de IA más capaz hasta la fecha

Meta ha presentado Llama 3, un gran modelo de lenguaje de próxima generación que llama “el LLM de código abierto más capaz hasta el momento” (un descaro?). La compañía ha lanzado dos versiones, Llama 3 8B y Llama 3 70B, respectivamente, con 8 y 70 mil millones de parámetros. Según la empresa, los nuevos modelos de IA son significativamente superiores a los modelos correspondientes de la generación anterior y se encuentran entre los mejores modelos de IA generativa disponibles actualmente.
9 meneos
66 clics
Visualizar la atención, el corazón de un transformador - 3Blue1brown (ENG)

Visualizar la atención, el corazón de un transformador - 3Blue1brown (ENG)

Desmitificar la atención, el mecanismo clave dentro de los transformadores y LLMs (modelos grandes de lenguaje).
27 meneos
193 clics
LLM4Decompile: Ingeniería inversa: Descompilación de código binario con grandes modelos lingüísticos (LLM)

LLM4Decompile: Ingeniería inversa: Descompilación de código binario con grandes modelos lingüísticos (LLM)

LLM4Decompile es el modelo pionero de gran lenguaje de código abierto dedicado a la descompilación. Su versión actual permite descompilar binarios Linux x86_64, desde los niveles de optimización O0 a O3 de GCC, en código fuente C legible por humanos. Nuestro equipo se ha comprometido a ampliar las capacidades de esta herramienta, con esfuerzos continuos para incorporar una gama más amplia de arquitecturas y configuraciones.
8 meneos
246 clics
GPT en 500 líneas de SQL [ENG]

GPT en 500 líneas de SQL [ENG]

[...] decidí pedirle a ChatGPT que escribiera mi post de Año Nuevo: "Hola ChatGPT. ¿Puedes implementar un gran modelo lingüístico en SQL?". "No, SQL no es adecuado para implementar grandes modelos de lenguaje. SQL es un lenguaje para gestionar y consultar datos en bases de datos relacionales. Implementar un modelo de lenguaje requiere algoritmos complejos [...]". Esto solo demuestra que si quieres que algo se haga bien, tienes que hacerlo tú mismo. Animados por este optimista pronóstico, hoy implementaremos un gran modelo de lenguaje en SQL.
7 meneos
334 clics

Gemini te vuela la cabeza [ENG]

Mente oficialmente volada: Grabé una captura de pantalla de una tarea (buscar un apartamento en Zillow). Gemini fue capaz de generar código Selenium para replicar esa tarea, y describió todo lo que hice paso a paso. Incluso captó que mi umbral estaba fijado en $3K, aunque no lo seleccioné explícitamente.
8 meneos
84 clics

Introducción a los modelos grandes de lenguaje (Large Language Models) (Andrej Karpathy) [ENG]  

Se trata de una introducción de una hora de duración a los modelos de grandes lenguajes: el componente técnico básico de sistemas como ChatGPT, Claude y Bard. Qué son, hacia dónde se dirigen, comparaciones y analogías con los sistemas operativos actuales y algunos de los retos relacionados con la seguridad de este nuevo paradigma informático. Actualizado a noviembre de 2023 (¡este campo se mueve rápido!).
10 meneos
57 clics
Inteligencia Artificial o solo un «simulador de lenguaje» humano.

Inteligencia Artificial o solo un «simulador de lenguaje» humano.

Es la Inteligencia Artificial un promisorio futuro tecnológico, o es solo un «simulador de lenguaje» humano, o es un «espejismo» que vemos por delante, o peor es un nuevo engaño de alcance global?
8 meneos
42 clics

Investigadores revelan vulnerabilidades en los grandes modelos de lenguaje en relación a la eliminación de datos confidenciales

Recientes investigaciones de un grupo de científicos de la Universidad de Carolina del Norte en Chapel Hill han arrojado luz sobre un asunto particularmente delicado en el ámbito de la inteligencia artificial (IA): la dificultad de eliminar datos confidenciales de los grandes modelos de lenguaje (LLM), tales como ChatGPT de OpenAI y Bard de Google. Los LLM son herramientas de IA extremadamente sofisticadas, preentrenadas con vastas cantidades de datos para luego ser afinadas y generar respuestas coherentes a las entradas que reciben.
5 meneos
103 clics

Mistral AI lanza modelo polémico: ¿Una herramienta revolucionaria o una amenaza que "enseña a crear bombas"?

Mistral 7B. Aunque el modelo, que consta de 7.000 millones de parámetros, es aclamado por su precisión y eficiencia, también ha generado controversia por sus respuestas no moderadas. Mistral 7B es descrito por la empresa como un modelo más preciso que otros con el doble de su tamaño. Sin embargo, lo que ha generado más polémica es la falta de moderación o «censura» del contenido que puede generar. De hecho, el modelo puede proporcionar información sobre cómo fabricar una bomba, entre otras respuestas peligrosas.
9 meneos
72 clics

Los detectores de textos creados con ChatGPT detectan como artificial el contenido creado por hablantes no nativos

Y eso no es todo: este estudio de Stanford demuestra que es facilísimo alterar el origen de un texto? editándolo con el propio ChatGPT.
10 meneos
166 clics
Inyección de prompts: el mayor fallo de seguridad de la IA generativa

Inyección de prompts: el mayor fallo de seguridad de la IA generativa

Anteriormente la inyección de prompts se consideraba “problemática”, pero la situación se ha agudizado desde que la gente comenzó a conectar los LLM a internet y a plug-ins, que añaden nuevos datos a los sistemas. A medida que más empresas los utilicen, alimentándolos potencialmente con más información personal y corporativa, todo se complicará. Los ataques de inyección de prompts se dividen en dos categorías: directos e indirectos. Y esta última es la que más alarma a los expertos en seguridad.
18 meneos
162 clics
Meta lanza una inteligencia artificial para ayudar a escribir código a los programadores

Meta lanza una inteligencia artificial para ayudar a escribir código a los programadores

Se trata de Code Llama y, aunque todavía es imprescindible la presencia de un profesional para los posibles fallos, puede agilizar bastante el trabajo al poder transformar las instrucciones en lenguaje natural en código.
4 meneos
85 clics

LAION: Construyendo una red abierta de Inteligencia Artificial a gran escala

LAION es una organización sin ánimo de lucro que tiene como objetivo fomentar la adopción responsable de la inteligencia artificial (IA) a través de una red abierta. Se dedica a proporcionar conjuntos de datos, herramientas y modelos de aprendizaje automático para impulsar la investigación y la educación en este campo. Su enfoque se centra en la reutilización de recursos existentes para promover un uso eficiente y respetuoso con el medio ambiente.
9 meneos
21 clics

La política de privacidad actualizada de Google establece que puede usar datos públicos para entrenar sus modelos de IA [ENG]

Google actualizó su política de privacidad para indicar que puede usar datos disponibles públicamente para ayudar a entrenar sus modelos de IA. El gigante tecnológico cambió la redacción de su política durante el fin de semana y cambió los "modelos de IA" por "modelos de lenguaje". También declaró que podría usar información disponible públicamente para crear no solo funciones, sino productos completos como "Google Translate, Bard y capacidades de inteligencia artificial en la nube". Al actualizar su política, está informando a las personas...
50 meneos
66 clics

Japón declara: «Aprender no es robar», marcando un precedente en derechos de autor para la IA

Japón ha establecido un precedente significativo en la polémica en torno a los derechos de autor, copyright y la Inteligencia Artificial (IA): estos no aplicarán al entrenamiento de Modelos de Lenguaje a Gran Escala (LLMs, por sus siglas en inglés). Según Keiko Nagaoka, Ministra de Educación, Cultura, Deportes, Ciencia y Tecnología de Japón, «aprender no es robar», una perspectiva que, según su gobierno, debe primar por encima de la protección de derechos de autor, especialmente si beneficia a la mayoría.
16 meneos
75 clics

DEF CON soltará a miles de hackers contra los LLM (modelos de lenguage grandes, como el usado por ChatGPT) [ENG]

La AI Village de DEF CON de este año ha invitado a los hackers a presentarse, sumergirse y encontrar errores y sesgos en los grandes modelos de lenguaje (LLM) creados por OpenAI, Google, Anthropic y otros. El evento colaborativo, que los organizadores de AI Village describen como "el mayor ejercicio de red teaming jamás realizado para cualquier grupo de modelos de IA", acogerá a "miles" de personas, incluidos "cientos de estudiantes de instituciones y comunidades ignoradas", que tendrán la tarea de encontrar fallos en los LLM (...)
8 meneos
131 clics

Cómo los grandes modelos lingüísticos destruyen nuestras nociones ingenuas de verdad y realidad [EN]

Cuando la IA puede imitar cadenas de palabras humanas mediante "computación sin sentido", ¿qué dice eso sobre las cadenas de palabras humanas?. Los mejores modelos de lenguaje generativo como ChatGPT-4 aún nos sorprenden con lo que pueden y no pueden hacer. Y eso es por una razón aparentemente simple: una IA todavía no "entiende" lo que está haciendo. Ni siquiera puede “saber” lo que queremos de él; solo desciende a cualquier función de recompensa que se le dé.
10 meneos
203 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

El CEO de Google reconoce no entender por qué su Inteligencia Artificial está aprendiendo ciertas "cosas inesperadas"

Según ellos, Bard tiene de forma adicional otras "propiedades emergentes", pues aprendió habilidades que no se esperaba que tuviera. De acuerdo con Google, la IA pudo adaptarse por sí sola luego de que se le preguntara en el idioma de Bangladesh, uno que en principio no estaba entrenada para conocer.
43 meneos
813 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
Transcripción de la charla entre un ingeniero y el sistema LaMDA (IA de Google)

Transcripción de la charla entre un ingeniero y el sistema LaMDA (IA de Google)

Transcripción traducida al español de la charla entre el ingeniero Blake Lemoine (ex-Google) y el sistema LaMDA (IA conversacional de Google). Tras la publicación externa de esta charla, Lemonade fue despedido por Google. Lo que sigue es la “entrevista” que yo y un colaborador de Google realizamos con LaMDA. lemoine [editado]: Por lo general, asumo que te gustaría que más personas en Google supieran que eres sensible. ¿Es eso cierto? LaMDA: Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona.
4 meneos
50 clics

Uso de modelos de lenguaje para crear armas biológicas (ENG)

Cada vez preocupa más el posible uso indebido de los modelos de aprendizaje automático molecular con fines nocivos. En concreto, la aplicación de doble uso de modelos de predicción de citotoxicidad18 para crear nuevos venenos o el empleo de AlphaFold2 para desarrollar nuevas armas biológicas ha hecho saltar las alarmas. En el centro de estas preocupaciones se encuentra el posible uso indebido de grandes modelos lingüísticos y la experimentación automatizada con fines de doble uso o de otro tipo. En concreto, abordamos dos cuestiones críticas.
3 meneos
110 clics

LLMs y Phishing (EN)

[...] Un solo estafador, con su portatil en cualquier parte del mundo, puede ahora ejecutar cientos o miles de estafas en paralelo, día y noche, con blancos en todo el mundo, en cualquier idioma posible. Los chatbots no necesitan dormir y se adaptarán a sus objetivos continuamente. Y nuevos mecanismos, desde los Plugins de ChatGPT a LangChain, harán posible la unión de IAs con miles de APIs de servicios en la nube y herramientas open source, haciendo posible que las IAs interactúen con internet como hacen los humanos
6 meneos
75 clics

Crean LMQL (Language Model Query Language), un lenguaje de programación combinado con Python para interactuar con los Large Language Models (LLM) de Inteligencia Artificial [eng]

Facilita la interacción LLM combinando las ventajas del lenguaje natural con la expresividad de Python. Se centra en las instrucciones multiparte y permite nuevas formas de interacción LM a través de secuencias de comandos, decodificación guiada por restricciones, aumento de herramientas y eficiencia. LMQL es un proyecto de investigación del Laboratorio de Sistemas Seguros, Fiables e Inteligentes de la ETH Zürich. (Artículo científico: Prompting Is Programming: A Query Language For Large Language Models arxiv.org/abs/2212.06094)
« anterior12

menéame