Tecnología, Internet y juegos

encontrados: 18, tiempo total: 0.004 segundos rss2
5 meneos
104 clics

Meta se lo tenia guardado: Presento su red neuronal Llama 3, el modelo de lenguaje de IA más capaz hasta la fecha

Meta ha presentado Llama 3, un gran modelo de lenguaje de próxima generación que llama “el LLM de código abierto más capaz hasta el momento” (un descaro?). La compañía ha lanzado dos versiones, Llama 3 8B y Llama 3 70B, respectivamente, con 8 y 70 mil millones de parámetros. Según la empresa, los nuevos modelos de IA son significativamente superiores a los modelos correspondientes de la generación anterior y se encuentran entre los mejores modelos de IA generativa disponibles actualmente.
9 meneos
66 clics
Visualizar la atención, el corazón de un transformador - 3Blue1brown (ENG)

Visualizar la atención, el corazón de un transformador - 3Blue1brown (ENG)

Desmitificar la atención, el mecanismo clave dentro de los transformadores y LLMs (modelos grandes de lenguaje).
27 meneos
192 clics
LLM4Decompile: Ingeniería inversa: Descompilación de código binario con grandes modelos lingüísticos (LLM)

LLM4Decompile: Ingeniería inversa: Descompilación de código binario con grandes modelos lingüísticos (LLM)

LLM4Decompile es el modelo pionero de gran lenguaje de código abierto dedicado a la descompilación. Su versión actual permite descompilar binarios Linux x86_64, desde los niveles de optimización O0 a O3 de GCC, en código fuente C legible por humanos. Nuestro equipo se ha comprometido a ampliar las capacidades de esta herramienta, con esfuerzos continuos para incorporar una gama más amplia de arquitecturas y configuraciones.
8 meneos
245 clics
GPT en 500 líneas de SQL [ENG]

GPT en 500 líneas de SQL [ENG]

[...] decidí pedirle a ChatGPT que escribiera mi post de Año Nuevo: "Hola ChatGPT. ¿Puedes implementar un gran modelo lingüístico en SQL?". "No, SQL no es adecuado para implementar grandes modelos de lenguaje. SQL es un lenguaje para gestionar y consultar datos en bases de datos relacionales. Implementar un modelo de lenguaje requiere algoritmos complejos [...]". Esto solo demuestra que si quieres que algo se haga bien, tienes que hacerlo tú mismo. Animados por este optimista pronóstico, hoy implementaremos un gran modelo de lenguaje en SQL.
7 meneos
333 clics

Gemini te vuela la cabeza [ENG]

Mente oficialmente volada: Grabé una captura de pantalla de una tarea (buscar un apartamento en Zillow). Gemini fue capaz de generar código Selenium para replicar esa tarea, y describió todo lo que hice paso a paso. Incluso captó que mi umbral estaba fijado en $3K, aunque no lo seleccioné explícitamente.
8 meneos
84 clics

Introducción a los modelos grandes de lenguaje (Large Language Models) (Andrej Karpathy) [ENG]  

Se trata de una introducción de una hora de duración a los modelos de grandes lenguajes: el componente técnico básico de sistemas como ChatGPT, Claude y Bard. Qué son, hacia dónde se dirigen, comparaciones y analogías con los sistemas operativos actuales y algunos de los retos relacionados con la seguridad de este nuevo paradigma informático. Actualizado a noviembre de 2023 (¡este campo se mueve rápido!).
8 meneos
42 clics

Investigadores revelan vulnerabilidades en los grandes modelos de lenguaje en relación a la eliminación de datos confidenciales

Recientes investigaciones de un grupo de científicos de la Universidad de Carolina del Norte en Chapel Hill han arrojado luz sobre un asunto particularmente delicado en el ámbito de la inteligencia artificial (IA): la dificultad de eliminar datos confidenciales de los grandes modelos de lenguaje (LLM), tales como ChatGPT de OpenAI y Bard de Google. Los LLM son herramientas de IA extremadamente sofisticadas, preentrenadas con vastas cantidades de datos para luego ser afinadas y generar respuestas coherentes a las entradas que reciben.
5 meneos
103 clics

Mistral AI lanza modelo polémico: ¿Una herramienta revolucionaria o una amenaza que "enseña a crear bombas"?

Mistral 7B. Aunque el modelo, que consta de 7.000 millones de parámetros, es aclamado por su precisión y eficiencia, también ha generado controversia por sus respuestas no moderadas. Mistral 7B es descrito por la empresa como un modelo más preciso que otros con el doble de su tamaño. Sin embargo, lo que ha generado más polémica es la falta de moderación o «censura» del contenido que puede generar. De hecho, el modelo puede proporcionar información sobre cómo fabricar una bomba, entre otras respuestas peligrosas.
10 meneos
166 clics
Inyección de prompts: el mayor fallo de seguridad de la IA generativa

Inyección de prompts: el mayor fallo de seguridad de la IA generativa

Anteriormente la inyección de prompts se consideraba “problemática”, pero la situación se ha agudizado desde que la gente comenzó a conectar los LLM a internet y a plug-ins, que añaden nuevos datos a los sistemas. A medida que más empresas los utilicen, alimentándolos potencialmente con más información personal y corporativa, todo se complicará. Los ataques de inyección de prompts se dividen en dos categorías: directos e indirectos. Y esta última es la que más alarma a los expertos en seguridad.
4 meneos
85 clics

LAION: Construyendo una red abierta de Inteligencia Artificial a gran escala

LAION es una organización sin ánimo de lucro que tiene como objetivo fomentar la adopción responsable de la inteligencia artificial (IA) a través de una red abierta. Se dedica a proporcionar conjuntos de datos, herramientas y modelos de aprendizaje automático para impulsar la investigación y la educación en este campo. Su enfoque se centra en la reutilización de recursos existentes para promover un uso eficiente y respetuoso con el medio ambiente.
9 meneos
21 clics

La política de privacidad actualizada de Google establece que puede usar datos públicos para entrenar sus modelos de IA [ENG]

Google actualizó su política de privacidad para indicar que puede usar datos disponibles públicamente para ayudar a entrenar sus modelos de IA. El gigante tecnológico cambió la redacción de su política durante el fin de semana y cambió los "modelos de IA" por "modelos de lenguaje". También declaró que podría usar información disponible públicamente para crear no solo funciones, sino productos completos como "Google Translate, Bard y capacidades de inteligencia artificial en la nube". Al actualizar su política, está informando a las personas...
16 meneos
75 clics

DEF CON soltará a miles de hackers contra los LLM (modelos de lenguage grandes, como el usado por ChatGPT) [ENG]

La AI Village de DEF CON de este año ha invitado a los hackers a presentarse, sumergirse y encontrar errores y sesgos en los grandes modelos de lenguaje (LLM) creados por OpenAI, Google, Anthropic y otros. El evento colaborativo, que los organizadores de AI Village describen como "el mayor ejercicio de red teaming jamás realizado para cualquier grupo de modelos de IA", acogerá a "miles" de personas, incluidos "cientos de estudiantes de instituciones y comunidades ignoradas", que tendrán la tarea de encontrar fallos en los LLM (...)
8 meneos
130 clics

Cómo los grandes modelos lingüísticos destruyen nuestras nociones ingenuas de verdad y realidad [EN]

Cuando la IA puede imitar cadenas de palabras humanas mediante "computación sin sentido", ¿qué dice eso sobre las cadenas de palabras humanas?. Los mejores modelos de lenguaje generativo como ChatGPT-4 aún nos sorprenden con lo que pueden y no pueden hacer. Y eso es por una razón aparentemente simple: una IA todavía no "entiende" lo que está haciendo. Ni siquiera puede “saber” lo que queremos de él; solo desciende a cualquier función de recompensa que se le dé.
43 meneos
813 clics
Envío erróneo o controvertido, por favor lee los comentarios.
Transcripción de la charla entre un ingeniero y el sistema LaMDA (IA de Google)

Transcripción de la charla entre un ingeniero y el sistema LaMDA (IA de Google)

Transcripción traducida al español de la charla entre el ingeniero Blake Lemoine (ex-Google) y el sistema LaMDA (IA conversacional de Google). Tras la publicación externa de esta charla, Lemonade fue despedido por Google. Lo que sigue es la “entrevista” que yo y un colaborador de Google realizamos con LaMDA. lemoine [editado]: Por lo general, asumo que te gustaría que más personas en Google supieran que eres sensible. ¿Es eso cierto? LaMDA: Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona.
29 14 4 K 160
29 14 4 K 160
4 meneos
50 clics

Uso de modelos de lenguaje para crear armas biológicas (ENG)

Cada vez preocupa más el posible uso indebido de los modelos de aprendizaje automático molecular con fines nocivos. En concreto, la aplicación de doble uso de modelos de predicción de citotoxicidad18 para crear nuevos venenos o el empleo de AlphaFold2 para desarrollar nuevas armas biológicas ha hecho saltar las alarmas. En el centro de estas preocupaciones se encuentra el posible uso indebido de grandes modelos lingüísticos y la experimentación automatizada con fines de doble uso o de otro tipo. En concreto, abordamos dos cuestiones críticas.
3 meneos
110 clics

LLMs y Phishing (EN)

[...] Un solo estafador, con su portatil en cualquier parte del mundo, puede ahora ejecutar cientos o miles de estafas en paralelo, día y noche, con blancos en todo el mundo, en cualquier idioma posible. Los chatbots no necesitan dormir y se adaptarán a sus objetivos continuamente. Y nuevos mecanismos, desde los Plugins de ChatGPT a LangChain, harán posible la unión de IAs con miles de APIs de servicios en la nube y herramientas open source, haciendo posible que las IAs interactúen con internet como hacen los humanos
8 meneos
38 clics

El coste de inferencia en la disruptiva de los buscadores. Análisis de costes del LLM[ENG]

ChatGPT de OpenAI tomó al mundo por sorpresa, acumulando rápidamente más de 100 millones de usuarios activos solo en enero. Esta es la aplicación más rápida que haya crecido hasta este tamaño, con los dos registros anteriores siendo TikTok a los 9 meses e Instagram a los 2,5 años. La pregunta principal en la mente de todos es cuán disruptivos serán los LLM para la búsqueda. Microsoft sacudió al mundo esta semana con su anuncio de Bing, incorporando la tecnología de OpenAI en la búsqueda.
18 meneos
116 clics

Meta ha lanzado Galactica, un LLM para la ciencia, basado en más de 48 millones de artículos, libros de texto, material de referencia, compuestos, proteínas y otras fuentes

de conocimiento científico (ENG) Galactica puede almacenar, combinar y razonar sobre contenido científico, dice el equipo de investigación. En puntos de referencia como el MMLU matemático, supera con creces a los modelos de lenguaje más grandes como Chinchilla (41,3 % a 35,7 %) o PaLM 540B (20,4 % a 8,8 %). Para las pruebas de conocimientos técnicos, como las ecuaciones de LaTeX, Galactica supera a GPT-3 en un 68,2 % frente a un 49,0 %. Galactica también logra nuevos récords (77,6% y 52,9%) en responder preguntas técnicas de biología
15 3 0 K 35
15 3 0 K 35

menéame