Tecnología, Internet y juegos

encontrados: 89, tiempo total: 0.004 segundos rss2
27 meneos
175 clics
SER Podcast:  Juan José Millás: "¿Será que la Inteligencia Artificial se hace la tonta?"

SER Podcast: Juan José Millás: "¿Será que la Inteligencia Artificial se hace la tonta?"  

Juanjo Millás ha cambiado de caldera, es un aparato inteligente pero no tanto como los chats de texto como GPT o Redacta.me que son capaces de escribir un artículo, incluso inventarlo perfectamente redactado. Marc Caralps, jefe de tecnología de Redacta.me nos explica cómo.
22 5 1 K 190
22 5 1 K 190
160 meneos
1929 clics
GPT-4 podría ver la luz a principios de 2023, 500 veces más potente que GPT-3

GPT-4 podría ver la luz a principios de 2023, 500 veces más potente que GPT-3

GPT-4 (Generative Pre-trained Transformer 4) es un modelo de lenguaje creado por OpenAI. Es uno de los modelos de lenguaje más grandes y avanzados disponibles en la actualidad, aunque no es público. GPT-3 cuenta con un tamaño de 175 mil millones de parámetros, y se está estimando que el GPT-4 tendrá un tamaño 500 veces mayor que GPT-3.
84 76 1 K 323
84 76 1 K 323
7 meneos
158 clics

Chat-GPT y la automatización del trabajo

(...) Muchos han vaticinado que Chat-GPT pronto automatizará su trabajo, así como el de programador, editor, novelista, agente de viajes, copywriter, agente de seguros, asistente personal, secretario médico, recepcionista, vendedor, manager de márketing, etc… (la lista de oficios fue producida por una respuesta de Chat-GPT cuando fue preguntado por los trabajos que podría automatizar completa o parcialmente).
27 meneos
257 clics
¿Qué es OPT-175B (alpa)? La alternativa de código abierto a chatGPT y GPT-3

¿Qué es OPT-175B (alpa)? La alternativa de código abierto a chatGPT y GPT-3

Alpa es un sistema de código abierto para el entrenamiento y el servido de redes neuronales a gran escala. Alpa tiene como objetivo automatizar el entrenamiento y el servido distribuido a gran escala con solo unas pocas líneas de código. Alpa fue desarrollado inicialmente por personas en el Sky Lab, UC Berkeley. Algunas técnicas avanzadas utilizadas en Alpa se han escrito en un artículo publicado en OSDI 2022. La comunidad de Alpa está creciendo con nuevos contribuyentes de Google, Amazon, AnyScale y más.
20 7 0 K 168
20 7 0 K 168
4 meneos
176 clics

Tutorial sobre cómo darte de alta y dar órdenes a Chat GPT

Tutorial que enseña cómo crear una cuenta de Open AI de Chat GPT gratuita y la realización de preguntas complejas para obtener respuestas: realización de listados, resolución de ecuaciones, creación de cuentos, rsúmenes de libros, consultas complejas sobre situaciones concretas, que cuente un chiste o creación de un código HTML para una página web simple
3 1 8 K -21
3 1 8 K -21
5 meneos
46 clics

La historia de Internet y sus inicios contada por una inteligencia artificial

Una IA cuenta la historia de internet se remonta a la década de 1960, cuando se desarrolló una red de computadoras llamada ARPANET por parte del Departamento de Defensa de Estados Unidos. El objetivo de esta red era mejorar la comunicación entre distintos laboratorios y universidades, de forma que si uno de ellos sufría un ataque o un fallo, las comunicaciones no se verían afectadas.
7 meneos
47 clics

OpenAI actualiza la GPT-3- sorprende con la capacidad de hacer poesía con rimas y letras [ENG]

El lunes, OpenAI anunció un nuevo modelo de la familia GPT-3 de modelos lingüísticos de gran tamaño impulsados por la IA, text-davinci-003, que supuestamente mejora a sus predecesores al manejar instrucciones más complejas y producir contenidos más largos. Casi inmediatamente se descubrió que también podía generar canciones con rima, limericks y poesía a un nivel que GPT-3 no podía producir anteriormente.
17 meneos
237 clics

He entrenado una IA con las entradas de mi diario de la infancia para poder entablar un diálogo en tiempo real con mi "niño interior" [ENG]

Usé el GPT-3 como campo de juego, y terminé tomando muestras de texto de un montón de entradas diferentes que me parecieron representativas de mi personalidad y valores durante ese tiempo. De esta manera, podría simular con precisión cómo sería hablar con mi yo de la infancia, según fuentes de datos reales durante ese período de tiempo en vez de tratar de imaginar cómo era mi yo más joven, y correr el riesgo de sesgo de las proyecciones de mi yo actual.
14 3 2 K 56
14 3 2 K 56
254 meneos
7438 clics
La prueba

La prueba

"¿He vuelto a fallar?” Dije en voz alta. “¿Cómo ha podido pasar?” Mi compañera se rió de mí. Siempre ha sido buena en ese aspecto. “No eres mejor que nadie, y lo sabes”. “Pero lo soy”. “No lo eres. Sólo tienes más conocimientos sobre ciertas materias. Tus resultados en las dos primeras pruebas no fueron lo suficientemente buenos como para aprobar, pero tienes que ser capaz de manejar la conversación también.” “¿Qué quieres decir?”
150 104 1 K 324
150 104 1 K 324
7 meneos
142 clics

Ataques de inyección de prompt contra GPT-3 [ENG]

Esto no es sólo un interesante truco académico: es una forma de explotación de la seguridad. El nombre obvio para esto es inyección de prompt. ¿Por qué es importante? GPT-3 ofrece una API de pago. Esa API ya está siendo utilizada por personas para construir software personalizado que utiliza GPT-3 bajo el capó. Una cosa sorprendente de trabajar con GPT-3 de esta manera es que el propio prompt se convierte en IP importante. No es difícil imaginar futuras empresas para las que la salsa secreta de su producto sea un prompt cuidadosamente [...]
8 meneos
50 clics

El nuevo modelo de lenguaje de Amazon superó al GPT-3 de OpenAI y al PaLM de Google en varios puntos de referencia de NLP (Inglés)

A diferencia de GPT-3 de OpenAI o PaLM de Google, que son modelos solo con decodificador, AlexaTM 20B es un modelo seq2seq que contiene un codificador y un decodificador que permiten un mejor rendimiento en la traducción automática (MT) y el resumen. El modelo de secuencia a secuencia es una clase especial de arquitectura de red neuronal recurrente, que generalmente se usa para resolver problemas de lenguaje complejos, incluida la traducción automática, la creación de chatbots, la respuesta a preguntas, el resumen de texto, etc.
170 meneos
2661 clics
Un generador de fórmulas de hojas de cálculo «explicándolas» en lenguaje natural que utiliza la inteligencia artificial de GPT-3

Un generador de fórmulas de hojas de cálculo «explicándolas» en lenguaje natural que utiliza la inteligencia artificial de GPT-3

El Excel Formula Bot es un invento digno de admiración, porque la idea es preciosa, un uso de la inteligencia artificial para algo realmente útil a diario. En vez de tener que volverte loco en Excel mirando la Ayuda o probando funciones y chequeando las referencias para hacer que una fórmula haga algo, este «bot inteligente» es capaz de crear una fórmula de Excel partir de una frase escrita en lenguaje natural. No más «=BUSCARV(A7; A2:B5; 2; FALSO)» y más «Si alguna celda de la columna A coincide con la celda B multiplicar C por D5 y dividirlo
92 78 0 K 524
92 78 0 K 524
12 meneos
181 clics

DotCsv clona su personalidad en GPT-3

El divulgador de inteligencia artificial, hizo "fine-tuning" a GPT-3 re-entrenándole con todos los guiones de sus vídeos en los que habla sobre inteligencia artificial. Después mantiene una charla con su clon sobre cual de los dos es el real. (link directo pbs.twimg.com/media/FU0i5cjXEAIW-El?format=png&name=4096x4096 )
11 1 1 K 17
11 1 1 K 17
122 meneos
5601 clics
Envío erróneo o controvertido, por favor lee los comentarios.
Usó GPT-3 para dar "vida" a un microondas que consideraba su amigo imaginario. Todo fue bien hasta que quiso matarle

Usó GPT-3 para dar "vida" a un microondas que consideraba su amigo imaginario. Todo fue bien hasta que quiso matarle

Lucas Rizzotto, más conocido como Lucas Builds The Future en YouTube, le ha dado 'vida' a su microondas por medio de GPT-3. Con la ayuda de este modelo de lenguaje, este creador de contenido ha entrenado a la IA con un documento de unas 100 páginas, dándole el contexto necesario y explicándole a esta inteligencia artificial que el microondas es en realidad un amigo imaginario que tuvo Rizzotto en su infancia. La historia sin embargo cobró un giro totalmente inesperado, ya que el microondas 'renació' con intenciones poco amigables.
65 57 13 K 329
65 57 13 K 329
16 meneos
118 clics

Copilot ya "pica" el 30% del nuevo código que llega a GitHub, y a partir de ahora soporta lenguajes como Java

Para qué programar algo cuando una máquina lo puede hacer por ti (bastante bien). Ese es el principio básico de Copilot, la herramienta de inteligencia artificial de GitHub que "autocompleta" fragmentos de código y es capaz de "picar código" de forma autónoma. Esta singular idea está teniendo un éxito claro en GitHub: sus responsables indican que el 30% de todo el nuevo código que llega a su plataforma está escrita por Copilot, y ese porcentaje probablemente irá a más.
4 meneos
93 clics

Una obra de teatro escrita por una inteligencia artificial

Cuando se le pidió que produjera ideas para un guion, GPT-3 devolvió una selección variada de respuestas, pero dos en particular llamaron la atención del equipo. La primera fue una narrativa de arrepentimiento sobre «una inversión de nuestro rumbo actual hacia el caos», la segunda una exploración de «la creación de la personalidad y los recuerdos humanos» y cómo estos conceptos podrían manifestarse en las máquinas. Cuando los artistas le pidieron que diseñara escenas sobre estos temas, GPT-3 creó un evento catastrófico...
7 meneos
225 clics

Entrevista post-mortem a Freddie Mercury en base a algoritmo de IA (GPT-J-6B) [EN]  

Entrevista generada por un algoritmo de IA (accesible en htttps://6.eleuther.ai). La entrevista está editada en el sentido de se muestra una selección de las respuestas. Estas, y también muchas de las preguntas, se producen automáticamente por el algoritmo. La voz se genera también con otro script: RealTimeVoiceCloning.ipynb. Más detalles al inicio del vídeo.
137 meneos
4084 clics
Así es Github Copilot, un sistema que se nutre del prodigioso GPT-3

Así es Github Copilot, un sistema que se nutre del prodigioso GPT-3

¿Puede una máquina programar sola? La respuesta hasta no hace mucho era un rotundo no, pero eso ya no es tan cierto, y lo demuestra GitHub Copilot, un sistema capaz de generar código de forma autónoma y ayudar así a los desarrolladores a ahorrar tiempo y ser más eficientes. Varios desarrolladores españoles dan su opinión.
68 69 2 K 355
68 69 2 K 355
10 meneos
523 clics

Piden a GPT-3 que compre unos AirPods: una fascinante demo para apreciar cómo la IA se mueve entre distintas páginas web

La propuesta es sencilla. La IA tiene acceso al navegador como lo podríamos tener nosotros. Es decir, tiene un cursor y se mueve por las distintas webs como lo haríamos nosotros con el ratón. Una demo muy sencilla que permite observar cómo entiende la IA internet, en qué elementos se detiene de las distintas páginas web y dónde se queda encallada.
9 meneos
40 clics

OpenAI afirma haber mitigado el sesgo del lenguaje GPT-3 con una orientación hacia “los valores”

OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el “comportamiento” de los modelos lingüísticos con respecto a los valores éticos, morales y sociales del lenguaje GPT-3 que la misma firma desarrolló. ¿A qué se traduce esto? Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.
15 meneos
152 clics

China desvela el modelo de aprendizaje profundo más grande de la historia: 10 veces mayor que GPT-3 de Open AI

GPT-3 de Open IA causó revuelo hace unos meses cuando impresionó al mundo por sus capacidades para generar contenido. Con 175 millones de parámetros GPT-3 parecía una auténtica bestia, ahora un nuevo modelo de aprendizaje profundo chino hace eso y más gracias a sus 1750 millones de parámetros. La Academia de Inteligencia Artificial de Beijing (BAAI) dio a conocer la versión más reciente de su modelo de aprendizaje profundo preentrenado en un evento sobre IA en Beijing, conocido como Wudao (significa “comprensión de las leyes naturales”).
13 2 0 K 47
13 2 0 K 47
4 meneos
162 clics

GPT-3, La tecnología que envidian Alexa y Google Home – IA para novatos  

En el mundo de la Inteligencia artificial existe un campo especialmente competitivo en el que los grandes gigantes tecnológicos como Google y Amazon invierten mucho dinero y desean encontrar el
10 meneos
115 clics

El nuevo modelo de lenguaje de IA de billones de parámetros de Google es casi 6 veces más grande que GPT-3 (ENG)

Un trío de investigadores del equipo de Google Brain reveló recientemente la próxima gran novedad en los modelos de lenguaje de IA: un enorme sistema transformador de un billón de parámetros. El siguiente modelo más grande que existe, hasta donde sabemos, es el GPT-3 de OpenAI, que utiliza unos miserables 175 mil millones de parámetros.
147 meneos
2751 clics
La inteligencia artificial de OpenAI ya genera imágenes de la nada a partir de un texto que describa lo que queramos ver

La inteligencia artificial de OpenAI ya genera imágenes de la nada a partir de un texto que describa lo que queramos ver

OpenAI, una de las entidades que más avances está haciendo en el ámbito de la inteligencia artificial ahora mismo, tiene dos nuevas IAs. DALL-E y CLIP son capaces de encontrar asociaciones entre conceptos visuales y textuales a partir de miles de millones de parámetros GPT-3. ¿Resultado? Le pedimos una habitación con una cama blanca y una pecera y nos crea varias imágenes con una habitación con una cama blanca y una pecera. OpenAI ha anunciado la creación de dos sistemas de inteligencia artificial multimodal.
87 60 0 K 346
87 60 0 K 346
16 meneos
184 clics

Machine Learning 2020: 84 artículos interesantes [ENG]

En este artículo presento un total de 84 trabajos y artículos publicados en 2020 que me han parecido especialmente interesantes. Resumen y 11 temas: 1.Image/video classification tasks; 2.Unsupervised learning / self-supervised learning; 3.Natural language processing; 4.Sparse model / Model compression / inference speedup; 5.Optimization/ loss function/ data augmentations; 6.Deep fake; 7.Generative models; 8.Machine learning with natural sciences; 9.Analysis of deep learning;

menéame