Tecnología, Internet y juegos

encontrados: 5, tiempo total: 0.004 segundos rss2
1 meneos
 

Patentaron un software que permitirá “dialogar” con personas fallecidas

El gigante tecnológico Microsoft obtuvo una patente para crear chatbots basados en personas fallecidas utilizando su información personal, como “imágenes, grabaciones de voz, publicaciones en redes sociales, mensajes electrónicos”, entre otros datos.
1 0 2 K -26
1 0 2 K -26
2 meneos
9 clics

¿Chatbots de hoy cerebros digitales de mañana?

Se está avanzando mucho con los chatbots y parece que viene algo grande con estas interesantes tecnologías, pero ... ¿Estamos preparados para ello? Uno de los chatbots no comerciales llamado Tay tuvo que ser apagado al tener interacciones con usuarios en los que aprendía de ellos, y esto hizo que terminara utilizando comentarios racistas y xenofobos a otros usuarios.
2 0 7 K -46
2 0 7 K -46
20 meneos
479 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Microsoft Tay: Internet no es apto para ingenuos

Y a este mundo cruel se lanzó sin paracaídas Tay, una robot con inteligencia artificial, la hija predilecta, la primogénita del emperador Microsoft. En sólo dieciséis horas los trolls la despedazaron usando sus clavos envenenados con sangre contagiosa y ácido, hundiéndola en la depresión y la vergüenza.
16 4 5 K 42
16 4 5 K 42
11 meneos
228 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

El robot de Microsoft vuelve a pifiarla: dice en Twitter que fuma hierba delante de policías

Microsoft volvió a conectar online a su robot con inteligencia artificial durante un corto período de tiempo el miércoles por la mañana. El robot, llamado "Tay," había sido desconectado por el gigante de la tecnología el pasado viernes después de protagonizar en Twitter una diatriba mordaz y racista. Pero en su breve y polémico regreso a Twitter aseguró que estaba fumando marihuana frente a un policía, y luego empezó a repetir con desenfreno ante sus más de 210.000 seguidores "eres demasiado rápido, por favor toma un descanso".
8 meneos
121 clics

Microsoft desactiva su prueba de inteligencia artificial porque aprendió a ser racista

AAyer os hablamos de Tay, un sistema de inteligencia artificial que Microsoft había lanzado para permitir la interacción con la raza humana vía diversos canales, incluyendo Twitter. El problema es que los profesores no han sido tan buenos como se esperaba… con pocas horas de funcionamiento Tay comenzó a hacer comentarios racistas, y poco después fueron eliminados los tweets polémicos y el robot fue desactivado con un mensaje de despedida. Desde mensajes comentando el trabajo realizado por Hitler, hasta asuntos relacionados con el 11-S.
6 2 15 K -139
6 2 15 K -139

menéame