#68 si lo que quieres hacer es hacerle preguntas a la IA sobre el contenido de los ficheros, eso se puede hacer con RAG (Retrieval Augmented Generation), aquí un tutorial python.langchain.com/docs/tutorials/rag/. Y no necesitas hacerle fine tunning al modelo.
Flowise es una herramienta que puedes instalar en local que dispone de un canvas para crear chatbots y que tiene un marketplace para compartir los chatbots generados por los usuarios, pero no se si tendrá alguno que haga lo que indicas: github.com/FlowiseAI/Flowise
#33 realmente hay que diferenciar los modelos de IA de los chatbots. No es lo mismo GPT (el modelo) que chatGPT (el chatbot).
El modelo de IA es solo un fichero binario que por si solo no hace nada.
El chatbot es un software que hace de intermediario entre el usuario y uno o varios modelos de IA.
El software es el encargado de ir guardando los mensajes de la conversación (tanto la del usuario como la del modelo), y enviárselo a la IA cada vez que el usuario envía un nuevo mensaje, si no la IA no tendría ni puta idea de qué coño le has preguntado antes. Esto es a lo que se le llama "contexto".
Los LLMs al final no hacen mucho, simplemente te devuelven una respuesta en lenguaje natural en base al contexto que le hayas pasado. Por si solos no se conectan a internet, no se conectan a bases de datos, no te ponen música, no piensan, no razonan, solo complementan la frase (el contexto) que le hayas pasado.
Pongo un ejemplo: disponemos de un código en C que transforma un mensaje de texto y lo convierte en señales de radio usando el protocolo OOK que es sencillito. Esta señal es un conjunto de ceros y unos que enviado a un modulito de radio emite la señal.
Ahora le decimos a chatGPT, copilot, etc., que queremos que nos convierta ese código en código en Python. ¿Qué hará el modelo? Pues convertirte el código de C a Python. Ya está. ¿Y esto es correcto? No, Python no sirve para enviar señales de radio por que su recolector de basura bloquea la ejecución del hilo haciendo que el mensaje de radio no se envíe correctamente. Esto al modelo se la suda, como le has pedido que convierta el código, él lo convierte y tan feliz, simplemente no sabe de qué coño va el código, aunque se lo expliques.
Ahora mismo los chatbots están utilizando el patrón de supervisor y agentes. El supervisor no deja de ser una llamada a un modelo LLM al que se le ha indicado que tiene X agentes (otros modelos o el mismo con otros prompts), y que su labor es planificar y ejecutar lo que el… » ver todo el comentario
#11 Lo siento pero no, no tenemos AGIs (Inteligencia Artificial General). Seguimos teniendo IAs específicas (LLMs, generación de imágenes, generación de vídeo, solo una cosa a la vez), por mucho que algunas empresas, youtubers y streamers quieran vendernos lo contrario.
Luego están los modelos multimodales (video, audio, texto), pero es algo muy reciente, y no son AGIs.
#8 Al menos las versiones anteriores si puedes ejecutarlas en local por lo que veo en el LM Studio, pero vas a necesitar más de 600GB de RAM (si tiras de CPU) o de VRAM si lo usas con GPUs (mucho mejor que usar la CPU), como unas 8 Nvidia H100, que cada una tiene 80GB de VRAM.
Con el tiempo seguro que saldrán versiones de este modelo que requieran menos recursos, tanto creados por la misma empresa como por parte de algunos usuarios.
#1 “El perfil típico del autor no ha cambiado”, continúa Beauvau. El 82% de los autores de asesinatos conyugales son hombres, de nacionalidad francesa y sin actividad profesional. El 65% de ellos tenía entre 30 y 59 años cuando cometió el hecho. Un tercio de los asesinos se encontraban bajo los efectos del alcohol en el momento del crimen. www.leparisien.fr/societe/profil-des-victimes-mode-operatoire-ce-que-d
El informe está enlazado en la noticia del Le Parisien.
#5 Ante una explosión de una bomba atómica, lo que menos debería preocuparte es la radiación, pues esta se disipa a los pocos minutos/horas de la explosión. Hay estudios sobre Hirosima y Nagasaki al respecto en internet. Y también noticias al respecto: www.bbc.com/mundo/noticias-53604530
Lo que sí debería preocuparte es lo que viene después, ya que al estar todo destruido, los supervivientes no tendrán, ni comida, ni agua, ni electricidad, transporte, telecomunicaciones, etc. Como en la zona de las inundaciones de Valencia.
#12 Pues te vas a perder la siguiente fase de la reforma de la parcela. A no ser que sea otro canal.
La verdad es que tanto los streamers como los youtubers con tal de obtener visualizaciones se meten en unos temas que no controlan y que luego les pasa factura (en algunos casos literalmente), en vez de centrarse solamente en lo que se les da bien.
Suben la entrevista entera y luego vídeos con extractos de esa entrevista. Esto permite aumentar el número de visualizaciones, y supongo que también reduce los usuario que no finalizan los vídeos, además de poder posicionar los vídeos con títulos diferentes y por tanto llegar a gente que con el vídeo original no se llegaría.
Pero entiendo que tiene que llevar un tiempo crear vídeos de la entrevista original.
#136 Se pueden usar servicios de IA (O tener una IA en el PC, que también se puede) que convierten los vídeos a texto (speech to text) y de ahí se pueden extraer y pegar las respuestas en el Preguntame. Es cierto que no es lo mismo, pero no habría que transcribirlo a mano.
También se podrían dividir los vídeos por pregunta-respuesta (de esto había una propuesta en el sugiereme). Eso permitiría aumentar el impacto en Youtube y que el usuario que hizo la pregunta tenga un acceso directo a la respuesta.
Hay varias cosas que hay que entender de cómo funciona meneame:
- Hay un script que se ejecuta cada X tiempo para recalcular el karma de los enlaces y promocionarlos o no a portada.
- Existe una penalización a los enlaces por el tiempo que pasen en la cola de nuevas y pendientes. A más tiempo más penalización.
Se me ocurren varias razones por las que pudiera suceder eso que comentas:
1.- El script ha dejado de funcionar por X razones durante un tiempo, y al reactivarlo a recalculado todo haciendo que el enlace terminara en portada.
2.-Aunque ha tardado un tiempo en llegar a la cola de pendientes con cierta penalización, allí ha conseguido el enlace suficientes votos rápidamente para terminar en portada.
Sin tener acceso a los logs es muy dificil saber porqué suceden esas cosas, y nos limitamos a especular sin datos reales.
Realmente @imparsifal, no creo que se debiera preguntar en el consejo sobre los negativos o cualquier ajuste en el karma, es un tema muy técnico para que alguien sin conocimientos opine en base sobre lo que cree que pasa, sin datos, pruebas o análisis.
Quizás (muy quizás) tocando los coeficientes se podría ajustar, pero (y un pero muy grande) hay que hacer simulaciones entre el algoritmo anterior, y el modificado (con los datos reales de votación) para validar que los cambios hacen lo que se espera de él. Eso no es precisamente rápido, ni sencillo.
Y ponerlo en producción sin probarlo es arriesgarse a criticas por todas partes.
#11, #40 y #44 Realmente los comentarios no tienen efecto sobre la llegada a portada. Se utilizan los votos que se le hayan dado al enlace, y el karma que tenga. De ahí que puedan llegar a portada enlaces sin comentarios. Y no es malo que sea así (ni raro, ni una conspiración). Si se utilizase el número de comentarios, muchas noticias de ciencias como los artículos de la mula Francis no llegarían a portada. Y podría poner más ejemplos de enlaces de ciencia y cultura que suelen ser minoritariamente comentados.
#0 ¿Cómo o qué es el espacio de debate? ¿Videoconferencias? ¿Una encuesta? ¿Un foro donde debatir al respecto de la pregunta lanzada? ¿Se realizan reuniones del consejo consultivo en vivo (chat, videoconferencia...)? . Gracias.
Dado libremente
El consentimiento se da libremente si fue una acción voluntaria por parte del usuario. El usuario ha dado el consentimiento por su propia voluntad si:
No han sido coaccionados para dar su consentimiento. Los sitios web que quieren obligar a los usuarios a dar su consentimiento a menudo agrupan el consentimiento con los Términos de uso. Eso va en contra del RGPD. Tal consentimiento no cuenta porque no se da libremente. Recuerda: El sitio web siempre debe pedirte el consentimiento por separado. Se les ha impedido acceder al contenido sin consentimiento. Esto se llama muro de cookies y es una de las formas astutas en las que los sitios web invaden tu privacidad. El sitio web debe proporcionarte acceso a todo el contenido sin recopilar el consentimiento. Esto no incluye el área de miembros en un sitio web, pero eso tampoco requiere el uso de cookies.
Recuerda: el acceso al contenido no requiere cookies. Si alguien solicita tu consentimiento para acceder, violan tus derechos del RGPD.
Evitar que los usuarios retiren el consentimiento sin consecuencias. Eres libre de dar tu consentimiento y libre de retirarlo. Eso significa que el controlador no debe imponer ninguna consecuencia negativa por retirarlo. Recuerda: Retirar el consentimiento es un derecho del RGPD. Si un controlador de datos quiere impedirte hacerlo, es hora de reaccionar ante las autoridades.
Dicho de otra forma: el acceso al contenido no puede estar condicionado a la aceptación de las cookies. Si el usuario rechaza las cookies aun tiene acceso al contenido. La RGPD no regula la publicidad, si no las cookies. Si para poner publicidad necesitáis cookies de seguimiento, no es problema del usuario, si no vuestro; poned banners como se hacía en los 2000.
Sobre todo porque en las cláusulas de acceso a las casas de apuestas hay una que indica que pueden echarte si ganas demasiadas veces (no directamente así), o vas apostando al fallo de las casas de apuestas, que se equivocan más de lo que a ellas les gustaría.