Una startup china llamada DeepSeek acaba de lanzar DeepSeek V3, un LLM absolutamente gigantesco que está disponible con una licencia MIT "abierta" que permite a los desarrolladores descargarlo de GitHub y modificarlo para diversos escenarios, incluyendo algunos comerciales.
|
etiquetas: china , ai , deepseek , chatgpt
Hasta este mes estaba suscrito a Sonnet, pero ya no lo necesito con estas nuevas opciones (gratuitas). Ahora mismo contrasto las respuestas entre las tres para conseguir los mejores resultados.
OpenAI acaba de sacar un nuevo modelo, o1-2024-12-17 que promete ser incluso mejor, aunque ahora mismo creo que todavía no está habilitado para todo el mundo.
Ranking the LLMs bastante utilizado: livebench.ai/#/
Lo ideal es contrastar entre varios, bien hecho.
Lo digo de memoria, mejor comprúebalo.
Con el tiempo seguro que saldrán versiones de este modelo que requieran menos recursos, tanto creados por la misma empresa como por parte de algunos usuarios.
huggingface.co/BlinkDL/rwkv-7-world
La versión 4 (de hace un año) ya destacaba en español con llama.cpp
Con ese tamaño, puedes tener whisper/llm/sintetizador todo incluido dentro de tu ordenador sin mucho lag.
Cuando digo "operar" no me refiero solo a ejecutarse sino a ser mínimamente funcional (entiendo que con una base de datos reducida claro)
Porque asumo que la barbaridad de recursos que indica #9 es porque la IA carga en RAM además de su código de ejecución toda su base de datos de referencia.
Incluyendo las "closed AI".
Y lo que se viene... siguen mejorando a pasos enormes.
Mientras en la UE ponemos barreras a las AI con leyes estúpidas que los que las votan no tienen ni puta idea de nada.
Y en respuesta exacta, si se puede ejecutar en entorno aislado.
#8 exacto necesitas una máquina enorme que cuesta cientos de miles de euros. Porque GPU es mejor para eso
Un modelo 70b o 128b o así sería ideal para mí para probarlo.
#24 Me llegó propaganda de servidores para IA, los precios empezaban desde 500k. No me acuerdo del modelo de GPU.
Acaban de salir las GB200 que se ofertan al mismo precio que las H100 y son descomunales, aunque de momento dudo que haya nada validado (creo que requiere refrigeración líquida).
Y digo la mayoría, porque la mayoría son libres/liberados, algunos propietarios no dan esa opción (como chatGPT, por ejemplo)
mitsuhakitsune.com/es/2024/03/21/ollama-tu-ia-privada-y-gratuita-simil
Nos permite conectarla y utilizar cualquier interfaz de nuestra preferencia, pero no sólo eso, si no que podemos conectarla con otros proyectos LLM como LangChain y expandir aún más su potencial