Un grupo de investigadores de inteligencia artificial ha demostrado cómo ejecutar un potente modelo de lenguaje de IA en un ordenador con Windows 98. Y no estamos hablando de un PC cualquiera, sino de un sistema Pentium II clásico con apenas 128 MB de RAM. El equipo que está detrás del experimento es EXO Labs, una organización formada por investigadores e ingenieros de la Universidad de Oxford.
|
etiquetas: llm , llama , exo labs , inteligencia artificial , oxford
Tienes modelos de llama que ocupan 1gb de RAM, que puedes ejecutar en CPU y que son extremadamente rápidos, pero que al ser muy simples, sus respuestas suelen dejar bastante que desear.
Para los que quieran trastear un poco, solo tienes que bajarte "ollama" y probar modelos que quepan en tu RAM.
Llama3.2:3b suele equivaler a algo menos de 3gb de RAM
Los modelos 8b suelen ser menos de 8gb de RAM
Cuanto mayor xb más preciso es, más consumo de RAM y más lento es.
Si se pudiera poner a un procesador equivalente a un 486 varios teras de RAM podría moverlo (Aunque supongo que aumentaría la latencia bastante)
Por cierto, he ejecutado whisper_cpp en un netbook ATOM n270, 1GB de RAM, haciendo como 1.5 con ZRAM.
Para transcribir un vídeo de 5 minutos tardó como entre 6 y 8 horas.
"For this, the company is developing what it calls the "BitNet" – a transformer architecture that uses ternary weights to drastically reduce model size. With this architecture, a 7 billion parameter model needs just 1.38GB of storage, making it feasible to run on most budget hardware."
Acabemos con la pobreza de GPUs.