Los precios de los tokens se han desplomado, ya que la oferta de modelos de IA competentes ha aumentado sustancialmente, afectando a las empresas que siguen intentando construir el mejor modelo de IA y ganar dinero directamente con ello. Un ejemplo es la startup Inflection AI, que invirtió montones de tiempo y dinero en desarrollar su propio modelo de vanguardia que no consiguió destacar entre la multitud. El problema es que el coste de desarrollar el próximo modelo todopoderoso está por las nubes y probablemente vaya en aumento.
|
etiquetas: ia , precio tokens , coste , rentabilidad , competencia
Ejemplo real que acabo de hacer:
dame 10 frases que terminen en perro
ChatGPT Plus
¡Claro! Aquí tienes 10 frases que terminan en "perro":
Hoy me levanté temprano para sacar a pasear al perro.
Ayer encontré a un perro perdido en la calle.
Mi vecino siempre juega con su perro en el
… » ver todo el comentario
De hecho la velocidad en la respuesta es una de las cosas que alucinó más a la gente cuando se popularizaron los LLM entre Los mortales.
Es más un tema de configuración inicial y de prompt, fácilmente solucionable:
Cuando le dijiste que se asegure de contestar bien, lo que has hecho es decirle que conteste lo que contestaría una persona que se lo piensa bien. Es lo mismo que cuando le pides que te escriba un programa de ordenador y lo hace más o menos bien, pero después comienzas un nuevo chat y le dices "eres un experto programador" y le vuelves a pedir lo mismo, y ves que el resultado es de mucha mejor calidad.
Vamos, que tiene la capacidad de hacerlo más exacto, pero sus instrucciones base no son hacerlo así.
De hecho es posible que si añades en tu config personal algo así como "me gustan las respuestas meditadas y correctas, no te apresures a contestar" las respuestas en general serán " mejores"
ollama.com/