cultura y tecnología
8 meneos
36 clics
Cada vez es más difícil dar grandes saltos tecnológicos en la IA de vanguardia: ¿quién saldrá ganando?

Cada vez es más difícil dar grandes saltos tecnológicos en la IA de vanguardia: ¿quién saldrá ganando?

Los precios de los tokens se han desplomado, ya que la oferta de modelos de IA competentes ha aumentado sustancialmente, afectando a las empresas que siguen intentando construir el mejor modelo de IA y ganar dinero directamente con ello. Un ejemplo es la startup Inflection AI, que invirtió montones de tiempo y dinero en desarrollar su propio modelo de vanguardia que no consiguió destacar entre la multitud. El problema es que el coste de desarrollar el próximo modelo todopoderoso está por las nubes y probablemente vaya en aumento.

| etiquetas: ia , precio tokens , coste , rentabilidad , competencia
anv #3 anv *
Hay que tener en cuenta que los modelos de lenguaje ya están bastante pulidos. El siguiente paso que ya ha comenzado son los modelos que pueden reflexionar antes de soltar una respuesta.

Ejemplo real que acabo de hacer:

dame 10 frases que terminen en perro

ChatGPT Plus
¡Claro! Aquí tienes 10 frases que terminan en "perro":

Hoy me levanté temprano para sacar a pasear al perro.
Ayer encontré a un perro perdido en la calle.
Mi vecino siempre juega con su perro en el

…   » ver todo el comentario
#3 dos loops. Uno que valide al primero :troll:
#3 Lo que hablas es el famoso Q*. Que en lugar de escupir el siguiente token, que la IA pueda hacer un proceso parecido a la difusión en la generación de imagenes e ir iterando sobre la respuesta.
#3 supongo que ahora mismo prima la velocidad de la respuesta a su calidad.

De hecho la velocidad en la respuesta es una de las cosas que alucinó más a la gente cuando se popularizaron los LLM entre Los mortales.

Es más un tema de configuración inicial y de prompt, fácilmente solucionable:  media
anv #7 anv *
#6 En ese caso puede resultar pero chatgpt no tiene capacidad de reducir su velocidad de respuesta para "pensar". Siempre hace una sola pasada. Es lo próximo que se va a cambiar.

Cuando le dijiste que se asegure de contestar bien, lo que has hecho es decirle que conteste lo que contestaría una persona que se lo piensa bien. Es lo mismo que cuando le pides que te escriba un programa de ordenador y lo hace más o menos bien, pero después comienzas un nuevo chat y le dices "eres un experto programador" y le vuelves a pedir lo mismo, y ves que el resultado es de mucha mejor calidad.
#7 por supuesto, lo que le he pedido es que no prime la velocidad, porque estoy seguro que las instrucciones que tiene es que sí lo haga, por lo que he comentado de que es lo que más impresiona.

Vamos, que tiene la capacidad de hacerlo más exacto, pero sus instrucciones base no son hacerlo así.

De hecho es posible que si añades en tu config personal algo así como "me gustan las respuestas meditadas y correctas, no te apresures a contestar" las respuestas en general serán " mejores"
Máxime cuando puedes correrlo localmente en casi cualquier máquina moderna con un par de clicks.

ollama.com/
#1 La verdad, prefiero pagar 10 o 20 dolares mensuales y que alguien me lo ofrezca como servicio. Pero es cuestion de gustos.
Los fondos de inversión y accionistas multimillonarios que empapelen a accionistas minoritarios justo antes de estallar la burbuja artificial inteligente :troll:
comentarios cerrados

menéame