En los últimos años, la inteligencia artificial ha transformado numerosos aspectos del desarrollo de software, y ahora, en estos últimos días, una herramienta como DeepSeek R1 promete marcar un nuevo hito en este ámbito: y es que, a diferencia de otras soluciones basadas en LLMs, esta nueva IA no solo genera código... sino que también proporciona una trazabilidad de su razonamiento, permitiendo a los usuarios comprender mejor la lógica detrás de cada implementación.
|
etiquetas: deepseek , aprender , programación , programar , pensamiento , razonamiento
www.reddit.com/r/ProgrammerHumor/comments/b3okry/uml_is_love_uml_is_li
#37 Diga usted que sí!!!
.
Es un finetunning de qwen2.5 o llama3.
Por cierto, me cago en ollama y su mierda de nombres que hacen confundir a la gente!
Que ya dudo si es a propósito...
No es confundir. Es una estrategia para hacer más ligero el modelo más grande. Y que mantenga la mayor parte de sus funcionalidades.
Te parecerá bonito.
Fala ben, carallo!
No quiero decir con esto que las máquinas piensen, pero es un argumento a favor de ello, en lugar de serlo en contra.
Yo no sé si piensan o no, pero no descarto que en algún momento dado suceda. Al fin y al cabo, en nosotros surgió la intelección y la autoconciencia en algún momento dado cuando la capacidad de cómputo alcanzó una magnitud determinada.
Es una discusión larga, y no pretendo abrir un flame, pero la realidad está ahí, para quien quiera verla.
La discusión es bastante corta, alargarla sí que sería artificial.
Si tus argumentos son que:
- Si que puedes predecir la salida pero que te llevaría infinito
- Mientras sigan produciendo… » ver todo el comentario
Mis argumentos no son exactamente esos.
- He puesto "infinito", así entre comillas, por irnos al peor de los casos en los que nos llevaría mucho tiempo, pero depende… » ver todo el comentario
Son mayoría los que no. Pero los humanos tienen la capacidad de pensar.
Cuando salía el relojito dando vueltas en el Windows 3.11 (para trabajo en grupo) se decía lo de "está pensando" más como casi sarcasmo ante tener que esperar que no porque lo definiésemos como tal.
Así que, entrando en el tema en sí, la máquina no tiene consciencia, la máquina sólo hace aquello para lo que está… » ver todo el comentario
Luego, si lo pruebas, no es así, pero eso es debido a que se introduce aleatoriedad desde fuera de la red neuronal.
Lo que dices no es cierto y eso es un error muy común, no te lo tomes a mal. La mecánica cuántica solamente da una forma de calcular la probabilidad de un suceso. Eso no significa que ese suceso esté o no determinado. El llamarlo determinista o no determinista es trabajo de las interpretaciones de la mecánica cuántica, que hay unas cuantas.
Entonces, te encontrarás con montones de videos en youtube que explican la mecánica cuántica asumiendo una determinada interpretación (en vez de las otras), y no lo dicen. Semejante lio confunde a cualquiera.
Busca por ejemplo sobre "superdeterminism".
Sabía yo que me iba a salir caro
Con mi frase quería decir que es muy facil sentenciar "las máquinas no piensan" sin dar más argumentos. Pero nada es blanco o negro, y por mucho que queramos pensar en términos absolutos porque así es más sencillo gestionar la realidad, la verdad es que todo es relativo.
Y con los LLM la verdad es que aún todo es bastante rudimentario, pero creo que llegará el momento en que distinguir… » ver todo el comentario
Que las máquinas y los humanos lleguemos, cuando proceda, a los mismos resultados no significa que los procesos realizados para ello sean los mismos, más habitualmente es al contrario.
Es muy fácil sentenciar "las máquinas no piensan" porque la realidad, por mucho que te sorprenda, es que las máquinas no piensan. Las máquinas simplemente obedecen una serie de instrucciones y las obedecen a pies juntillas.
Si vamos a decir frases que no tienen sentido en este contexto, venga, juguemos.
Si tu intención es rebatir mi frase, busca algo mejor, gracias.
¿Y razonar?
Por ver si las máquinas lo hacen o no. Nunca me he planteado qué significa una cosa u otra
Razonar se puede decir que consiste en aplicar las reglas de la lógica, algo que un LLM no puede hacer, pero sí que puede simular y los modelos recientes lo hacen bastante bien.
Lo hacen bien en la mayoría de los casos, pero si les pones preguntas trampa se caen de cuatro patas. Mira el papel que hizo Apple sobre esto.
Lo que quiere decir esto, es que un LLM no está pensando, ya que si pensara, por poco que fuera, no caería en esos errores.
Sí, es un algoritmo de explorar un árbol, pero a que si se lo das a leer a tu mamá dirá que está pensando.
Ya te digo yo que mi madre no diría que está pensando, pero vamos, que alguien diga que está pensando no significa que realmente esté pensando. Es una manera corta de que parezca que describimos lo que sucede, pero no es hablar con propiedad.
Precisamente si quieres ser prudente lo que no puedes decir es que una máquina está razonando, pensando o menos aún que tenga conciencia. Justamente si quieres ser prudente no puedes decir eso.
Desconozco cómo hacen las cosas los ratones, no sé qué capacidad tienen para razonar o dejar de hacerlo, si bien entiendo que alguna cosa sí son capaces de hacer, aunque sólo sea recordar "por aquí no había comida,… » ver todo el comentario
Razonar es un tema filosófico muy complejo en el que llevamos milenios discutiendo exactamente en qué consiste.
Respondiéndote de paso también a #99, las… » ver todo el comentario
Ahora, estoy de acuerdo que las IA no son capaces de generar un contenido independiente del que han aprendido. En eso estoy de acuerdo que no tienen un razonamiento real. Pero lo de las alucinaciones no es en contra del pensamiento más cercano al humano.
Igual es que no estoy puesto en los LLM (no me interesan) pero como "explicabilidad" en redes neuronales ya hace tiempo que está resuelto.
Este nivel de transparencia, sin embargo, no es algo generalizado (ni siquiera frecuente) en todos los modelos de IA: OpenAI, por ejemplo, mantiene en secreto la trazabilidad de sus respuestas.
Según algunos expertos, esta decisión podría deberse a razones estratégicas para evitar que sus competidores utilicen estos datos para entrenar sus propios modelos (no es que estén teniendo mucho éxito, entonces).
El chatgpt gratis simplemente te suelta el código, sin razonar por delante, lo mismo que el Deepseek v3. Pero ambos te explican el código despues de darlo.
www.meneame.net/story/deepseek-ia-prometia-ser-mejor-chatgpt-error-hum
Pero no entiendo por qué me negativizas el comentario en #10.
Precisamente destaco el enlace por querer engañar.
Ni que las demás IAs no hayan expuesto información de todo el mundo.
Estoy diciendo que en ese enlace ponen Deep seek como un lugar a evitar, porque las otras opciones son más seguras .
Pero no digo en ningún momento que esté en lo cierto.
" Pues aquí dice que no se use."
Cc#22, #54
Un niño crea, vaya si crea. No todos como W.A. Mozart, claro
Lo que ha hecho DeepSeek es ponerlo en la versión gratuita. Ya existía en otros LLM, pero detrás de un paywall, no para los usuarios del gratis total.
La novedad es ésta. Y sí, que entiendo que es una novedad para muchos usuarios.
Hay otra pequeña novedad aquí. Si te lees uno de esos "razonamientos", lo ves. Le han puesto el nombre de DeepSeek porque eso es… » ver todo el comentario
En cualquier caso, probando DeepSeek en local me ha llamado la atención que exterioriza el hilo de los razonamientos, sus dudas y sus decisiones, dentro de tags <think>. Por ejemplo:
<think>
I should explain that while the… » ver todo el comentario
la desconectese interponga en su caminoPara aprender estará bien, supongo.
En el mundo real, con código complejo y no un ejercicio de academia, muchas veces el código no hace lo que dice el comentario que lo explica.
Muchas, muchas veces.
Además, que no tiene sentido que te explique nada, si no entiendes el código que genera por ti mismo todo eso no sirve para nada.
De ahí que haya puesto que eso de explicar solo le veo sentido para aprender.
Y tampoco es una novedad, cualquier otra IA hace lo de explicarlo para tontos si se lo pides. Sencillamente esa IA por defecto se pone a explicar.