Tecnología, Internet y juegos
267 meneos
3021 clics
DeepSeek lo cambia todo a la hora de aprender a programar porque ofrece algo que ChatGPT no: un vistazo a cómo piensa

DeepSeek lo cambia todo a la hora de aprender a programar porque ofrece algo que ChatGPT no: un vistazo a cómo piensa

En los últimos años, la inteligencia artificial ha transformado numerosos aspectos del desarrollo de software, y ahora, en estos últimos días, una herramienta como DeepSeek R1 promete marcar un nuevo hito en este ámbito: y es que, a diferencia de otras soluciones basadas en LLMs, esta nueva IA no solo genera código... sino que también proporciona una trazabilidad de su razonamiento, permitiendo a los usuarios comprender mejor la lógica detrás de cada implementación.

| etiquetas: deepseek , aprender , programación , programar , pensamiento , razonamiento
106 161 2 K 384
106 161 2 K 384
Comentarios destacados:                        
Siempre a este tipo de modelos hago pruebas de asociacionismo agregación composición en diferentes contextos con los mismos objetos. la versionéis V3 falló pero esta dio correcto con la solución. Incluso el modelo de 14b de Ollama lo resuelve. Es la hostia!
#2 cual es la prueba que le propones?
#4 Pues primero en el contexto de una fábrica de ensamblaje de coches, cual sería la relacional de asociación entre el objeto coches y los objetos puertas, ruedas (acá la relación es de asociación por agregación porque puedes mover las piezas a cualquier coche que estés ensamblando. La vida de las partes no depende de la vida del padre). Luego le pongo el mismo ejercicio pero en distinto contexto. La misma pregunta pero por ejemplo en un desguace de coches. Donde la relación es de composición…   » ver todo el comentario
#2 ¿Pero aquí qué idioma habláis?  media
#5 "Eran motoristas que eran motos"
#44 así es...............  media
#48 #44 JAJAJAJAJAJAJAJAJAJAJAJAJAJAJAJAJAJAJAJAJA lo siento voy a ir al infierno. xD xD xD xD xD
#78 Como el Torrao, que le habrá llegao la hora.
#5 perdón el puto autocorrector :-)
#2 Casi entiendo hasta tu décima palabra :shit:
#2 A mí viernes te farcias los test de leporcias que jiben Xynaer5 pero no resuelve octetos ipsum dolor. Tu te crees?
#11 Lo que se farcian son las carordías, los test de leporcias se remuelden, hombre!
#11 Es que si no construyes el tiburcio y lo acoplas en el mango pandeirante luego no encaja en la el firlopio de la trócola 2.3 Plus

#37 Diga usted que sí!!!
.  media
#95 Muchas trucias Maraino.
#2 El "modelo 14b de ollama" NO es deepseek-r1.

Es un finetunning de qwen2.5 o llama3.

Por cierto, me cago en ollama y su mierda de nombres que hacen confundir a la gente!
Que ya dudo si es a propósito...
#12 Es deepseek que uso el método maestro-estudiante para crear un modelo más pequeño. Y para ello usó Qwen y Llama. No es ollama que lo haya hecho. Son los mismos de Deepseek.

No es confundir. Es una estrategia para hacer más ligero el modelo más grande. Y que mantenga la mayor parte de sus funcionalidades.
#2 En cristiano, ¿puede resolver el típico problema de "¿cuántas R hay en la palabra arrinconar?"?
#2 ollama, gran presidente amerillano
#2 Me acabas de follar la única neurona en pie que me quedaba.

Te parecerá bonito.

Fala ben, carallo!
Estoy haciendo el poder de no votar negativo... Pero me está resultando muy cansino.
#1 Con lo fácil que es tirar de scroll en las noticias que no le interesan a uno, :-)
#3 Abolición de los votos de irrelevante y cansino ya.
#1 Mateo 18:9
#1 Primero era tener la IA hasta en el yogur y ahora noticias y debates sobre DeepSeek hasta en el hogar del pensionista. Cansino es poco
#32 lo prefiero a noticias de Ayuso o del Coletas
#32 acabo de ver esto y me acordé de ti  media
#32 A mi me cansan y me sobran todas las publicaciones sobre deporte en todos los medios, ¿sabes lo que hago?, no las leo, de nada
#1 ¿Cómo se hace un poder?
#45 Precisamente esas alucinaciones son lo que acerca a las IAs a un pensamiento razonado y no a la respuesta mecánica de una máquina. Nuestro pensamiento no es el de una máquina, y tiene alucinaciones y errores similares.

No quiero decir con esto que las máquinas piensen, pero es un argumento a favor de ello, en lugar de serlo en contra.

Yo no sé si piensan o no, pero no descarto que en algún momento dado suceda. Al fin y al cabo, en nosotros surgió la intelección y la autoconciencia en algún momento dado cuando la capacidad de cómputo alcanzó una magnitud determinada.

Es una discusión larga, y no pretendo abrir un flame, pero la realidad está ahí, para quien quiera verla.
#50 Precisamente no. Precisamente las "alucinaciones" (que digo ese nombre porque es así como se les llama, no porque sea el mejor de los nombres, si bien ahora mismo no tengo otro mejor, quizás "errores de cálculo") son la demostración de que el resultado es porque lo que saca es el resultado "más probable" a partir de su conjunto de entrenamiento y su algoritmo de turno, no porque lo haya razonado.

La discusión es bastante corta, alargarla sí que sería artificial.
#45 Por eso mismo te he respondido que sacar a Newton no es un argumento en contra de "tan del s.XX" porque con eso yo me refería a que tu frase ha quedado obsoleta con el tiempo y las leyes de Newton no porque una analiza un elemento que cambia con el tiempo (la computación) y las otras algo que es inmutable (las leyes que rigen la gravedad a escala humana).

Si tus argumentos son que:
- Si que puedes predecir la salida pero que te llevaría infinito
- Mientras sigan produciendo…   » ver todo el comentario
#49 Si nos ponemos simpáticos, las leyes de Newton también se quedaron anticuadas en el momento en el que apareció Einstein, sólo que funcionan muy bien en "lo general" y es sólo cuando nos metemos en "extremos" y/o queremos "afinar mucho" que Newton se queda atrás y Einstein toma ventaja.

Mis argumentos no son exactamente esos.

- He puesto "infinito", así entre comillas, por irnos al peor de los casos en los que nos llevaría mucho tiempo, pero depende…   » ver todo el comentario
#49 ¿quiere decir eso que los humanos no piensan?

Son mayoría los que no. Pero los humanos tienen la capacidad de pensar.
Y si ahora lo dejan de ciber-atacar para que lo podamos usar sería de agradecer
#30 Y Eratóstones hace 2200 años estableció el radio de la tierra, pero no son buenos argumentos tampoco los tuyos. La forma de la tierra y la fuerza de la gravedad no han cambiado pero la computación si. Que las máquinas no piensan es lo que me decía mi profe de informática en los 90 contra la típica frase de "esta pensando" al aparecer el reloj en el cursor en Windows 3.11. Pero las cosas han cambiado, lo que hay detrás de algunas máquinas ya no son algoritmos predecibles, programas…   » ver todo el comentario
#41 Es que lo mío no era un argumento a favor de nada sino en contra de ese "tan del s. XX", que como argumento se me queda harto escaso por no decir otra cosa.

Cuando salía el relojito dando vueltas en el Windows 3.11 (para trabajo en grupo) se decía lo de "está pensando" más como casi sarcasmo ante tener que esperar que no porque lo definiésemos como tal.

Así que, entrando en el tema en sí, la máquina no tiene consciencia, la máquina sólo hace aquello para lo que está…   » ver todo el comentario
#41 Ten en cuenta que una red neuronal es 100% predecible. Dada una entrada, producirá siempre la misma salida para esa entrada.

Luego, si lo pruebas, no es así, pero eso es debido a que se introduce aleatoriedad desde fuera de la red neuronal.
#69 Puedes iniciar los nodos con una semilla determinada "seed=x" y siempre recibirás la misma respuesta a la misma pregunta. Al igual que al generar una imagen con un "prompt" puedes repetir una de las ya generadas por su semilla de generación. Que suelen ser aleatorias, pero es una opción al igual que con los LLMs
#69 Si somos deterministas (y el universo no cuántico lo es), el hombre también es 100% predecible.
#89 El determinismo no admite dudas y pretender que el mundo cuántico está exento, no se basa en nada.
#92 La formulación de la mecánica cuántica deja bien claro que lo cuántico no es determinista.
#96
Lo que dices no es cierto y eso es un error muy común, no te lo tomes a mal. La mecánica cuántica solamente da una forma de calcular la probabilidad de un suceso. Eso no significa que ese suceso esté o no determinado. El llamarlo determinista o no determinista es trabajo de las interpretaciones de la mecánica cuántica, que hay unas cuantas.

Entonces, te encontrarás con montones de videos en youtube que explican la mecánica cuántica asumiendo una determinada interpretación (en vez de las otras), y no lo dicen. Semejante lio confunde a cualquiera.

Busca por ejemplo sobre "superdeterminism".
#69 Es predecible en cuanto a que con la mismas entradas da las mismas salidas, pero no puedes predecir como se va a comportar ante una nueva entrada ni puedes saber a priori que proceso va a seguir para dar una salida concreta. Con software convencional, puedes acceder al código fuente y, sin ejecutarlo, saber que salida va a dar con una entrada determinada. Esto no pasa con redes neuronales. A eso me refería.
Por favor que alguien traduzca los anteriores comentarios al cristiano palatino porqué no me he enterado de nada :shit:
#16 TLDR: nos comen los chinos, ve aprendiendo a tocar la flauta
#33 La primera parte la he entendido perfectamente, en la segunda, bajo ciertas dudas, estoy entendiendo que le estás diciendo que empiece a chupar pollas para ganarse la vida.
#59 Lo bueno es que son flautas chinas, sí te das maña con el multitasking puedes sacarle mucho provecho a esa nueva habilidad.
#59 Bueno, me refería literalmente a tocar la flauta para ganarse el pan pidiendo en alguna calle. Pero quizá los servicios sexuales sean realmente de los últimos en caer a manos de la IA. Tienes la mirada sucia, pero bien pensado.
#31 Jajaja, venga otra: "Arrieritos somos..."

Sabía yo que me iba a salir caro :roll:

Con mi frase quería decir que es muy facil sentenciar "las máquinas no piensan" sin dar más argumentos. Pero nada es blanco o negro, y por mucho que queramos pensar en términos absolutos porque así es más sencillo gestionar la realidad, la verdad es que todo es relativo.

Y con los LLM la verdad es que aún todo es bastante rudimentario, pero creo que llegará el momento en que distinguir…   » ver todo el comentario
#55 Empezando por el final, lo de los animales es otro tema distinto con el que no voy a entrar porque ni me parece que proceda, ni tengo ganas de meterme en ese jardín.

Que las máquinas y los humanos lleguemos, cuando proceda, a los mismos resultados no significa que los procesos realizados para ello sean los mismos, más habitualmente es al contrario.

Es muy fácil sentenciar "las máquinas no piensan" porque la realidad, por mucho que te sorprenda, es que las máquinas no piensan. Las máquinas simplemente obedecen una serie de instrucciones y las obedecen a pies juntillas.
Las máquinas no piensan ni razonan.
#17 y de este agua no beberé
#26 Y el cántaro se rompió.

Si vamos a decir frases que no tienen sentido en este contexto, venga, juguemos.
#17 esa frase es tan del siglo XX...
#28 Las publicaciones de Einstein también, y las leyes de Newton todavía de mucho más atrás, y ahí siguen vigentes.

Si tu intención es rebatir mi frase, busca algo mejor, gracias.
#30 Te va costar encontrar una definición de razonar que no incluya lo que hace una IA.
#79 La IA extrae resultados de procesos que son, en el fondo, matemáticas. Lo que hacemos los seres humanos es diferente.
#80 Es bastante parecido en el fondo.
#81 No sé qué entiendes tú por "bastante parecido" pero no es lo mismo que mi "bastante parecido" porque no lo considero "bastante parecido".
#79 Basta con describir lo poco que sabemos de como piensa un humano. Se hace evidente que usa conceptos, algo que una AI de las que usan redes neuronales no puede tener.
#28 Si por lo menos supiera escribirla...
#17 ¿como defines pensar?
¿Y razonar?

Por ver si las máquinas lo hacen o no. Nunca me he planteado qué significa una cosa u otra
#40 La R.A.E. es tu amiga.
#43 yo estaba pensando en filosofía, porque según la RAE, los ordenadores si piensan y razonan
#40 No podemos definir pensar porque no entendemos como funciona.

Razonar se puede decir que consiste en aplicar las reglas de la lógica, algo que un LLM no puede hacer, pero sí que puede simular y los modelos recientes lo hacen bastante bien.

Lo hacen bien en la mayoría de los casos, pero si les pones preguntas trampa se caen de cuatro patas. Mira el papel que hizo Apple sobre esto.

Lo que quiere decir esto, es que un LLM no está pensando, ya que si pensara, por poco que fuera, no caería en esos errores.
#17 Pero entiende que es muy normal que alguien se crea que razonan. Ponle algún problema de lógica a DeepSeek, el que más te mole. Valen esos de cruzar el rio sin que en ningún momento se queden más caníbales que misioneros. Te lees la parte de preparación de la respuesta.

Sí, es un algoritmo de explorar un árbol, pero a que si se lo das a leer a tu mamá dirá que está pensando.
#68 Si yo entiendo hasta que haya gente a la que le guste el sexo violento, pero conmigo no va.

Ya te digo yo que mi madre no diría que está pensando, pero vamos, que alguien diga que está pensando no significa que realmente esté pensando. Es una manera corta de que parezca que describimos lo que sucede, pero no es hablar con propiedad.
#71 Tras 2.500 años de investigación aún no tenemos una definición clara de que es pensar, o qué es la conciencia. Seamos prudentes. Los ratones pueden razonar, a su manera resolviendo laberintos. A su manera las maquinas hacen algo parecido.
#88 Tras bastante menos años de existencia, la R.A.E. discrepa con tu comentario.

Precisamente si quieres ser prudente lo que no puedes decir es que una máquina está razonando, pensando o menos aún que tenga conciencia. Justamente si quieres ser prudente no puedes decir eso.

Desconozco cómo hacen las cosas los ratones, no sé qué capacidad tienen para razonar o dejar de hacerlo, si bien entiendo que alguna cosa sí son capaces de hacer, aunque sólo sea recordar "por aquí no había comida,…   » ver todo el comentario
#90 Los resultados de operaciones matemáticas podría llevar a tener razonamiento autónomo. Pero eso no ocurre aún. Por ejemplo, nuestro razonamiento está basado exclusivamente en impulsos eléctricos. Se activa un impulso aquí y allá. Eso es lo que son las neuronas.

Razonar es un tema filosófico muy complejo en el que llevamos milenios discutiendo exactamente en qué consiste.
#98 Lo que se llama alucinaciones en IA es una nueva definición para algo que no es exactamente lo mismo que un humano, que es ver/escuchar algo que no está allí. Llamar alucinaciones a respuestas completamente sin sentido es algo más que una alucinación en términos humanos, pues significa que, a pesar de todo lo que ha entrenado, su respuesta se sale de la realidad y/o del razonamiento más básico. Es decir, son causas y procesos muy distintos.

Respondiéndote de paso también a #99, las…   » ver todo el comentario
#17 Las maquinas ya razonan, pero no piensan.
#86 No razonan. A partir de cálculos numéricos te muestran aquello que ha resultado ser lo estadísticamente más probable como respuesta, que puede ser la correcta o no, pero no se basa en "tengo una hipótesis, la verifico o rechazo" sino en "respuesta con más porcentaje de probabilidad en teoría en base a lo que me han entrenado". Eso no es razonar. Repito, por eso, entre otros, tienen "alucinaciones".
#87 Y como te han explicado, los humanos también alucinamos y añadimos vacío de memoria con contenido inventado.

Ahora, estoy de acuerdo que las IA no son capaces de generar un contenido independiente del que han aprendido. En eso estoy de acuerdo que no tienen un razonamiento real. Pero lo de las alucinaciones no es en contra del pensamiento más cercano al humano.
El AutoML de Google (el sistema automático de machine learning) ya hace años que ofrece "explicabilidad" de sus decisiones, tanto a nivel individual como de que valor da a cada información que se le proporciona (cuanto aporta cada campo a la decisión final).

Igual es que no estoy puesto en los LLM (no me interesan) pero como "explicabilidad" en redes neuronales ya hace tiempo que está resuelto.
#7 No dicen que no estuviera resuelto. Dicen que deepseek te lo da.

Este nivel de transparencia, sin embargo, no es algo generalizado (ni siquiera frecuente) en todos los modelos de IA: OpenAI, por ejemplo, mantiene en secreto la trazabilidad de sus respuestas.

Según algunos expertos, esta decisión podría deberse a razones estratégicas para evitar que sus competidores utilicen estos datos para entrenar sus propios modelos (no es que estén teniendo mucho éxito, entonces).
ChatGPT te explica el código generado siempre.
#23 aquí hablan de explicar por qué usa ese y no otro
#51 #46 ok, ok, está claro.
#23 Supongo que se refieren al razonamiento previo que te da DeepSeek R1 cuando le preguntas algo. Esto tambien lo tienes on Chatgpt o1, pero es el de pago.

El chatgpt gratis simplemente te suelta el código, sin razonar por delante, lo mismo que el Deepseek v3. Pero ambos te explican el código despues de darlo.
Pues aquí que no se use. Que Chatgpt y similares son más seguras y no exponen tus datos

www.meneame.net/story/deepseek-ia-prometia-ser-mejor-chatgpt-error-hum
#10 Sabes que puedes descargarlo en tu máquina y no exponer nada a nadie, no???....
#19 claro que lo sabe, se ha dicho hasta la sociedad, debe ser un bot basado en ChatGPT intentando salvarse xD
#19 Sí.

Pero no entiendo por qué me negativizas el comentario en #10.

Precisamente destaco el enlace por querer engañar.

Ni que las demás IAs no hayan expuesto información de todo el mundo.
#22 Porque estás mintiendo y tu comentario es falso.
#53 No has entendido #10.

Estoy diciendo que en ese enlace ponen Deep seek como un lugar a evitar, porque las otras opciones son más seguras .

Pero no digo en ningún momento que esté en lo cierto.
#10 Errata.

" Pues aquí dice que no se use."

Cc#22, #54
#19 Hace falta una máquina de 9000€ para mover el modelo avanzado.
uml is dead? thanks fsm!
A mi me está dando unos resultados de mierda.
Me acaba de decir que es chatgpt
#57 Es lo que debe decir al haber entrenado sus respuestas preguntándole a ChatGPT.
no piensa, punto pelota. Son programas que simulan lenguaje (oral, escrito o artístico) basándose en lo que ya saben. No crean, no imaginan ni piensan. Hacen búsquedas la hostia de rápido y componen su respuesta con lo wue ya saben, y lo que saben puede ser mentira. Hay montones de ejemplos de errores incluso en operaciones matemáticas simples.
#73 La descripción que das también se podría aplicar a un niño. Y siguiendo con la analogía, la IA acaba de cumplir 3 años. Que podrá hacer cuando tenga 6?
#91 La IA tiene, no 3, sino 30 años (bueno, más).... yo acabé el proyecto fin de carreraben el 94 y ya la estudié.
Un niño crea, vaya si crea. No todos como W.A. Mozart, claro
Que yo entiendo que la primera vez que alguien ve lo del "razonamiento" sorprende mucho. Pero no es ninguna novedad.

Lo que ha hecho DeepSeek es ponerlo en la versión gratuita. Ya existía en otros LLM, pero detrás de un paywall, no para los usuarios del gratis total.

La novedad es ésta. Y sí, que entiendo que es una novedad para muchos usuarios.

Hay otra pequeña novedad aquí. Si te lees uno de esos "razonamientos", lo ves. Le han puesto el nombre de DeepSeek porque eso es…   » ver todo el comentario
es que tu ocmentario parece que dice lo contrario de lo que quieres decir. Supongo que por eso (yo te voté negativo porque me parecía que era un intento de desprestigiar a deepseek con algo que hacen todas...hasta que llegúe a éste comentario y releí el primero.
Pues ni tan mal, siempre he querido aprender chino
En chatgpt, en los custom instructions, añadí a la plantilla de Synapse mención explícita a que su objetivo sea ayudarme a aprender, más que darme la solución. Creo que esa "novedad" de la que habla el artículo es equivalente a cómo se comporta ChatGPT.
En cualquier caso, probando DeepSeek en local me ha llamado la atención que exterioriza el hilo de los razonamientos, sus dudas y sus decisiones, dentro de tags <think>. Por ejemplo:
<think>
I should explain that while the…   » ver todo el comentario
Hay algunas personas que dicen: - Yo no lo uso, es que está en inglés y no entiendo nada... Has intentado decirle que te hable/responda en Español?.  media
#74 Es que justamente lo que me cuesta imaginar es el momento en el que la herramienta toma consciencia de sí misma y pueda hacer algo distinto de lo que hacía hasta ese momento.
Me parece fascinante el progreso de todos estos modelos. Aunque a mi me cuesta imaginar aun que llegue un momento en el que estos modelos consigan desarrollar autonomía.
#63 Si te pones a pensarlo en terminos bien simples, la vida en un prompt es siendo extremadamente reduccionista: "SOBREVIVE y MULTIPLICATE". Habría que ver cuando se llegue a ese punto con la IA en donde tenga las herramientas y demás para ir evolucionando para lograr ese fin sin que nadie la desconecte se interponga en su camino
Nadie necesita eso en el mundo real.

Para aprender estará bien, supongo.
#61 El uso previsto es el de generar código de programa.
#76 esa frase es bastante confusa, no entiendo qué quieres decir.

En el mundo real, con código complejo y no un ejercicio de academia, muchas veces el código no hace lo que dice el comentario que lo explica.

Muchas, muchas veces.


Además, que no tiene sentido que te explique nada, si no entiendes el código que genera por ti mismo todo eso no sirve para nada.

De ahí que haya puesto que eso de explicar solo le veo sentido para aprender.

Y tampoco es una novedad, cualquier otra IA hace lo de explicarlo para tontos si se lo pides. Sencillamente esa IA por defecto se pone a explicar.
«12

menéame