edición general
244 meneos
3436 clics
El hombre que intentó redimir el mundo mediante la lógica matemática

El hombre que intentó redimir el mundo mediante la lógica matemática

Walter Pitts (1923-1969) fue uno de los padres de la neurociencia computacional. Pasó de las calles de la ciudad industrial de Detroit al prestigioso MIT en Boston, pero no pudo escapar de sí mismo. En este artículo se cuenta la historia de este niño maravilla que, a la edad de 12 años, envió una carta a Bertrand Russell manifestándole algunos errores del tratado Principia Mathematica. Y también de su trágico final.

| etiquetas: walter pitts , neurociencia computacional , lógica
122 122 1 K 424 ciencia
122 122 1 K 424 ciencia
Interesantísimo. Gracias, #0.
Es una pena que en la universidad no nos explicaran todo esto para entender el origen y la importancia de las células de McCulloch-Pitts.
#3
A mi sí me contaron algo, hace más de 25 años. Sí, en la universidad (en Teleco), aunque no en asignatura obligatoria, ni siquiera como temario de una asignatura opcional sino en una práctica opcional de un laboratorio opcional... en el cual pude conseguir Matrícula de Honor (calificación 10 sobre 10 en esa asignatura) cuando las Redes Neuronales no estaban de moda y eran una rareza exótica que no tenía demasiado éxito.
Quizá por eso en aquella época no se contaba a todo el mundo: no existían las GPU y no se podía hacer lo que se hace ahora.
#13 Así era. Yo también recuerdo hace unos 30 años lo mismo, que se hablaba de que en ese momento no podía implementarse una red potente porque hacía falta mucha capacidad de proceso que no alcanzaban ni los ordenadores más potentes de la época.
Muy interesante. Pero el MIT no está en Boston sino al otro lado del río, en Cambridge.
#4
Hoy el MIT no está en Boston... Pero el artículo no habla de hoy. Originalmente el MIT sí estaba en Boston.

libraries.mit.edu/mithistory/mit-facts/

Aunque la parte principal se trasladó a Cambridge, MA, en 1916, antes de que naciera Pitts, sin embargo mantuvo una parte en Boston hasta 1938. El artículo habla de cuando Pitts tenía 12 años (1935) y 15 años (1938). Pero es cierto que la parte que se mantuvo hasta 1938 fue la escuela de Arquitectura... así que creo que es probable tu…   » ver todo el comentario
#11 Pues muchas gracias la información.
#4 #11

Por cierto, el artículo original no dice "el MIT en Boston", fue cosa del traductor.

web.archive.org/web/20180216122645/http://nautil.us/issue/21/informati

Era un poco extraño que la autora original hubiese dicho eso, ya que es una escritora especializada en física que vive en Cambridge, Massachusetts.

Por otro lado, otro punto de confusión es que Bertrand Russell estaba en la Universidad de Cambridge, en Reino Unido, e invitó a Pitts a ir para allá... Hubiese sido confuso decir que Pitts no fue a Cambridge con Russell pero que se fue al MIT en Cambridge. xD
Larguísimo e interesantísimo.
Muy buen artículo, gracias.
Por artículos como este, merece la pena entrar en Menéame. Muchas gracias, #0.
Vaya pedazo de artículo. Muy interesante.

Es una historia triste, pero también se puede aprender algo: la salud mental y los traumas se deben tratar por muy listos o inteligentes que seamos.

Según se cuenta em el artículo, Pitts estaba convencido de una idea, que luego resultó ser sesgada. Pero por tener esa idea como un dogma, le afectó de sobremanera.

Científicamente y tecnológicamente se ha avanzado milenios, pero mental y emocionalmente seguimos en el neolítico. Y en mi opinión es por el excesivo afán de buscar fuera racionalmente, y no observar contemplativamente (dentro o fuera, no importa). Si pitts hubiese tenido herramientas para gestionar su estabilidad emocional...
#8 Neolítico dices... xD xD xD paleolítico inferior o quizás antes, seguimos siendo monos con muy poquito pelo recién bajados de los árboles pero con ínfulas de ángeles y así nos va.
#9 sí, supongo que em ciertos lugares incluso australooitecus
El artículo está muy bien, pero cuidado que tiene al menos una errata (que no le resta nada de calidad, sigue siendo buenísimo).
En concreto: "...había sido Wiener quien descubrió una definición matemática precisa de información: a mayor probabilidad, mayor entropía y menor contenido informativo".
En primer lugar, la relación es mayor probabilidad => menor entropía => menor cantidad de información.
En segundo lugar, este resultado de la Teoría de la Información es de Shannon, no de Wiener.
#10 A mí está traducción me ha parecido bastante mala, con lo que he buscado el original en inglés, os lo dejo aquí: www.theopennotebook.com/2016/09/20/storygram-amanda-gefters-the-man-wh
Justo el punto que dices es el que me hizo dejar el artículo en castellano, pero lo que me sorprendido es... ¡que también está mal en el original!! "The higher the probability, the higher the entropy and the lower the information content."
No sé, ¿quizá la autora es buena escritora pero de estos temas no sabe mucho?
#15 Justo acababa de revisar el original para comprobar si tenía el mismo error. :-D
Yo lo atribuyo a un despiste, es fácil equivocarse en expresiones así.
#16 Tienes razón, de hecho acabo de ver en el enlace que he puesto antes que al final hay una entrevista a la escritora y dice: "I mostly write about fundamental physics—string theory, quantum mechanics, that kind of thing—so this stuff felt a bit less arcane than I’m used to!", así que desde luego sabe mucho más que yo jaja
#17 #15 #10 disculpar que os pregunte, pero por qué está mal? Yo pensaba que era as
#21 Creo que los demás lo sabrán mejor, pero yo lo que entiendo intuitivamente es esto: si tú tienes una probabilidad igual para por ejemplo que salga cara o cruz en una moneda (la probabilidad de cada caso es 0.5), no tienes información sobre el resultado y la entropía es máxima. En cambio si sabes que va a salir cara porque la moneda está trucada, (la probabilidad es 1) es que tienes información sobre la moneda, y la entropía es cero. Es decir, la información es el inverso de la entropía, y…   » ver todo el comentario
#21 que nadie me conteste, lo había leído mal
#10
Sí, respecto a lo primero tienes razón...

Aunque se puede hacer una puntualización.
Simplificando un poco se puede decir que en términos matemáticos la entropía se expresa como un logaritmo, del número de estados equiprobables, o del "menos logaritmo de la probabilidad". Y dado que la probabilidad es menor que 1, el logaritmo es negativo y el "-log(p)" es positivo. A mayor p, el log se acerca más a 0, es mayor y el -log(p) también se acerca más a cero pero es menor:…   » ver todo el comentario
Detrás de todo gran hombre, hay una gran mujer........ :-x :-x :-x
comentarios cerrados

menéame