#80#70 toda la noticia es un "ad hominem", porque se basa únicamente en su opinión (que, por cierto, tampoco ha dicho nada que no se hubiera dicho antes). Pero me parece relevante dar ese contexto, porque sabiendo de qué pie cojea me puedo imaginar que toma esta postura porque es lo que más le interesa a él personalmente.
#75 ¿40 horas a la semana, trabajando noches y fines de semana, y sin cobrar un duro? Eso solo lo puede exigir porque sabe que es famosete en el mundillo y porque académicamente en algunos sitios te abre muchas puertas poder decir que has trabajado en Stanford con Andrew Ng. Pero es un abuso inexcusable, y el tío se retrata haciendo eso.
Me recuerda a los becarios de los estrella Michelín, aunque esos por lo menos cobran algo testimonial.
#7 Andrew Ng es un negrero de la peor calaña, y su ética científica deja mucho que desear. Solo como ejemplo, esto es lo que pedía hace años a quien quisiera colaborar con su grupo de investigación: web.archive.org/web/20171116062326/https://stanfordmlgroup.github.io/ (mira la sección de "volunteering with us"). Hoy en día lo ha relajado un poquito, porque cantaba demasiado, pero viene a ser lo mismo.
Yo, a priori, tiendo a ponerme en las posiciones opuestas a las de este señor.
De esto no estoy seguro, pero tenía entendido que los vecinos básicamente no pagaban electricidad. No sé si ha cambiado algo y ahora las eléctricas se lo llevan crudo, pero tal y como está la situación, ser una región exportadora de energía parece una posición tan ventajosa que no me cabe en la cabeza renunciar a ella por criterios arbitrarios y aparentemente no muy informados...
#14 Lo de que la eólica marina perjudica a la pesca se repite mucho, pero yo no he visto estudios que lo demuestren tan claramente, siempre y cuando para la construcción se tengan en cuenta los caladeros. La verdad es que me sorprende mucho el rechazo a las renovables que se está viendo en ciertos sectores, no me lo explico.
#61 no, en general no es capaz de razonar. Puede hacer deducciones básicas, pero cuando lo enfrentas a problemas simples de lógica de predicados no es capaz de hacer razonamiento abductivo ni inductivo, que es fundamental en la inteligencia humana (y que efectivamente son capaces de hacer otros sistemas de Inteligencia Artificial diseñados para ello).
#103 Estoy completamente de acuerdo en que el test ya no tiene mucho sentido. Pero como creo que su verdadera prioridad es el marketing, sospecho que por ahí van a ir los tiros cuando hagan el lanzamiento. Y no creo que GPT-4 y ChatGPT vayan por lados diferentes, estoy convencido de que ChatGPT es solo una herramienta para "mejorar" GPT-4 a costa de los millones de usuarios que le estamos regalando datos estos días. De hecho, apostaría a que ChatGPT es exactamente el mismo modelo que GPT-4 (arquitectura, número de parámetros, etc.).
En cualquier caso, saldremos de dudas en unos meses
#94 Sin duda! Pero creo que ChatGPT lo que evidencia es que OpenAI no está consiguiendo los objetivos que se había planteado con GPT-4, y están intentando buscar una solución de última hora un poco "chapuza".
Me explico: El objetivo de OpenAI con GPT-4 es claramente poder afirmar que han conseguido pasar el Test de Turing general, y que por lo tanto es el "salto más grande hacia una AGI que se ha conseguido en las últimas décadas". Sin embargo, como realmente no ha habido un salto cualitativo en AI tan grande desde GPT-3 (utilizan básicamente las mismas técnicas), lo que están haciendo con ChatGPT es conseguir una base de datos ingente de usuarios de todo el mundo que les permita entrenar y sobreajustar las respuestas para que a los usuarios les parezcan "creíbles" y realmente afirmar que han pasado el test (por eso puedes evaluar cada una de las respuestas que recibes). Que ojo, es una forma de pasarlo, pues has ajustado tu modelo a millones de respuestas de millones de usuarios que han considerado que tu modelo es indistinguible de un humano. Pero realmente es una trampa para engañarnos mostrándonos lo que nos cuela, no es que el modelo sea más "inteligente" que el que todos estamos usando estos días.
#75 yo también hago uso a diario, pero sé en qué situaciones va a funcionar y en cuáles no, y también adapto mi forma de uso para intentar que falle lo menos posible (lo cual puede introducir sesgos a pensar que funciona mejor de lo que realmente lo hace). Pero desde luego, la conversación con un sistema de voz a texto no acaba siendo muy "natural".
Y como dije antes, ojalá tengáis razón los que lo veis de forma tan optimista (yo estaba así hace 7-8 años, de hecho perdí varias apuestas hechas en ese momento de euforia ). Pero hoy en día, de lo único que me fío es de herramientas abiertas, que yo pueda probar y evaluar, y ver si realmente son tan espectaculares o solo nos han enseñado los 4 mejores ejemplos que han conseguido. Espero con ganas el lanzamiento de GPT4, a ver si como dicen el salto con respecto a GPT3 es tan grande como el que hubo entre GPT3 y GPT2 (me cuesta muchísimo creerlo, pero ojalá sea así).
#70 pues no, todavía está lejos de estar resuelto al nivel de competencia que tiene un humano. No tienes más que poner cualquier vídeo de YouTube con subtítulos automáticos, que fallan como una escopeta de feria.
Ojo, con esto no quiero decir que no haya herramientas de voz a texto útiles y que funcionen muy bien en ciertas situaciones (sin ruido, hablando a ritmo tranquilo y vocalizando bien). Y que se ha mejorado muchísimo en los últimos años. Pero aún así, el problema no está resuelto, y eso que es de los problemas "fáciles" en IA.
Y te aseguro que estoy muy al tanto de todas estas herramientas y la investigación que hay detrás (básicamente me dedico a ello), pero quizás por eso hace tiempo que he criado callo con respecto al hype y soy muy escéptico.
Y sí, me reitero en que las empresas dedicadas a IA están fallando en cumplir las grandes promesas de hace 5 años, y como ven que se les acaba el chollo intentan hacer lanzamientos "históricos" que cada vez tienen menos chicha, hasta que al final reviente todo. Desgraciadamente esto se observa muchas veces cuando un área de investigación pasa a estar liderada por empresas en lugar de por la academia. Otra que va por el mismo camino, o peor, es la computación cuántica.
Por favor, si todavía no está bien resuelto el problema de voz-a-texto...
#3 Pues yo opino totalmente lo contrario. Las grandes promesas de la IA se están viendo cada vez más irrealizables sin un cambio radical de paradigma. Pienso sobre todo en los coches autónomos, que es la base sobre la que se asientan las capitalizaciones absurdamente exageradas de Tesla o Uber, pero también en asistentes personales (Alexa o Google assistant están pinchando miserablemente), revoluciones en medicina, etc.
Sin duda se han hecho avances (solo faltaría, con la ingente cantidad de recursos que están recibiendo estas empresas), pero en mi opinión es una burbuja que va a explotar más pronto que tarde, llevándonos a otro AI Winter (en.wikipedia.org/wiki/AI_winter) que perjudicará la investigación de base.
#118#74 Yo estuve trabajando 4 años en Suiza y el modelo es exactamente el mismo que aquí, aunque con distintos porcentajes de retención. El empleador tiene que pagar al equivalente a la SS alrededor de un 15% (más o mismo lo menos que paga el empleado), y eso no cuenta en el salario bruto.
#16 a ver, no seré yo el que defienda a este ignorante, inútil y corrupto, pero al menos en Galicia la mayoría de agricultores son también ganaderos, y sí, suelen levantarse a las 5 de la mañana para ordeñar
#229 efectivamente, como tampoco es la misma la motivación para robar una clave ajena cuando la cotización es 0.10$ o cuando es 50.000$.
Y tienes razón en que probablemente no veremos desaparecer todas y cada una de las claves privadas que protegen los monederos bitcoin, porque el colapso de valor se produciría mucho antes. La situación que yo veo más plausible es la pérdida de confianza masiva derivada de la aparición de cada vez más casos en los cuales la gente pierde de forma irreversible todos sus activos por problemas en la gestión de claves (pérdida o robo).
#220 lo que has descrito tú, claramente está en otra escala temporal. Lo que he descrito yo, lo veremos... . Mi apuesta es que tanto tú como yo seremos testigos, y por el momento se estima que el 17% de todos los bitcoins que pueda llegar a haber se han perdido para siempre. Probablemente el proceso de desaparición no sea lineal, pero aún así, es inevitable. Y no porque el universo se vaya a acabar (que también), sino por errores humanos.
#208 exacto, y al tratarse de un proceso irreversible y siempre decreciente, a la larga la masa monetaria será cero.
Con respecto a los robos, es cierto que no altera la cantidad total, pero la imposibilidad de impartir «justicia» y reparar el daño causado mina la confianza en el sistema. Además, aunque suene paradójico los potenciales servicios de custodia que mencionas solo aumentan la probabilidad de filtración. Y si piensas por ejemplo en seguros contra robos, en bitcoin resulta inviable, pues defraudar al seguro sería trivial.
En definitiva, el bitcoin (no estoy hablando en general de las criptomonedas o la tecnología blockchain) está condenado a desaparecer, y quien quiera seguir en el juego lo debería tener claro. Es una estafa, y en unos años será incomprensible cómo la gente de los 2020s era tan ingenua como para no verlo.
#94 El bitcoin acabará desapareciendo sencillamente por un problema de gestión de claves (pérdidas o robos). Si intentas protegerte frente a la pérdida, haciendo múltiples copias de las claves, estás facilitando la filtración, y viceversa. Es una limitación fundamental y sin solución.
La supuesta edad dorada de la inteligencia artificial es un bluf antológico que solo está sirviendo para enriquecer a las megaempresas que sostienen el tinglado a base de hype, y que colapsará más pronto que tarde. El problema es que esto solo generará más desconfianza hacia la ciencia, y no es precisamente eso lo que necesitamos en la sociedad. Cuando una línea de investigación fundamental pasa a estar liderada por empresas y a merced de los intereses de mercado, siempre acaba igual. Y lo veremos con esto, con la computación cuántica, etc.
#13 Y lo peor de todo es que muy probablemente todos esos bitcoins acaben desapareciendo tarde o temprano por fallos (humanos) en la gestión de las claves. Es un problema sin solución, que en mi opinión invalida cualquier utilidad de bitcoin a largo plazo
Hay equipos trabajando en este mismo problema en Cambridge, la EPFL, NYU, y nadie ha conseguido unos resultados remotamente cercanos a los que afirman en el MIT. Si esto fuese verdad, significaría que la pandemia está básicamente bajo control, con un test a coste cero, que da un resultado en pocos segundos y que detecta el 100% de los asintomáticos y el 98.5% de los sintomáticos, con una especificidad realmente buena.
Por otra parte, en el artículo no publican ni los datos ni los algoritmos, por lo que nadie puede reproducir sus resultados. De hecho hay un dataset abierto para este mismo problema, pero el modelo no se ha validado con estos datos públicos.
En resumen, esta sería una noticia excepcional si llega a materializarse, pero parece "demasiado bueno para ser cierto".
#2 En la EPFL (Suíza) llevamos tiempo trabajando en un proyecto muy similar: coughvid.epfl.ch
Animaos a enviarnos vuestras grabaciones! (Especialmente si tenéis COVID-19)