#14 En Coruña había una empresa que tenía fama de pagar bien y dejar trabajar, creo que se llamaba Mobgen o algo así. Sólo escuchabas buenas palabras de los empleados. La compró Accenture...si aún existe la empresa, ya no conozco a nadie que trabaje allí.
#17 Revocó las visas, separó a las familias de los inmigrantes ilegales en distintos centros de detenciones...que no haya montado una guerra (pero sí ha matado en el exterior con drones) no lo hace mejor que el resto.
#31 Una cosa rara es un término mucho más difícil de modelar de lo que pueda parecer a priori. Digamos que se podría meter en el campo de detección de anomalías, que es un campo muy interesante pero muy difícil de precisar, ya que se trata de entrenamiento no supervisado. El caso que mencionas es muy complejo de evaluar, ya que el segundo médico suele tener acceso al primer diagnóstico, antes de dar su opinión. Por tanto, su análisis ya está sesgado en ese aspecto.
Estoy más a favor de mejorar modelos que hagan uso de valores clínicos para hacer predicciones, que modelos que tengan en cuenta texto, para estos casos.
When we generated the ASD screening models, we cropped 10% of the image top and bottom before resizing because most images from participants with TD had noninformative artifacts (eg, panels for age, sex, and examination date) in 10% of the top and bottom
Una imagen anotada suele cambiar la calidad de la compresión (se suele anotar sobre una imagen codificada, no cruda (raw), y vuelta a codificar, lo que añade una capa extra de borrosidad. El hecho de que sólo se haga esto en uno de los datasets es de alerta roja. Yo no habría dado permiso para publicar esto ni de broma.
La revista es Q1 y, aunque reciente, parece de buena calidad. Pero no he visto ningún otro paper relacionado con modelos de 'machine learning', así que es posible que los revisores no fueran expertos más que en el campo médico.
Me ha dado por leer el paper, que usa modelos no muy actuales (una ResNetXt es del año 2016, creo). No hay nada muy especial, así que el único motivo de avance en la investigación son los datos con los que han contado para hacer el experimento. En el apéndice me he encontrado con esto:
The photography sessions for patients with ASD took place in a space dedicated to their needs, distinct from a general ophthalmology examination room. This space was designed to be warm and welcoming, thus creating a familiar environment for patients. Retinal photographs of typically developing (TD) individuals were obtained in a general ophthalmology examination room.
Esto es, las fotografías se tomaron en sitios distintos, lo que ya es muy peligroso de cara a las valoraciones. Yo he trabajado en su momento con imágenes de fondo de ojo (hace 15 años, espero que los retinógrafos hayan mejorado), y la iluminación de la imagen era muy susceptible del entorno en donde se estaba realizando.
Como dice #1, me cogería con pinzas estos resultados. Y si fuera el revisor, no habría dejado publicar este paper sin un estudio que confirmara que los dos conjuntos de imágenes no tienen diferencias estadísticas entre ellas. Puede que la red esté detectando en dónde se ha realizado la toma de la imagen, en lugar del discernir si tiene autismo o no.
#10 Llevo 20 años escuchando esa cantinela, y no se está ni cerca de eso. Ya se dijo hasta con los sistemas expertos, que se siguen usando en UCIs, pero sigue lleno de profesionales igual.
Es más, te diría que el ámbito médico es uno de los campos donde ya hay muchísimos modelos de IA funcionando, muchos de ellos anteriores al boom actual derivado de Chat-GPT. Y aún con esas, siguen siendo modelos de apoyo, nunca de desplazamiento o sustitución.
#5 No soy muy fan del término 'saber hablar' en este tipo de modelos, pero entiendo lo que quieres decir. Si tratas de predecir la palabra siguiente de un texto en catalán, hay altas probabilidades de que sea catalán también. Ya he 'peleado' alguna vez por aquí sobre este tipo de modelos, pero mantengo lo que decía sobre ellos: el lenguaje no es un problema tan complicado mientras tengas una red lo más grande posible. El sobre-entrenamiento no es inherentemente malo en este tipo de modelos.
Respecto a #1, totalmente de acuerdo. Que sea capaz de reproducir el comportamiento experto, como dice #7, no garantiza que la adquisición de datos no tenga un sesgo que haga fácil la clasificación para una máquina. Ojo, que el sesgo puede ser accidental e inadvertido por los investigadores, pero un 100% es muy raro de ver, sobretodo en imágenes.
#3 Si trabajas en la universidad te falta mencionar que, de los dos grandiosos años de financiación que te dan, tardas de 4 a 6 meses en conseguir contratar a alguien por los plazos y burocracias interminables que te exigen. Un despropósito todo.
#4#2 Si el alquiler es un negocio, entonces yo creo que debería de tratarse como tal. Si el IPC sube un 10%, como el año pasado, lo que no puede un propietario es subirlo un 10%, porque sus gastos no han subido por ese margen. Tendrá que adecuarse al incremento de costes que le produce el mantenimiento del piso. Si no, es una receta para un crecimiento desenfrenado de la inflación.
Con la misma también digo que la energía (y por ende los combustibles) han bajado mucho desde el pico de hace un tiempo...y no veo una actualización de los precios de la misma manera que lo hicieron con el alza...
#1 Estuve allí en una boda este agosto...mejor me callo lo que opino de la India. Igual el hecho de ver directamente como está funcionando el tema de castas te cambia la idea con respecto a los que van por allí a ver lo turístico.
#9 Me parece que estás equivocando lo que dice Ng. De lo que habla el es de que las grandes compañías están haciendo lobby en USA para que se regule la IA...con una legislación que básicamente dice que el gobierno daría licencias a ciertas empresas 'confiables', y que sólo esas podrían hacer IA. Que Hinton alerte de una cosa no implica que la solución sea la que proponen estas empresas.
#1 Yo no entiendo esta discusión. Persona de vacaciones comenta que hay gente en Europa que no está trabajando...lo que le incluye a él. ¿No puede ser que estén todos de vacaciones? Es muy egocéntrico el pensar que eres el único que, en el lugar que estés, no tiene que trabajar en ese momento.
De todas formas, yo le lanzaría una pulla más directa: ¿y si lo que pasa es que, pudiendo salir a hacer cosas sin tener que coger el coche para todo, provoca estos fenómenos tan extraños para un americano común, como que la gente salga a la calle y se pare a tomar algo?
#19 Un balazo en el brazo, sin contar la dificultad de acertar en ese disparo, no incapacita nada, no usan balas de punta hueca. Con la adrenalina, el agresor seguiría corriendo hacia ti sin mucho problema. Lo de desarmar a alguien con arma blanca con una porra...qué quieres que te diga, se podría conseguir, pero con un riesgo altísimo. En cualquier clase de defensa personal, ante un oponente con arma blanca, da igual tu nivel, si hay espacio para escapar esa es la primera opción. Desarmar a alguien sin llevarte una cuchillada en el intento es muy muy difícil.
#138 Ni recuerdo haberle dado a esto, porque me da totalmente igual el tema. A propósito no fue porque rara vez uso el botón de negativos. Te pediría perdón, pero como ya has llorado todo lo que tenías que llorar, nos damos por satisfechos los dos.
#113 Creo que has sido tú el que ha visto un ataque donde no lo había. He utilizado el término de loro precisamente por la definición de loro estocástico que dan ciertos científicos al funcionamiento de chatgpt. En ningún momento estaba haciendo un ataque personal. Pero la cuestión de fondo es la misma: si un modelo entrenado tratando de predecir la palabra siguiente es capaz de pasar un test de razonamiento desde el punto de vista filosófico, es que el test no es tan complejo como podría parecer. De la misma forma que para nosotros el ajedrez es un juego extremadamente complejo, pero para una máquina es bastante simple, al ser un espacio altamente acotado y con reglas simples.
#85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.
Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.
#75 Te digo lo mismo que a #80: No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.