#21 quizá si fuera en ese pueblo lo habrían hecho, villalbilla es una zona muy familiar y la gente se conoce mucho uno a otras de ahi que la movilización haya sido rápida, es mas llevan semanas ahí y se habían colado el alguna casa ajena, pero no fue hasta lo de la menor hasta que no se movilizaron.
#25 llevan exponiendo a sus gentes al miedo durante decadas y décadas, ya sea a esto, a qie les quitan los derechos, a que un poli les dispare en la calle, aue un negro les dispare en la otra calle, al comunismo, a.... Etc etc etc etc, La forma de USA de gobernar siempre ha sido y tener a su pueblo en completa alerta
#59 no me vale, por un lado no es unirlos ente si, tiene que estar como a 15-20cm de uno a otro (como cuando cojes una carabina) y tiene que tener un pelin más de resistencia que el velcro, normalmente los accesorios de esto tienen unos imanes algo fuertes
Yo la verdad, es que me he viciado un huevo a shooters VR, me encanta la experiencia, al tener que gestionar todo con tus propias manos te pones más nervioso, tengo que pillarme algo para enganchar los dos mandos
#80 sigues sin entenderlo, no se habla de entender como lo hace, eso no es muy difícil, se habla de entender Que hace, si tienes un modelo deep learning por ejemplo que identifica perros o gatos, no hay una variable debajo del capo que ponga "si morro largo es un perro" como si ocurre en un árbol de decisión de machine learning.
A eso se le llama explainability.
Aquí tienes tienes una lectura ligera para que lo entiendas bien, habla de técnicas avanzadas para conseguir una "aproximación" a una explicación de una decisión en deep learning neptune.ai/blog/explainability-auditability-ml-definitions-techniques-
#31 se le dice caja negra por que básicamente son cajas negras al nivel de comprensión humano , todo de deep learning para arriba se basan en multiplicaciones tensoriales así que para un ser humano es imposible de comprender el por si de por que una ia ha dicho si o no.
Por otro lado machine learning clásico, cosas como random forests Y demas Si tienen "explainability" por que abriendo el árbol de decisión interno puedes decir, dijo si por que esta variable es mayor que X
#49 básicamente son cajas negras, todo de deep learning para arriba se basan en multiplicaciones tensoriales así que para un ser humano es imposible de comprender el por si de por que una ia ha dicho si o no.
Por otro lado machine learning clásico, cosas como random forests Y demas Si tienen "explainability" por que abriendo el árbol de decisión interno puedes decir, dijo si por que esta variable es mayor que X
#69 las habitaciones super estrechas no depende si es piso o casa, depende de año de construcción, con el paso del tiempo la optimizacion de espacio ha mejorado muchísimo, en ambos, yo viví en un piso de 40m2 que originalmente se perdía un 15% por poner un estúpido pasillo y hubo que reformar para aprovechar más el espacio
#97 pero es que lo llevan al extremo, yo he visto a un señor señalando un totalmente obvio carril/acera por que la acera principal estaba en obras, miento, dos señores, uno a cada entrada, lo que habrías solucionado con un simple cartel (o sin cartel, sinceramente)
#60 es que es ambas, te copio un extracto de texto interesante :
¿Qué representan los códigos de conducta Honne y Tatemae?
Si nos ceñimos a lo literal, Honne significa “sonido verdadero” y Tatemae, “fachada”.
Cuando nos referimos al Honne, lo hacemos a expresar exactamente lo que sentimos y pensamos, sin tener en cuenta lo que pueda pensar el interlocutor ni compromisos sociales. El Tatemae, sin embargo, tiene en cuenta la conducta que la otra persona espera de nosotros, las jerarquías sociales y la idea de encajar en un grupo social.