SafeRent es una herramienta de evaluación de inquilinos impulsada por inteligencia artificial, una que a esta hora se ha visto obligada a dejar de usar su sistema de puntuación para los usuarios que utilizan los vales o bonos de vivienda en Estados Unidos, tras una demanda colectiva que ha acusado a la empresa de discriminación basada en ingresos y raza.
|
etiquetas: ia , inquilino , discriminación , saferent
Eso no es así.
Directamente en España porque la vivienda es un derecho.
Parece mentira que tengamos que explicar que la propiedad privada no te otorga poder absoluta sobre dicha propiedad, lo decía hasta Adam Smith.
Y pese a los flipados británicos de volver al Imperio Romano, no ha sido así en ningún otra organización social.
Esa violencia del que tiene propiedades frente a quien no las tiene (porque es violencia) lleva a que quien no tiene propiedades ejerza su derecho a masacrar al que las tiene y tomarlas...
Menuda locura de sociedad es vuestra sociedad ideal.
Que, obviamente no ha existido ni existirá nunca, porque es algo insostenible socialmente.
Violencia es como se usa el cuchillo.
Si por como usas tu propiedad, impides a que la gente tenga vivienda, estás ejerciendo violencia sobre esa gente ,igual que si le impidieras el acceso físicamente a una vivienda.
Pero bueno, es triste tener que explicar lo que los liberales (y padres del capitalismo) del sXVIII ya han explicado
Tú quieres poder hacer lo que te salga de los huevos pero que los demás no podamos. Que cumplamos la parte de la ley que te viene bien pero sin cumplir tú las que no te vienen bien a ti.
La alarma de tu casa solo sirve para que venga alguien a ayudarte. Nada más. Si no viene nadie porque no hay estado pues la alarma no vale para nada. Bueno, salvo que tengas una escopeta, pero sabiendo que no va a llegar nadie el que te va a quitar la casa va a ir con diez.
De hecho no existe ninguna sociedad que viviera en época histórica sin estado (como por ejemplo los indígenas de América) que que tuviera nada parecido a la "propiedad privada " que ha existido en el país más comunista que lo pongas como ejemplo, mucho menos en un país capitalista.
Aunque viendo cómo se follan la igualdad legal y no discriminación por razón de sexo haciendo leyes ad hoc discriminatorias pues como que da igual.
#4 La propiedad privada no te otorga poder absoluta sobre dicha propiedad, pero si te otorga libertad para usar los criterios que consideres oportunos para tomar decisiones sobre tu propiedad. Lo siento pero citar a Adam Smith no va a hacer que las tonterías que estás diciendo tengan algún sentido.
Si es que mas gilipolleces juntas no se pueden decir.
El piso es mio, yo decido ponerlo en alquiler y, faltaria mas, yo elijo al inquilino que mas me interese.
Si es un amigo/familiar hablariamos de nepotismo?
Que vamos a tener que hacer? Ponerlos en una bolsa del estado para que este se los adjudique a quienquiera en base a criterios politicos?
Aun asi seguiria sin haber para todos.....
Lo siento, pero vivis en los mundos de yupi, y la mayoria estais exigiendo porque no teneis nada que perder, el dia que tengais algo de patrimonio ya me gustaria veros que haceis....
Los propietarios pueden alquilar a quien les de la gana, siempre que no digan que el motivo por el que no te cogen es por discriminación.
Como se vió en lo que ocurrió en Berlin, al limitar el precio del alquiler los propietarios eligen a los inquilinos por otros motivos, status, situación familiar, sueldo… y, como es SU casa, tienen todo el derecho del mundo a alqularlo a quien quieran, por mucho que nos parezca bien o no.
La IA ha sido alimentada con datos sesgados.
Las IAs no "simplemente coteja datos y no tiene ninguna presión educativa"
Eso es falso.
De hecho la utilidad mejor para las IAs, en este momento, en temas sociales, es para entender como de sesgados son nuestros datos y descubrirnos nuestros propios sesgos a los que estamos ciegos por estar dentro de nuestra forma de comportarnos.
Más que eso no tiene mucha más utilidad, precisamente por culpa de que los sesgos aparecen más claramente que en un humano ya que es mucho más sensible a dichos sesgos.
Pero eso no sirve para identificar inquilinos problemáticos. En este caso, serán modelos alimentados con estadísticas relativas a problemas con inquilinos, probablemente en base a denuncias judiciales (que en EEUU son públicas y accesibles). No hay un sesgo social o ideológico, como pueda haber en comentarios sacados de internet o hilos de twitter. Cuando la gente se mete en juicios y abogados es porque tiene razones para ello, que no es algo que se haga por hacer.
Los datos están sesgados.
No puedes obtener buena estadística con datos sesgados.
Hacer estadística con datos sesgados solamente acentúa dichos sesgos.
Alimentar una IA con datos sesgados muestra dichos sesgos de mala manera.
De hecho, ahora, lo que están haciendo es intentar regular dichos sesgos haciendo que una IA se alimente de los datos y comprobando los sesgos que tiene dicha IA, y así, poder hacer mejor estadística con datos sesgados.
PORQUE LA IA ACENTÚA LOS SESGOS.
ES JUSTO AL CONTRARIO DE LO QUE TU DICES.
No es una cosa de este modelo solo.
Al igual que los modelos de lenguaje.
Los datos en bruto no son útiles para estadística, si no tienes en cuenta conductas sociales, como la propensión de detener más a una persona negra cuando ocurre un conflicto en USA entre un negro y un blanco o al contrario cuando ocurre en un país como Nigeria, los datos no valen.
Un ejemplo perfectamente claro son las… » ver todo el comentario
Es decir, generalización a lo bruto sin entrar en detalles de la aplicación en particular. Paradójicamente, esa actitud es la que está detrás del pensamiento discriminatorio irracional: una generalización de brocha gorda.
Es el problema cuando no se busca ir a la causa de un problema sino dar recetas precocinadas sobre que lo que es correcto pensar.
Un ejemplo perfectamente claro son
… » ver todo el comentario
No voy a perder el tiempo volviendo a comentarte lo que ya he comentado y hasta en mayusculas.
Tu respuesta fue hacer una generalización sobre que las IA están sesgadas, porque patatas. Pues vale.
Paradójicamente, esa mentalidad que no tiene problemas en generalizar con brocha gorda es la que siempre ha sido más discriminatoria de forma irracional. Es como las personas que tienen mentalidad religiosa pero como la religión ya no está de moda se han buscado sustitutivos, y hablan de otros temas, como la ciencia, de una forma que parece más una cruzada teológica.
Por eso se estudia estadística en todas las carreras científicas.
Hasta los obtenidos de fenómenos "naturales".
TODOS.
Lo he puesto en mayúsculas (no en negrita) al final del texto porque suponía que no llegarías al final y no me confundí.
Además que lo que dices de las elecciones es exactamente lo que digo yo...
Lo dicho, aburres.
Como los datos de demandas a inquilinos. ¿Que alguien decide meterse en abogados porque el inquilino no le paga la renta o le ha destrozado la casa? ¡En realidad que no le pague o que le destroce la casa son excusas!, se mete en abogados por el color de piel del inquilino, claro que sí. Seguro.
Es MUY irónico que tu argumento principal tenga la forma "todos los X son...".
He dicho que incluso los datos obtenidos de la naturaleza tienen sesgo.
Es una de las bases de cualquier estudio científico que utilice la estadística.
Por eso no se presentan los datos "en bruto" sino que se le aplican algoritmos como "ponderación inversa" o "regresión robusta", incluso las Herramientas ROBINS"
Porque si obtienes datos de juicios donde incluyas a gente como el juez que terminó en la cárcel por meter a niños… » ver todo el comentario
¿Que sesgo racial tienen las demandas a inquilinos? ¿Estás diciendo que un inquilino te destroza la casa, en función del color de la piel le demandarás o le dirás que traquilo, que no ha pasado nada? No hablo de generalizaciones de brocha gorda. ¿Que sesgo racial hay en ese caso en particular?
Paso ya de leerte porque aburre tener que repetirte de nuevo lo mismo una y otra vez.
Soy obrero, tengo un segundo piso, pequeño y viejo en un barrio humilde, que conseguí comprar tras mucho trabajo y sacrificios. Lo pongo en alquiler para completar los ingresos de la familia, que andan maltrechos. Busco posibles inquilinos.
Prefiero hacer caso a la IA cargada de sesgos de todo tipo, a la que han multado por discriminación, y que me dice que no se lo alquile a ese magrebí con contrato temporal, antes que hacer caso al juez que le ha puesto la multa o a ti. ¿Soy en este caso… » ver todo el comentario
Si caminas por una calle solitaria y ves en la acera a una chica blanca de unos 15 años, y en otro caso, ves a dos chicos de unos 30 años y aspecto magrebí, que te miran fijamente ¿en cual de los dos casos te das media vuelta y te vuelves para atrás, diga lo que diga la IA ?.
A los sesgos yo los llamo intuición. Y a veces funcionan de puta madre.
Claaaro, a fin de cuentas para que queremos la no discriminación...
Por cierto ¿Eres español?
Porque esta IA te consideraría NO alquilable.
Por poner un ejemplo.
Depende de las causas. Las personas tienen un mecanismo instintivo para discriminar a aquellos que no están genéticamente cercanos, es uno de los elementos del "gen egoista". También hay elementos de presión social de grupo que suelen ser hostiles a los que encajan en el patrón común. Estos ocurre en todas las sociedades y razas, por cierto.
Pero en este caso se trata de una IA a la que le han dado perfiles… » ver todo el comentario
Tienes razón
He trabajado con modelos de probabilidad de impago, no solo en alquiler residencial, en telefonía y otros servicios de suscripción.
Todos los modelos con los que he trabajado penalizaban a los extranjeros dándoles una mayor probabilidad de impago. Y no era racista porque no se metía en el modelo el color de piel, simplemente una persona con menos vínculos en el país era más probable que se volviera a su país… » ver todo el comentario
Pero claro, si tienes 2000 solicitudes y tiempo para hacer 20 pruebas a fondo muchos van a verse descartados injustamente. Pasa lo mismo con las entrevistas de trabajo o el Tinder.
Que sea justo o injusto no está reñido con que sea objetivo o que los datos presenten sesgo.
Pero claro, si el grupo X da más problemas de media, al final la media de las valoraciones en el grupo X será peor, lógicamente.
Prohibir herramientas como esta lo que hace es perjudicar a personas en esos grupos, porque al final la gente lo que hace es simplificar a "grupo X, no quiero saber nada", por supuesto poniendo alguna otra excusa.
En que ley dice que tengo que razonar la respuesta o quién me va a obligar a alquilar a nadie que no me dé la puta gana?.