Des vérifications automatisées des antécédents permettent de décider qui est apte à vivre dans un foyer

Part of

Mikhail Arroyo était sorti du coma, mais il était encore fragile lorsque sa mère, Carmen, a essayé de l’installer chez elle. Les mois avaient été éprouvants : Mikhail avait été gravement blessé lors d’une chute dévastatrice en 2015. Il avait passé du temps à l’hôpital, et en 2016, il était dans une maison de retraite où sa mère lui rendait visite tous les jours, en attendant qu’ils puissent à nouveau vivre ensemble. Carmen avait prévu de l’installer avec elle dans un nouvel appartement du complexe résidentiel du Connecticut où elle résidait. Il ne restait plus qu’à s’occuper de la paperasse.

Lors d’une réunion, dit-elle, la société de gestion a annoncé la nouvelle. Mikhail ne serait pas autorisé à entrer dans l’appartement. Carmen était choquée.

« Sur quelle base ? » a-t-elle demandé.

La femme à qui elle a parlé n’a pas pu lui dire. Bien que Carmen ne pouvait pas connaître tous les détails, Mikhail avait été signalé par un outil de dépistage criminel géré par une société appelée CoreLogic. Elle dit qu’on ne lui a montré qu’une seule feuille de papier – une qu’elle ne pouvait pas emporter avec elle, et cela n’a guère aidé – et qu’on lui a donné un numéro de téléphone de CoreLogic à appeler.

Elle n’a rien obtenu. Elle a attendu en attente, a été transférée dans les deux sens. Carmen était la tutrice désignée de Mikhail, ce qui lui donnait un pouvoir de décision légal, mais la société avait besoin de documents pour elle et Mikhail – un passeport, un permis de conduire – et elle ne parvenait pas à les obtenir. Carmen était « livide ». À un moment donné, dit-elle, on lui a dit de prendre contact avec le service juridique, mais il n’était pas disponible. S’agissait-il d’un contrôle de solvabilité ? Et les circonstances ne comptaient-elles pas pour quelque chose ? Elle a commencé à s’inquiéter, se demandant si le numéro n’était pas d’une manière ou d’une autre frauduleux et qu’elle n’avait pas transmis toutes ses informations personnelles.

Le processus a traîné pendant des mois.  » Ils n’ont cessé de me donner des réponses évasives « , dit Carmen. Pendant ce temps, elle a cherché un autre endroit où vivre, et en a trouvé un, même si c’était dans un quartier moins bon. Mais il y avait des escaliers, et Mikhail ne pouvait pas marcher à l’époque – il n’aurait donc pas pu y vivre. Il n’était pas encore capable de parler complètement non plus, mais quand il fallait le ramener à la maison de retraite, il montrait du doigt pour dire qu’il voulait retourner dans l’appartement. Certains jours, il pleurait. « C’était déchirant pour lui », dit-elle, « parce qu’il voulait rentrer chez lui. »

Alors que les propriétaires décident à qui louer, CoreLogic offre une gamme d’outils de dépistage. Ils pourraient utiliser un produit appelé ScorePLUS, que la société décrit comme un « modèle statistique de dépistage des baux » qui calcule « un score unique » pour déterminer le risque potentiel qu’une personne signe un bail. Un propriétaire peut également se tourner vers un produit appelé CrimCHECK, qui effectue une recherche de casiers judiciaires dans une base de données. L’étendue des casiers judiciaires annoncés par la société est impressionnante. Elle affirme utiliser une base de données de plus de 80 millions de dossiers d’arrestation et d’incarcération provenant d’environ 2 000 établissements, mise à jour toutes les 15 minutes. CrimSAFE, le système qui a signalé Mikhail, est décrit par la société comme un « outil automatisé qui traite et interprète les casiers judiciaires et notifie le personnel de location lorsque des casiers judiciaires sont trouvés qui ne répondent pas aux critères que vous établissez pour votre communauté. »

La possibilité d’externaliser les décisions est un argument clé pour les dépisteurs potentiels. « Quel que soit le service de décision ou d’information que vous utilisez, vous retrouverez le même processus simple de saisie des données, la même rapidité d’exécution et les mêmes résultats clairs et concis qui éliminent la nécessité de faire appel au jugement de vos professionnels de la location », explique la société aux visiteurs de son site Web. S’il y a un problème, et qu’un propriétaire doit envoyer une lettre d' »action défavorable », la société annonce un système automatisé pour cela aussi.

Mais pour certains défenseurs du logement, la montée de l’automatisation et l’élimination des « appels de jugement » humains sont de plus en plus le problème, pas la solution. Lorsque les outils de dépistage contournent des formes plus humaines de prise de décision, disent-ils, ces décisions sont plus susceptibles de réduire des questions complexes à des mécanismes simples de réussite et d’échec générés par des algorithmes – laissant de côté les personnes à la recherche d’un logement.

Eric Dunn, directeur des litiges au National Housing Law Project, a vu comment les outils utilisés par les propriétaires ont évolué ces dernières années. Au fil du temps, il a vu de plus en plus de gens s’éloigner de ce qu’il appelle « la sélection de la vieille garde », où la recherche était faite par des humains et où les propriétaires recevaient une documentation étendue. Au lieu de cela, les systèmes sont plus susceptibles maintenant de mettre en correspondance des « identifiants », en sélectionnant des options comme certains types de crimes, avec des bases de données massives d’origine obscure.

Les partisans du logement équitable comme Dunn disent que la nuance est perdue lorsque les propriétaires s’appuient sur des outils de dépistage automatisés qui transforment une histoire personnelle – l’histoire d’une personne, avec laquelle un propriétaire pourrait avoir à se débattre, en pesant le risque réel – en une liste de variables à vérifier par une machine. S’il existe des circonstances atténuantes autour d’un dossier, elles ne peuvent pas toujours être prises en compte dans le cadre rigide du système, affirment les défenseurs. Peu importe à quel point il pourrait être expéditif pour les propriétaires et les entreprises de vérification des antécédents d’utiliser ces outils, disent-ils, cela conduira à bloquer des personnes qui, autrement, auraient été acceptées par une forme plus personnalisée de dépistage.

Les entreprises qui offrent ces outils les présentent comme des recommandations pour les propriétaires, qu’ils peuvent outrepasser. Mais Dunn remet en question cette façon de penser. Si la machine calcule une décision d’échec, fait-il valoir, il y a peu d’autres bases pour qu’un propriétaire arrive à une conclusion différente, surtout si le propriétaire ne reçoit pas l’historique complet.

La loi fédérale interdit aux propriétaires de sélectionner leurs locataires en fonction de caractéristiques protégées – la race, le sexe ou la religion d’un candidat, ne peuvent pas être utilisés pour déterminer si on lui offre un logement. Mais les casiers judiciaires sont plus complexes. Si un casier implique des dommages matériels, par exemple, un propriétaire pourrait être dans son droit légal de refuser une demande, sur la base que cela indique un problème potentiel à l’avenir.

Au cours des dernières années, certaines des limites de ces protections ont été étendues. La Cour suprême, dans une décision majeure de 5-4 en 2015, a jugé que la loi s’étendait aux décisions qui affectaient certains groupes de manière disproportionnée, même si c’était indirectement. Si une politique affecte un quartier noir plus qu’un quartier blanc voisin, par exemple, cette politique pourrait être illégale. Cette théorie juridique est connue sous le nom de norme d' »impact disparate ».

Notant l’effet disproportionné des casiers judiciaires sur les groupes minoritaires, le département du logement et du développement urbain a publié de nouvelles directives pour les transactions immobilières en 2016. Selon ces directives, un propriétaire, ou quelqu’un d’autre déterminant s’il doit offrir un logement à quelqu’un, pourrait être en mesure d’utiliser un casier judiciaire pour prendre une décision concernant un locataire. Mais cette décision, selon les lignes directrices, nécessite un examen attentif des cas individuels. Si la politique de sélection ne tient pas compte de la gravité ou de la pertinence du casier judiciaire, ou du temps écoulé depuis l’incident, elle ne passera probablement pas le test du HUD. Les Arroyos sont actuellement impliqués dans un procès avec CoreLogic au sujet de ces protections.

Monica Welby, directrice adjointe du contentieux au Legal Action Center, affirme que les vérifications commerciales sont également « notoirement » inexactes. Dunn voit des problèmes similaires. « J’ai examiné plus de rapports de casier judiciaire que je ne pourrais en compter, et je dirais que bien plus de la moitié de ceux que j’ai examinés comportaient une sorte d’inexactitude », dit-il.

Un dossier peut, par exemple, inclure des informations provenant d’une personne ayant un nom similaire, ce qui conduit à un refus.  » Cela arrive tout le temps « , dit Dunn. Un parent portant un nom similaire – ou peut-être quelqu’un de complètement étranger, qui se trouve partager un nom avec un candidat à la location – peut faire dérailler la demande d’un locataire. Les problèmes, dit Dunn, auraient souvent pu être détectés par un système de dépistage plus individualisé.

CoreLogic a fait face à des poursuites judiciaires pour de telles erreurs. En vertu du Fair Credit Reporting Act, les entreprises sont tenues de faire un effort pour assurer l’exactitude aussi bien qu’elles le peuvent raisonnablement, mais certains ont remis en question la profondeur de cet engagement. En 2015, un homme de Caroline du Sud a déclaré dans un procès que lui et sa femme cherchaient un nouvel endroit pour rester après que des inondations aient endommagé leur maison. Lorsqu’il a postulé pour un nouvel appartement, cependant, il a été signalé par un outil CoreLogic comme un délinquant sexuel enregistré – apparemment en raison d’une personne ayant un nom similaire. Dans les documents judiciaires, l’homme a dit qu’il a finalement pu joindre quelqu’un pour corriger la divergence, mais que le processus de suppression de l’information prendrait deux semaines, alors que l’appartement s’éloigne.

Un litige peut être difficile à combattre, comme l’a découvert Carmen. Elle a finalement trouvé une représentation juridique auprès d’un organisme local à but non lucratif, le Connecticut Fair Housing Center. Le groupe a déposé une plainte administrative auprès de la société de gestion.

Le système CoreLogic qui a signalé Mikhail, selon les documents du tribunal, permet aux propriétaires de sélectionner certaines options sur les antécédents criminels à dépister. Cela signifie que la décision reste largement entre les mains du propriétaire, soutient la société, puisque le propriétaire choisit les paramètres. CoreLogic a déclaré que son système n’effectue une vérification que sur la base de ce qu’on lui dit de faire et qu’il est conforme à la législation sur le logement. (CoreLogic a refusé de répondre aux questions concernant son processus de vérification, invoquant des litiges en cours, dont plusieurs ont été portés devant le tribunal fédéral. La société n’a pas voulu fournir plus d’informations sur ce que les propriétaires peuvent précisément filtrer, ou comment elle assure l’exactitude de ses résultats.)

Si la société signale votre demande, et que vous pensez qu’elle se base sur des informations inexactes, CoreLogic offre une ligne d’assistance à appeler. L’entreprise dit qu’elle mènera une nouvelle enquête qui sera terminée dans les 30 jours, et si des erreurs sont trouvées, elle corrigera les problèmes. Pourtant, certains soutiennent que même si les erreurs sont corrigées, toute maison pour laquelle un candidat a fait une demande sera probablement perdue au bout d’un mois.

Le Connecticut Fair Housing Center a essayé d’obtenir que la société de gestion passe outre la vérification des antécédents. Quelle que soit la raison pour laquelle Mikhail a été signalé, ont-ils fait valoir, c’était clairement sans objet. Si une vérification des antécédents criminels est fondée sur la théorie selon laquelle elle peut prédire un comportement futur, Mikhail n’était guère susceptible de commettre un crime à l’avenir – il était handicapé à l’heure actuelle et dépendait de l’aide des autres. Il n’y avait aucune base pour penser qu’il était d’une manière ou d’une autre un danger pour les personnes ou les biens.

L’argument, selon Salmun Kazerounian, un avocat salarié du centre, n’a pas influencé la direction. « Ils ont répondu, essentiellement, ‘comment pouvons-nous accepter de passer outre un casier judiciaire si nous ne savons pas ce que c’est ?' », dit-il.

La documentation de CoreLogic était une source éparse d’indices. L’entreprise a fourni un « résultat » indiquant qu’il y avait un « casier judiciaire disqualifiant », mais pas assez pour déduire quel était le problème. Le rapport a généré une entrée  » juridiction  » qui semblait n’avoir aucun sens :  » 000000033501.PA. « 

Au début, ils n’avaient aucune idée de la façon de découvrir ce que l’enregistrement pouvait signifier. Il a fallu creuser davantage pour déterminer les circonstances, mais finalement l’histoire a pu être reconstituée. Avant son accident, Mikhail était accusé de vol au détail en Pennsylvanie. Selon le centre, il s’agissait d’une « infraction sommaire », une accusation inférieure à un délit, également appelée « citation non routière ». Le niveau de l’accusation suggère que l’incident concernait moins de 150 dollars et qu’il s’agissait de la première infraction de Mikhail. Il avait 20 ans à l’époque. « C’était aussi mineur que possible », dit Kazerounian. L’année dernière, l’accusation a été retirée. (Mikhail a également été arrêté à la suite d’un cambriolage en 2013, selon les déclarations des autorités locales ; Kazerounian a souligné que, quoi qu’il en soit, l’accusation de Pennsylvanie était le seul élément sur son dossier.)

Bien qu’il soit difficile de déterminer le taux exact de litiges comme celui des Arroyos, les experts disent qu’il existe des problèmes plus larges autour de l’exactitude de la vérification des antécédents. « Contester des informations avec les agences de renseignements sur les consommateurs peut être extrêmement difficile pour les individus », dit Welby.

Dans un cas CoreLogic récemment réglé, un homme nommé Abdullah James George Wilson a été envoyé en prison après un vol de 1992, mais des années plus tard, après que son avocat ait été jugé inefficace, Wilson a obtenu une décision favorable en appel. Son dossier a été scellé.

Mais en 2014, Wilson, à la recherche d’un logement, a constaté que sa demande avait été rejetée malgré tout. Le problème : un système de CoreLogic a repéré le dossier du registre correctionnel de New York. Wilson s’est vu interdire l’accès à l’appartement.

« À l’ère de la technologie et de l’utilisation généralisée des vérifications des antécédents criminels, il est plus important que jamais que les entreprises de vérification des antécédents fassent les choses correctement », a déclaré Wilson, qui a conclu un accord dans le cadre d’un procès, dans une déclaration à The Verge fournie par le Legal Action Center. « Elles doivent prendre les mesures appropriées pour s’assurer que les informations sur les casiers judiciaires qu’elles communiquent sont exactes. Les enjeux sont élevés pour les gens – cela peut faire la différence entre avoir un endroit à appeler maison ou pas. »

Mikhail a finalement été autorisé à emménager avec Carmen en juin 2017, après que l’accusation ait été retirée. Si le dépistage avait été effectué efficacement, le Connecticut Fair Housing Center allègue dans un procès contre CoreLogic, ils auraient pu être réunis un an plus tôt, ce qui aurait permis aux Arroyos d’économiser du temps, de l’argent et de l’énergie émotionnelle. « Je l’apporte parce que je pense que c’était mal, ce qu’ils ont fait », dit Carmen.

Le procès est en cours. Elle fait valoir que l’outil de dépistage affecte de manière disproportionnée les locataires noirs et latino-américains, et ne prend pas correctement en compte les circonstances atténuantes d’un casier judiciaire, ce qui constituerait une violation de la loi sur le logement équitable telle qu’elle a été décrite dans les orientations de 2016 du HUD. La plainte vise à obtenir des dommages et intérêts pour les Arroyos, qui seront déterminés ultérieurement, et demande un jugement qui obligerait CoreLogic à prendre des mesures qui empêcheraient des situations comme celles des Arroyos à l’avenir.

L’entreprise a répondu que, en tant qu’entreprise de vérification des antécédents, elle n’est pas soumise à la loi. Seules les personnes qui utilisent leurs outils le sont, soutiennent-ils. Les règles du HUD, disent-ils, soutiennent cette affirmation.

Lorsque Mikhail est rentré chez lui, environ deux ans après l’accident, Carmen dit qu’elle était « un sac de grandes émotions. » Il reste en fauteuil roulant, et suit une thérapie physique deux fois par semaine, mais peut dire des phrases comme « Salut, maman ». Il a pleuré en rentrant à la maison.

Quand il est rentré, il a eu des moments d’inquiétude pour savoir s’il allait devoir repartir. « Je le rassurais toujours », dit Carmen, « non, tu es à la maison, c’est tout. »

Politique

Mark Zuckerberg propose des réformes limitées de 230 avant une audience du Congrès

Politique

Les livreurs d’Amazon doivent consentir à la surveillance par l’IA dans leurs camionnettes ou perdre leur emploi

Apple

L’Apple Card ne discrimine pas réellement les femmes, disent les enquêteurs

Voir tous les articles dans Politique

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *