Sommaires exécutifs 11 nov. 2024

L’IA au service de l’immigration canadienne : Chinook, un outil controversé

L’utilisation de l’intelligence artificielle et d’outils technologiques dans les processus décisionnels par Immigration, Réfugiés et Citoyenneté Canada (IRCC) 

Le Canada fait face à une demande d’immigration sans cesse croissante, ce qui a entraîné, invariablement depuis déjà plusieurs années, un volume élevé de demandes et, par conséquent, des retards de traitement importants. Un nombre limité d’agents d’IRCC sont disponibles pour traiter ces demandes. Aujourd’hui, on parle de plus de deux millions de demandes de toutes catégories confondues, qui seraient en cours de traitement. Ces facteurs combinés ont conduit à des situations où les agents ne disposent souvent que de quelques minutes pour examiner les formulaires et documents soumis par les demandeurs de visas et rendre une décision sur une demande d’immigration. 

Face à cette situation et dans une quête impérieuse d’efficacité, IRCC a conçu et déployé de nouveaux outils technologiques ayant pour vocation première d’aider les agents à prendre des décisions plus rapidement. IRCC admet utiliser l’outil Chinook depuis 2018 pour le traitement des demandes de résidence temporaire. Cet outil a été développé dans le but d’améliorer l’efficacité du traitement des demandes, mais son développement et sa capacité à exécuter certaines fonctions analytiques ont soulevé plusieurs questions éthiques. 

Fonctionnement de Chinook 

Basé initialement sur Microsoft Excel et présentement en voie d’être déployé sur une plateforme Cloud, Chinook extrait et présente des renseignements conservés dans le Système mondial de gestion des cas (SMGC) de manière plus conviviale et plus facile d’accès, il extrait des informations précises selon certains indicateurs, et il offre une représentation visuelle différente aux agents chargés de rendre les décisions.  
Chinook n’est pas en soi un outil d’intelligence artificielle pur, mais plutôt une forme d’interface qui attire néanmoins l’attention des agents décisionnels sur certains éléments d’un dossier, sans nécessairement apporter le contexte ou les nuances qu’une analyse plus approfondie du dossier pourrait révéler. Il exécute certaines fonctions analytiques basées sur des critères ou des indicateurs. Chinook peut, par exemple, utiliser des mots-clés pour souligner certaines considérations favorables, mais il peut aussi aller jusqu’à générer des motifs de refus standardisés. L’outil n’autogénère pas d’indicateurs ; ceux-ci sont désignés par IRCC.  

Parallèlement aux fonctionnalités de Chinook, IRCC utilise également certains systèmes d’analyse et d’automatisation avancés qui fonctionnent indépendamment de ce dernier, et qui peuvent également catégoriser les demandes selon leur niveau de « complexité », et ainsi indiquer aux décideurs quels sont les dossiers nécessitant une attention particulière.  
 
Ces systèmes permettent, par exemple, d’identifier les demandes justifiant un traitement simplifié, comme celles des demandeurs de visas de visiteurs pour lesquels une demande similaire a déjà été approuvée au cours des 10 dernières années, et visent ainsi à améliorer l’efficacité du processus. Ils identifient également les demandes complexes qui nécessiteraient une analyse plus approfondie. Comme pour Chinook, IRCC mentionne que le système en soi ne rend aucune décision ; il envoie le dossier à un agent qui déterminera si le demandeur est admissible au Canada et prendra la décision définitive. 

Questions éthiques et juridiques

La Cour fédérale s’est déjà penchée à quelques reprises sur l’utilisation de Chinook. Elle a reconnu qu’en soi, l’utilisation de Chinook dans le processus décisionnel ne constitue pas une décision déraisonnable ni une atteinte à l’équité procédurale, dans la mesure où c’est une personne qui a rendu la décision et non le système de manière autonome, et que cette décision n’est pas déraisonnable en soi (cas Haghshenas v. Canada). La supervision humaine est absolument nécessaire.  

L’utilisation de lettres de refus autogénérées a également été analysée, et la Cour a encore une fois conclu qu’en soi, cela ne constituait pas une atteinte à l’équité procédurale. La Cour a toutefois établi que l’utilisation d’un tel outil ne devait pas remplacer une analyse complète d’un dossier incluant l’ensemble des formulaires, des attestations et des documents, le plan d’études et d’autres éléments par l’agent décideur(cas Khosravi v. Canada). La Cour a souligné l’importance pour un agent de ne pas se fier aux informations incomplètes fournies par Chinook et de consulter l’ensemble du dossier afin de rendre une décision raisonnable. À ce jour, la Cour maintient que la substance de la décision doit prévaloir sur les moyens qui ont été utilisés pour la rendre.  

Risques et biais potentiels 

Bien que ce soit la position retenue, dans un contexte où les agents d’immigration ne disposent en moyenne que de quelques minutes pour analyser un dossier et rendre une décision, n’existe-t-il pas néanmoins certains risques de biais en fonction des critères utilisés pour trier et analyser les demandes ? L’utilisation de ces technologies ne pourrait-elle pas faire pencher la discrétion dont un agent dispose d’un côté ou de l’autre ? En classifiant les dossiers selon leur niveau de « complexité », le système ne participe-t-il pas à la première étape de la décision ou ne formule-t-il pas une forme de recommandation qui pourrait être basée sur différents biais ? Plusieurs questions se posent encore. 

À des fins de transparence et d’équité, toutes les décisions prises à l’aide de Chinook doivent être documentées et auditées. Le Comité permanent de la citoyenneté et l’immigration a également recommandé qu’IRCC effectue une vigie de gouvernance supplémentaire incluant des analyses comparatives et une évaluation de l’incidence algorithmique.  
Il est crucial que les demandeurs de visas puissent comprendre l’utilisation qui est faite de ces technologies afin de pouvoir présenter leur demande de la manière la plus complète et précise possible. Il est tout aussi important que les agents soient régulièrement formés à identifier les biais possibles afin de garantir un processus décisionnel, équitable, transparent et efficace. Il sera intéressant de suivre l’évolution de cet outil, de son utilisation et de la position de la Cour.  

Bien que ces technologies ne soient pas considérées comme des outils d’intelligence artificielle au sens strict, leur utilisation ne doit pas se substituer à une décision humaine. Il doit rester possible de comprendre et d’analyser le rôle de ces outils dans chaque décision rendue. Il sera intéressant de suivre à la fois l’évolution des systèmes et celle de la jurisprudence concernant l’équité procédurale, et la discrimination qui pourrait être engendrée par ces outils évolutifs.