Intelligence artificielle et justice : réussir une alliance sans dystopie

By Maryse Chouinard November 7, 20187 November 2018

Intelligence artificielle et justice : réussir une alliance sans dystopie

 

Quels principes devraient guider un projet d’intelligence artificielle (IA)? Quels enjeux éthiques sont soulevés par les ratés des robots qui accompagnent nos décisions? Le cas échéant, qui en est responsable?

Ce sont les questions auxquelles se sont attaqué M. Gilles Lajoie, M. Kamel Khouatmi, Me Andrea Isabelle-Roy, et Me Anne-Marie Santorineos, de la Société québécoise d’information juridique (SOQUIJ) lors d’un atelier présenté le mois dernier par l’Association du Barreau canadien, section Québec et la SOQUIJ.

Neuf règles d’or avant de se lancer dans un projet d’IA

L’an dernier, la SOQUIJ a créé une « cellule d’innovation » pour concevoir, avec Éducaloi et Element AI, un moteur de recherche permettant au citoyen de trouver des résultats de jurisprudence à partir de mots courants.

Gestionnaire du projet, qui n’est pas encore concrétisé, M. Kamel Khouatmi a livré les apprentissages suivants aux organisations tentées par l’aventure :

  1. Bien définir le problème. Avant de se lancer, le problème doit être « bien cerné, bien compris, et le contexte d’utilisation clairement défini ».
  2. Ne pas faire de l’IA juste pour faire de l’IA. Une intelligence artificielle, c’est un système capable de générer de nouvelles règles à partir des données et des règles qui lui ont été fournies. Si un système moins sophistiqué permet de répondre au problème, le recours à l’IA est inutile. Ce dernier sous-entend un problème complexe, un degré de tolérance face aux erreurs possibles, et une évaluation régulière pour les éviter.
  3. Disposer de données de qualité. Les données fournies au système doivent être représentatives, prêtes à l’utilisation, en volume suffisant, accessibles et exactes. M. Lajoie, directeur général de la SOQUIJ, emploie l’analogie des vêtements « propres, triés, pliés, et si possible repassés ».
  4. Prévoir du temps pour générer les données. Plus le volume de données est élevé, plus l’organisation doit prévoir du temps pour les colliger et les présenter au système d’une façon digeste.
  5. Adopter la gestion agile… et l’anglais. L’expertise IA est globale et l’anglais sert bien souvent de langue commune. De plus, les compagnies de technologie sont gérées en mode agile, ce qui sous-entend des itérations parfois pluriquotidiennes avec le client. « Il faut être prêt à suivre la cadence », avertit M. Lajoie.
  6. Penser autrement. Disons-le, implanter un projet en IA, c’est une « transformation », voire un « changement de philosophie », insiste M. Lajoie. Si l’organisation est frileuse ou traditionnelle, il faut prévoir le temps nécessaire à accroître sa capacité de changement.
  7. Veiller aux indicateurs de performance. L’organisation doit prévoir un ensemble de tests automatisés pour contrôler la performance du système, nourrir ses apprentissages et faire valider par un expert les résultats obtenus.
  8. Exploiter l’infonuage. La capacité de « cruncher » des millions de données n’est pas donnée à toutes les organisations. Heureusement, il est désormais possible de les stocker et de les compiler via le nuage, directement ou par un fournisseur de services.
  9. Payer! Non seulement l’expertise des développeurs se monnaie à fort coût, mais il faut prévoir énormément de temps d’analyse, de traitement de données et de gestion de projet, tout ça pour un résultat incertain.

Des remparts contre les dérives éthiques

Les usages de l’IA dans le domaine juridique sont nombreux : recherche en langage courant (ROSS Intelligence, Ailira), prédiction du succès d’un recours (Tax Foresight, Employment Foresight), prédiction du risque de récidive (COMPAS), etc. Plus d’efficacité et de prévisibilité, un meilleur contrôle des coûts… peut-on conclure d’emblée à un meilleur accès à la justice?

Pas nécessairement, répond Me Andrea Isabelle-Roy. On doit être vigilant pour contrer toute atteinte à l’équité procédurale, et toute reproduction des biais humains. Par exemple, on s’est rendu compte que COMPAS donnait systématiquement des scores de risque de récidive plus élevés aux personnes de couleur. « La machine ne crée pas la discrimination. Elle est le miroir de qui on est », rappelle l’avocate. Le choix subjectif des données à fournir au système explique en partie ces écarts indésirables.

Un autre enjeu grave de l’I.A. appliquée au droit demeure l’équité procédurale, à cause d’un manque d’accessibilité et de transparence. Le justiciable a difficilement accès à l’algorithme ayant mené à un résultat qui lui est défavorable à des fins de contestation. « Les compagnies s’y opposent sur la base de la propriété intellectuelle et du secret industriel », explique Me Isabelle-Roy.

Une des pistes législatives envisageables pour contrer les dérives est la création d’un organisme indépendant. Celui-ci pourrait permettre à certaines conditions l’accès aux algorythmes afin de les contester, et contrôler le contexte d’utilisation des solutions I.A. (comme dans le cas de COMPAS, conçu pour les travailleurs sociaux mais tombé entre les mains des juges).

La machine responsable de ses actions?

Pour Me Anne-Marie Santorineos, ces technologies doivent servir « d’accompagnateur » et non de substitut à la prise de décision.

En effet, qui est responsable si l’IA s’emballe et émet une recommandation farfelue? Présentement en développement, la Déclaration de Montréal sur un développement responsable de l’IA se contente de proposer que les « différents acteurs du développement de l’IA devraient assumer leur responsabilité en œuvrant contre les risques de ces innovations technologiques ».

En équipes, les participants ont été appelés à en débattre sur la base d’un cas de figure : se fiant sur la recommandation d’une IA, le maire d’une municipalité applique une solution disproportionnée dans un dossier de nuisance. Est-il responsable? Ou serait-ce l’expert? Le développeur? La machine elle-même? Doit-on envisager la coresponsabilité?

Le consensus chez les participants : le maire, pour avoir appliqué aveuglément la solution recommandée par l’IA au lieu d’avoir validé avec un avocat. Personne ne soulève la responsabilité de la machine, considérée comme un bien en droit québécois…

« Ce qui nous apparaît si loin de notre réalité et loufoque est en fait plus proche qu’on croyait », dit Me Santorineos, en abordant la résolution du 16 février 2017 du Parlement européen, recommandant la création d’une « personnalité électronique » avec des droits et des obligations spécifiques. En attendant une telle législation ici, quelques mesures sont possibles pour mieux départager la responsabilité : préciser au contrat les droits et les obligations de chacune des parties au projet de développement de l’IA et fournir à l’usager le bon contexte d’utilisation de la technologie.

« Et si on terminait en demandant à une machine ce qu’elle en pense? », propose Me Santorineos en approchant son portable du micro. « Siri, devrais-tu être responsable de tes propres actions? » Suspense… puis soulagement de constater que Siri se déclare incapable de répondre à la question. Du moins, pour l’instant…

Maryse Chouinard est une avocate basée à Montréal.

Filed Under:
Comments
No comments


Leave message



 
 Security code