Aller au contenu principal Aller au menu Aller à la recherche Aller au pied de page

Projet De l’intelligence artificielle à l’intelligence attentive – 2 et 3 octobre 2019

Roméo Diekmann Community Manager au LAB de Pôle emploi

Le contexte

Pôle emploi développe et met en œuvre des algorithmes pour accomplir ses missions et améliorer ses services, en utilisant ou non des données collectées auprès des utilisateurs de ses services (demandeurs d’emploi, candidats, salariés, recruteurs…).

Pôle emploi s’engage à respecter la réglementation en vigueur sur les algorithmes et souhaite aller plus loin en se dotant de principes éthiques et de règles déontologiques afin de réduire les risques induits par l’usage des algorithmes mis en œuvre.

 

L’objectif de la session

Co-construire une charte déontologique de l’utilisation de l’Intelligence Artificielle (IA) à Pôle emploi.

Les livrables attendus

  • État des lieux des représentations de l’IA.
  • Représentation des obstacles liés à l’usage de l’IA à Pôle emploi.
  • Identification et priorisation des garanties à apporter par Pôle emploi.
  • Comment gagner la confiance des usagers vis-à-vis de l’IA utilisée dans nos services ?

Les intervenants

  • Kiosque d’illustration avec le service « La Bonne Boite », par Éric BARTHÉLÉMY et Jimmy DORÉ.
  • Intervention de Franck CHIU sur l’IA et l’IA à Pôle emploi.

C’est quoi l’intelligence artificielle ?

Les participants se sont exprimés sur leur représentation de l’intelligence artificielle. Ils ont partagé aussi bien leur ressenti positif : « facilite la vie », « gain de temps », « aide à la décision » et « développement de nouveaux services de Pôle emploi » ; que négatif : « suppression d’emploi », « interrogation sur les données personnelles », « surveillance » et « remplacement de l’humain ».

L’IA idéale dans les services de Pôle emploi

Grâce à la méthode métaNATURE®, les participants se sont projetés sur l’intelligence artificielle idéale dans les services de Pôle emploi, qui devrait être : canalisée, sécurisée, qui facilite la vie, un garde-fou, transparente, robuste ; mais qui respecte des règles et des limites.

Les obstacles à une IA idéale

Après cette perspective optimiste, les participants ont mené une réflexion sur les obstacles possibles :

  • L’isolement : rôle de l’humain important, absences de relations d’empathie, substitution à l’humain, défaut d’accompagnement, fracture numérique.
  • La question des données : pertinence, sécurisation, confidentialité, détournement, manque de transparence dans l’utilisation et la transmission des données.
  • D’autres aspects mis en avant : discrimination de l’algorithme, pertinence des résultats, manque de moyens financiers, limites techniques, réglementation, résistance au changement.

Les garanties à mettre en place par Pôle emploi pour un bon usage de l’intelligence artificielle dans ses services

Pistes de solutions proposées :

  • Humain et formation. N’exclure personne – rester centré sur l’humain / La transparence, l’écoute et l’information, l’accessibilité centrées sur les utilisateurs / Limiter l’IA à la suggestion et le conseiller « garde la main » / Garantir l’accompagnement numérique et le développement des compétences pour tous : usagers les moins autonomes en priorité, conseillers, data scientists et managers Pôle emploi.
  • Sécurité et maîtrise des risques.
    Les données : Garantir la fiabilité des sources, engagement de confidentialité sur l’accès, hébergement sur des serveurs sécurisés, partage des données et diffusion sur consentement.
    Comité qui se réunit régulièrement (usagers + Pôle emploi + associations) afin de vérifier que l’IA ne soit pas détournée / Audit sur le respect de la charte, avec un rapport périodique.
    Dispositif d’alerte et possibilités de recours simplifiés et faciles.
  • Création d’un label Pôle emploi avec plusieurs dimensions : éthique, sécurité, espaces vérifiés, écoresponsable.
  • Les engagements associés à la charte : se doter d’une checklist qui suit la déontologie du service public / Inclure cette charte dans nos conventions de partenariats ou dans les projets de FAB-incubateurs / Proposer à la tutelle de l’intégrer au niveau ministériel pour mutualisation.
  • Non-discrimination et respect de la loi.
  • Écologie. Compenser empreinte carbone / Matériels verts / Action écoresponsable / plantation.
  • Autres garanties attendues : Du matériel performant / Intervention rapide en cas de bug / Une IA évolutive avec un rôle participatif des usagers.

Les idées pour créer la confiance des usagers sur l’usage des algorithmes dans les services de Pôle emploi

  • Ce que j’aimerais que l’on me dise… Les conditions d’utilisation : quelles données utilisées, leur sécurisation, date de mise à jour… Fonctionnement : un avatar présente et explique l’algorithme, ses objectifs, le taux de réussite/efficacité.
  • Les domaines où je refuse l’intervention de l’IA… L’humain reste décisionnaire et reste au centre des relations : établir le bilan, aider à optimiser sa recherche d’emploi / Indemnisation et données bancaires.
  • Où et comment mettre en avant la charte… Sur l’accueil de pole-emploi.fr, les réseaux sociaux via les médias traditionnels, via un chatbot, à chaque connexion, à l’inscription.
  • Exemple avec la Bonne Boîte… Rappel de la charte, les critères retenus pour la recherche, calcul expliqué de la méthode d’évaluation.

Les points de suite de la session LAB

Les pistes de solution issues de la session LAB serviront à :

  • Construire les contenus de la future charte déontologique.
  • Préparer les discussions avec les instances de gouvernance institutionnelle de Pôle emploi.

Dessins / Facilitation graphique : Philine BELLENOUE – Wild is the Game

Projet suivant

Et aussi ...