INfluencia : à la question : les algorithmes font-ils la loi ?*  » qui est le titre de votre nouveau livre, Vous répondez : non, mais ils sont partout. Vous conseillez alors de les dompter plutôt que de les réguler. De quelle façon ?
Aurélie Jean : on doit « dompter » les algorithmes, ce qui est une métaphore bien évidemment (rires), par lâobligation pour chaque acteur (individuel, institutionnel ou privé) dâavoir une gouvernance algorithmique pertinente pour assurer le bon fonctionnement de ces entités mathématiques et numériques. Cela inclut les bonnes pratiques de développement, de tests, de backtesting (ou « test rétroactif de validité », i.e. une fois que lâalgorithme est utilisé en conditions réelles) et dâusage. Cela passera par une réglementation cohérente, pragmatique et souple, qui protège sans freiner lâinnovation.
IN :Â les Peut-on dire que les algorithmes sont intelligents ?
A.J : absolument pas ! Les algorithmes maîtrisent un raisonnement analytique uniquement. Ils sont très efficaces, mais sans aucune maîtrise dâune intelligence générale.
IN : sans intelligence, soit, mais La principale menace néanmoins pourvus dâune forte capacité de nuisance, des algorithmes câest ce que vous appelez parlez « dâeffet bulle ». Câest-à -dire ?
A.J. : cet « effet bulle » nâest pas la principale menace mais une elle en est unedes menaces. On utilise très souvent des algorithmes dits « de catégorisation » pour classer des individus ou des scénarios selon des similarités statistiques. Par exemple, sur une application comme Twitter, on peut « classer » les utilisateurs selon leur comportement : le type de contenu quâils partagent ou quâils aiment, le type de profil quâils suivent⦠Pour en retour proposer à un utilisateur des contenus que des gens de sa « classe » aiment avec, en théorie, lâidée que ces contenus lui plairont également. En soi, ce genre dâalgorithme est beaucoup utilisé, jâen usee les utilise moi-même⦠Cela étant dit, il faut bien les développer et les utiliser pour écarter les risques intrinsèques à la classification. Dans le cas dâun réseau social comme Twitter, lacelle-ci classification peut devenir rigide, ce qui suppose que les classes ne changent pas dans le temps et que les individus restent figés dans une classecase, ne passant pas dâune classe à lâautre. Lâutilisateur va alors se voir suggérer des contenus de sa classe uniquement. On comprend alors les dérives, comme à travers les classes dans lesquelles les théories du complot et les fausses nouvelles sont partagées, qui vont paraître encore plus plausibles par les utilisateurs. De la même manière, des utilisateurs dâune autre classe penseront que lâon vit dans un monde particulier vu sous le prisme de leur classe uniquement, où les complotistes (ou les anti-vaccins) nâexistent pas. Ãcrit autrement, on crée des bulles dâobservation et dâopinion. On parle dâeffet bulle.
IN. : la data peut-elle être une alliée ? Quelles sont les limites de la politique du « no data », ce mouvement de résistance qui émerge face sinon à la « dictature » tout du moins aux dérives du numérique ?
A.J. : il ne faut surtout pas diaboliser la data, ce serait une grave erreur. La politique du « no data » est contre-productive. Depuis des décennies on utilise les données pour calibrer des modèles mathématiques et algorithmiques, ou encore pour les entraîner. Grâce à ces modèles, on peut prévoir la météo, détecter des tumeurs, optimiser des parcours de véhicules, diminuer les accidents sur une chaîne de production, pré-détecter des micro-cracks boursiers, détecter révéler des fraudes financières⦠et tant dâautres choses. On peut également vous suggérer des contenus pertinents et cohérents vis-à -vis de vos usages sur un moteur de recherche, sur un site de commerce en ligne ou encore sur le site de votre journal favori. Ce dont il faut davantage se méfier, ce sont des usages de ces données. Câest pourquoi le RGPD [règlement général sur la protection des données, ndlr] impose aux acteurs de spécifier lâusage en amont des data collectées pour éviter de tomber dans la collecte massive de données. Le RGPD protège justement les données à caractère personnel. Les prochaines réglementations sur lâIA lâintelligence artificielle seront également un changement important, je lâespère, dans la gouvernance algorithmique.
IN. : vous avez initié le serment Holberton-Turing** en 2018 sur le modèle du serment dâHippocrate des médecins. Doit-on et peut-on encore limiter la collecte des data à des finalités bien précises et identifiées en amont ?
A.J. : câest déjà le cas. Le RGPD impose de définir en amont les usages futurs des données collectées pour éviter une collecte massive des donnéesdâinformations à caractère personnel. Avec mon ami et collaborateur Grégory Renard, qui est scientifique en algorithmique et spécialiste en IA et de lâanalyse sémantique, nous avons imaginé ce serment pour venir en complément des textes de lois. Ce serment est un moyen de déclencher des prises de conscience individuelles et collectives, mais aussi dâencourager les acteurs scientifiques et techniques à sâinterroger sur leur travail, sur les bénéfices, les menaces, le sens de leurs résultats, et plus généralement sur leur responsabilité morale. Depuis la rédaction de ce serment, dâautres textes serments ont vu le jour et qui confirment lâimportance de ce genre dâinitiative en complément de la loi.
IN. : vous évoquez régulièrement les nouveaux enjeux pour les entreprises. Comment la data les affecte-t-elle ?
A.J. :  jâaime faire référence au livre The Inversion Factor*** publié chez MIT Press et co-écrit par le professeurr Sanjay Sarma, du MIT, que je connais personnellement et dont jâapprécie le travail. Dans cet ouvrage, les auteurs expliquent comment lâarrivée de la data a permis lâévolution des modèles économiques des entreprises, où les choses sâinversent. Une entreprise ne propose plus un produit mais un service, et les utilisateurs ne sont plus des consommateurs mais des collaborateurs. Câest en collaborant avec les utilisateurs quâune entreprise va pouvoir récolter ses données dans le but de lui fournir de meilleurs services. Cela étant dit, on comprend bien, alors, les bouleversements dans les entreprises : tant dans ce quâelles produisent que dans leur relation avec leurs utilisateurs. Elles doivent créer un lien de confiance avec eux en les intégrant dans le processus de développement â tout en leur expliquant dâabord comment les choses fonctionnent un minimum pour espérer obtenir de leur part des retours dâexpérience (leur on parle de feedback) afin dâaméliorer les technologies et/ou le service proposé.
IN. : vous êtes une spécialiste duRevenons au code et aux algorithmes. Pourquoi le code et lâentrepreneuriat constituent-ils, selon vous, une « combinaison évidente » ?
A.J. : on peut innover de plein de manières différentes ! Personnellement, je maîtrise Cela étant dit, lâalgorithmique et baigne quotidiennement dans les STEM [science, technology, engineering, and mathematics, ndlr]. Selon moi, ces disciplines permettent dâinnover dans tous les domaines. Jâai eu la chance de développer des modèles en ingénierie, en médecine ou encore dans la finance. Cela étant dità force, on comprend bien lâimportance de maîtriser cette disciplineles data pour lâutiliser les utiliser même si on nâest pas amené à développer des outils soi-même. Apprendre à coder, même en introduction, permet de démystifier des termes comme algorithme, data, fuite de mémoire, bug et tant dâautres termes. Câest un vecteur pédagogique puissant, jâen suis persuadée.
IN. : pensez-vous que le RGPD soit une réelle avancée ? Quelles sont ses faiblesses ?
A.J. : le RGPD est assurément une révolution dont lâEurope peut être fière. Comme je lâécris dans mon livre, ce texte a réussi le pari brillant dâautoriser la collecte de données à caractère personnel en lâencadrant assez fermement. Il a influencé dâautres pays encadrements législatifs comme, aux Ãtats-Unis, le texte californien CCPA (California Consumer Privacy Act) qui est reconnu aujourdâhui dans plusieurs Ãtats. Il existe des améliorations à réaliserapporter, comme en dans tout les texte de loi. En particulier, il faudrait réparer certains vides technologiques ( comme celui concernant le droit à lâoubli notamment, comme je lâexpose dans mon livre) ou encore adapter les applications du RGPD à la taille de lâentreprise : par exemple, une startup à quelques petits détails près devrait être conforme de la même façon quâun grand groupe comme Orange ou Facebook ? Cela nâa pas de sens. Il faut, je pense, sâinspirer davantage de ce quâa fait le CCPA aux Ãtats-Unis sur ce point.
IN. :  vous dites dans votre ouvrage que dans un futur proche, « lâombre asservissante disparaîtra pour laisser place à un éclairage juridique et scientifique chez chaque personne physique ou morale. LâEurope mettra en place une régulation pratique et pragmatique permettant de contrôler intelligemment les développements algorithmiques sans empêcher lâhumain et notre planète de profiter des avancées et progrès technologiques et scientifiques ». Dâoù vient cette confiance ?
A.J. : cette confiance me vient de ce quâon a réussi à pu réaliser dans le passé. La réussite du RGPD me donne confiance en lâEurope pour réussir à construire les prochaines régulations avec pragmatisme et efficacité, en encourageant lâinnovation tout et en protégeant les individus.
*De lâautre côté de la machine â Voyage dâune scientifique au pays des algorithmes, Humensis, 2019. Les algorithmes font-ils la loi ?, Ãditions de lâObservatoire, 2021.Â
**Du nom des pionniers de lâinformatique Betty Holberton et Alan Turing.
***Linda Bernardi, Kenneth R. Traub, Sanjay E. Sarma, The Inversion Factor: How to Thrive in the IoT Economy, MIT Press, 2017.
Interview extraite de la Revue 38 d’INfluencia DATA : La nouvelle identité ?
source : www.influencia.net