« Avec plus de 400 heures de contenus vidéo mis en ligne par minute, le risque 0 n’existe pas », Justine Ryst, YouTube

13 décembre 2021

INfluencia : vous évoquez la règle des 4R pour parler des mesures mises en place contre la désinformation, un sujet lourd de conséquences pour la démocratie. Quelles sont-elles ? Et comment vous y prenez-vous pour nettoyer les contenus présents sur la plateforme ?

Justine Ryst : cette règle des 4R est au cœur de notre stratégie depuis les débuts de YouTube il y a seize ans, mais en 2018 nous sommes montés d’un cran. Il y a le R pour « retirer » tout d’abord des plateformes, toute haine, tout appel à la violence, ou à la désinformation. Une première règle strictement appliquée aux vidéos, et aux commentaires. Soit au total 6 millions de vidéos et plus d’un milliard de commentaires retirés grâce à l’IA qui nettoie les contenus grâce à des phrases, des images et des mots-clé, et neutralise ainsi la majeure partie des contenus impropres…

IN. : peut-on grâce à l’IA seulement, nettoyer intégralement les contenus ?

J.R. : non, bien entendu, une fois cette première étape franchie, il s’agit de faire intervenir l’humain afin d’examiner ce que l’IA ne peut pas déceler… 2000 personnes travaillent sur ces derniers. Des ingénieurs, des modérateurs, des juristes, des partenaires, tels que des associations qui sont équipées du programme Trusted flaggers*, une arme prioritaire. Ce sont des sentinelles, autant que des modérateurs….

IN. : vous évoquez aussi le R qui concerne les vidéos qui sont « à la ligne de crête » de votre philosophie…

J.R. : il s’agit de vidéos qui sont à la limite de l’acceptable, nous utilisons à l’interne le terme de « ligne de crête » et que nous surveillons de près. Des propos tenus par Jair Bolsonaro, Eric Zemmour ou des jeunes qui appellent à la haine, qui sont à notre sens inaudibles, sans contradicteurs, sont hautement surveillés. Nous tentons par tous les moyens de « réduire» des théories qui circulent chaque fois plus, concernant « les platistes », « la théorie de grand remplacement » chère à Eric Zemmour qui s’en est, une fois plus fait l’écho dans l’émission Elysée2022, en annonçant pour 2100, le remplacement de tous les Français, par une population islamiste…

IN. : l’IA, vos salariés modérateurs, les associations, sont-ils suffisants pour aiguiller correctement les internautes ?

J.R. : voici un exemple concret, si vous tapez sur votre barre de recherche « grand remplacement» vous tombez directement sur Wikipedia, qui est à notre sens une institution qui n’a rien à envier aux grands medias de référence, puisque cette plateforme est sans cesse réactualisée et modérée.

IN. : qu’en est-il du R comme relayer ?

J.R. : il s’agit de nous appuyer sur des medias de référence, tels que France 24, Brut, Le Monde, Le Figaro, Kombini… afin d’assurer là encore le bon relai, la bonne information contextualisée. Mais notre rôle est aussi de lutter contre l’enfermement logarithmique. Le plus difficile, et là où notre rôle est sans doute le plus ambitieux, est d’éclairer les croyances des citoyens, les plus jeunes notamment, afin que ces dernières deviennent des connaissances, des arguments de réflexion pour donner, – aux primo-votants par exemple-, en ces temps de débats présidentiels, accès, à des argumentations. Préserver, -ou relever-, encore cette hauteur de réfléxion qui menace tant la liberté de penser.

IN. : enfin, vous évoquez aussi le R comme « récompenser » ou plutôt rémunérer… Votre modèle économique.

J.R. : le modèle de Youtube est publicitaire. Selon les calculs du cabinet Oxford Economics, Youtube est directement ou indirectement responsable d’une contribution de 515 millions d’euros au PIB français. Soit 15 000 emplois à plein temps. Pour prendre quelques exemples, tous les influenceurs représentées par la MCN Webedia, s’appellent Hugo décrypte, une société de quinze CDI, c’est aussi Norman, Michou, Natoo, Inoxtag, Just Riadh, La French House, Greg Guillotin… etc.

IN. : la Covid a dû être un exercice challengeant pour Youtube ?

J.R. : la moindre actualité ou nouveauté est un exercice challengeant. Lorsque les antivax se mettent à agir sur les réseaux, nous sommes immédiatement sur le pont pour appliquer les mesures de contenus et les règles d’usage. Idem sur les discours de haine. Depuis 2017, nous sommes parvenus à neutraliser 25000 chaines consacrées à Dieudonné et Alain Soral…

IN. : toutes les plateformes gardent leur part d’ombre : vous dites avoir conscience que, sur YouTube aussi, il reste des contenus qui ne sont pas conformes à vos règlements.  Comment travaillez-vous pour supprimer ces contenus problématiques qui demeurent encore ? »

J.R. : l’application de notre règlement, que nous faisons régulièrement évoluer, -en 2020, nous avons fait plus de 10 mises à jour de notre règlement liées à la seule lutte contre la désinformation médicale-, est une priorité pour nous. Avec plus de 400 heures de contenus mis en ligne chaque minute sur YouTube, le Zéro risque n’existe pas mais nous mettons tout en oeuvre, avec des investissements technologiques et humains, pour intervenir le plus rapidement possible.

Le Transparency Report, détaillant les nombreuses actions mises en œuvre pour garantir l’application de notre règlement de la communauté est consultable.  Ainsi, entre janvier et mars 2021, YouTube a retiré 9,5 millions de vidéos. En avril, nous avons créé un nouvel indicateur : le Taux de Vues Incorrectes, qui nous permet de déterminer le pourcentage des vues sur YouTube qui sont générées par des contenus enfreignant nos règles. En Q4 2020, il était de 0.16 -0.18% (ce qui signifie que 16 à 18 vues sur 10 000 sont générées par des contenus non conformes).

IN. : être son propre régulateur, est-ce suffisant pour assurer la sécurité du web puisque les contenus supprimés peuvent migrer vers d’autres plateformes ? »

J.R. : sur le volet régulateur, il est important de rappeler que, au-delà de nos règlements, nous respectons également les lois locales des pays dans lesquels nous opérons. Sur la migration vers d’autres plateformes, il existe de nombreux espaces de collaboration pour éviter justement la propagation de certains contenus problématiques. Ainsi, sur les contenus liés au terrorisme par exemple, il existe une base de données communes (fichiers / empreintes numériques) de contenus illictes via le GIFCT (global internet forum to counter terrorism). Cela permet ainsi pour les autres plateformes (notamment les plus petites) de les repérer plus rapidement, et de prendre les actions qui s’imposent.

*(Les utilisateurs individuels, les agences gouvernementales et les ONG peuvent participer au programme YouTube Trusted Flagger. Les candidats idéaux disposent d’une expertise reconnue dans au moins un des domaines répertoriés dans le Règlement de la communauté, signalent souvent des contenus avec un taux de fiabilité élevé et sont prêts à échanger régulièrement avec YouTube à propos de divers domaines de contenus de la plate-forme)





source : www.influencia.net

agence de communication à Rennes

« Avec plus de 400 heures de contenus vidéo mis en ligne par minute, le risque 0 n’existe pas », Justine Ryst, YouTube
Mot clé :                                                    
Agence LDP