Le véritable article de Timnit Gebru pourrait expliquer pourquoi Google l’a éjectée

Un article co-écrit par l’ancien éthicien de l’IA de Google, Timnit Gebru, a soulevé des questions potentiellement épineuses pour Google quant à savoir si les modèles de langage d’IA peuvent être trop grands et si les entreprises de technologie font suffisamment pour réduire les risques potentiels, selon Examen de la technologie MIT. Le document a également remis en question les coûts environnementaux et les biais inhérents aux grands modèles linguistiques.

L’équipe IA de Google a créé un tel modèle de langage – BERT – en 2018, et il a connu un tel succès que l’entreprise a intégré BERT dans son moteur de recherche. La recherche est un segment très lucratif de l’activité de Google; rien qu’au troisième trimestre de cette année, il a généré des revenus de 26,3 milliards de dollars. «Cette année, y compris ce trimestre, a montré à quel point le produit fondateur de Google – la recherche – a été précieux pour les gens», a déclaré le PDG Sundar Pichai lors d’un appel avec des investisseurs en octobre.

Gebru et son équipe ont soumis leur article, intitulé «Sur les dangers des perroquets stochastiques: les modèles de langage peuvent-ils être trop grands?» pour une conférence de recherche. Elle a dit dans un série de tweets mercredi, à la suite d’un examen interne, on lui a demandé de retirer le papier ou d’en retirer les noms d’employés de Google. Elle dit qu’elle a demandé à Google des conditions pour retirer son nom du journal et que s’ils ne pouvaient pas remplir les conditions, ils pourraient « travailler à un dernier rendez-vous ». Gebru dit qu’elle a ensuite reçu un e-mail de Google l’informant qu’ils «acceptaient sa démission avec effet immédiat».

Le responsable de Google AI, Jeff Dean, a écrit dans un e-mail aux employés que le journal «ne respectait pas notre barre de publication». Il a écrit que l’une des conditions de Gebru pour continuer à travailler chez Google était que l’entreprise lui dise qui avait examiné le document et ses commentaires spécifiques, ce qu’elle a refusé de faire. «Timnit a écrit que si nous ne répondions pas à ces exigences, elle quitterait Google et travaillerait à une date de fin. Nous acceptons et respectons sa décision de démissionner de Google », a écrit Dean.

Dans sa lettre, Dean a écrit que l’article «ignorait trop de recherches pertinentes», une affirmation que la co-auteur de l’article, Emily M. Bender, professeur de linguistique informatique à l’Université de Washington, a contesté. Bender a dit Examen de la technologie MIT que l’article, qui comptait six collaborateurs, était «le genre de travail qu’aucun individu ou même paire d’auteurs ne peut réaliser», notant qu’il avait une liste de citations de 128 références.

Gebru est connue pour ses travaux sur les biais algorithmiques, en particulier dans la technologie de reconnaissance faciale. En 2018, elle a co-écrit un article avec Joy Buolamwini qui montrait que les taux d’erreur pour identifier les personnes à la peau plus foncée étaient beaucoup plus élevés que les taux d’erreur pour identifier les personnes à la peau plus claire, puisque les ensembles de données utilisés pour former les algorithmes étaient extrêmement blancs.

Gebru a dit Filaire dans une interview publiée jeudi qu’elle se sentait censurée. «Vous n’allez pas avoir de papiers qui rendent l’entreprise heureuse tout le temps et ne signalent pas les problèmes», a-t-elle déclaré. «C’est contraire à ce que signifie être ce genre de chercheur.»

Depuis que la nouvelle de son licenciement est devenue publique, des milliers de sympathisants, dont plus de 1 500 employés de Google, ont signé une lettre de protestation. «Nous, soussignés, sommes solidaires du Dr Timnit Gebru, qui a été démis de ses fonctions de chercheur scientifique et co-responsable de l’équipe d’intelligence artificielle éthique (IA) chez Google, à la suite d’une censure de recherche sans précédent», lit-on dans la pétition intitulé Debout avec le Dr Timnit Gebru.

« Nous appelons Google Research à renforcer son engagement en faveur de l’intégrité de la recherche et à s’engager sans équivoque à soutenir une recherche qui respecte les engagements pris dans les principes d’IA de Google. »

Les pétitionnaires demandent à Dean et à d’autres «qui étaient impliqués dans la décision de censurer l’article du Dr Gebru de rencontrer l’équipe Ethical AI pour expliquer le processus par lequel l’article a été rejeté unilatéralement par les dirigeants».

Google n’a pas immédiatement répondu à une demande de commentaire samedi.

Pour marque-pages : Permaliens.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *