Timnit Gebru

Cet article est une ébauche concernant l’informatique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Timnit Gebru
Biographie
Naissance
Années 1980Voir et modifier les données sur Wikidata
Addis-AbebaVoir et modifier les données sur Wikidata
Nationalité
américaineVoir et modifier les données sur Wikidata
Formation
Activités
Chercheuse, chercheuse en intelligence artificielle, AI ethicistVoir et modifier les données sur Wikidata
Autres informations
A travaillé pour
Google (jusqu'à )
Microsoft ResearchVoir et modifier les données sur Wikidata
Directrice de thèse
Fei-Fei LiVoir et modifier les données sur Wikidata
Site web
(en) ai.stanford.edu/~tgebruVoir et modifier les données sur Wikidata
Distinctions
Time 100 ()
100 Women ()Voir et modifier les données sur Wikidata
Œuvres principales
Black in AI, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (d), Distributed Artificial Intelligence Research Institute (d)Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Timnit Gebru est une chercheuse spécialisée dans l'éthique de l'intelligence artificielle et notamment les biais algorithmiques.

Biographie

Timnit Gebru est née à Addis-Abeba, en Éthiopie. Elle émigre aux États-Unis à 16 ans et est admise à l'université Stanford[1], où elle poursuit des études en génie électrique. Elle obtient son doctorat en informatique dans le laboratoire d'intelligence artificielle de Stanford, avec Fei-Fei Li, en 2017[2]. Elle effectue ensuite un post-doctorat à Microsoft, dans le laboratoire FATE (Fairness, Accountability, Transparency and Ethics in AI), dédié à l'égalité, la transparence et l'éthique en intelligence artificielle[2].

Pendant sa thèse, Gebru co-fonde avec la chercheuse Rediet Abebe l'organisation Black in AI, qui vise à augmenter la représentativité des personnes noires dans le domaine de l'intelligence artificielle[1].

Elle est notamment l'auteure avec Joy Buolamwini de l'étude Gender Shades qui montre les biais des algorithmes de reconnaissance faciale qui reconnaissent moins facilement les personnes de couleur[3]. En particulier, les femmes noires ont 35% moins de chances d'être reconnues que des hommes blancs[4]. L'étude a des conséquences pratiques importantes sur les recommandations et interdictions des systèmes de reconnaissance faciale aux États-Unis.

Dans un article de 2018[5], Gebru et ses co-auteurs étudient les conditions de création et de maintenance des ensembles de données utilisés en apprentissage artificiel, et notent le manque de standardisation de la documentation de ces données. Plus généralement, Gebru s'interroge sur le fait que des questions comme: « Cette tâche a-t-elle un sens ? », « À qui appartiennent les données ? », « Comment sont-elles utilisées ? » ne sont que rarement posées, et que ce sont des questions sociales et non technologiques[6].

En décembre 2020, alors qu'elle co-dirige avec la chercheuse Margaret Mitchell l'équipe sur l'éthique dans l'intelligence artificielle, elle est licenciée par son employeur Google. Elle affirme que ce licenciement fait suite aux critiques qu'elle a émises sur la politique de recrutement des minorités de Google et les biais des systèmes d'intelligence artificielle[7]. Google conteste en répondant que son départ fait suite à un ultimatum de sa part[8],[9].

En 2022, Gebru commence à travailler avec Niloufar Salehi sur un outil de traduction automatique efficace pour les contextes à enjeux élevés, par exemple dans les hôpitaux[10].

La chercheuse compte parmi les 10 scientifiques "ayant contribué à façonner la science en 2021", selon le choix des rédacteurs de la revue Nature[11].

En 2023, avec le philosophe Émile P. Torrès, elle forge le terme TESCREAL pour désigner un ensemble d'idéologies communes aux promoteurs de l'intelligence artificielle générale. TESCREAL est un acronyme qui désigne le transhumanisme, l'extropianisme, le singularitarisme, le cosmisme, le rationalisme, l'altruisme efficace et le long-termisme [12].

Publications

  • (en) Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 », FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency,‎ , p. 610–623 (DOI 10.1145/3442188.3445922)
  • (en) Timnit Gebru et Émile P. Torres, « The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence », First Monday,‎ (lire en ligne)

Notes et références

  1. a et b « ai-innovators-how-one-woman-followed-her-passion-and-brought-diversity-to-ai »
  2. a et b « Understanding the limits of AI: When algorithm fails, »
  3. (en) Joy Buolamwini et Timnit Gebru, « Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification – MIT Media Lab », Proceedings of Machine Learning Research,‎ (lire en ligne).
  4. (en-US) Steve Lohr, « Facial Recognition Is Accurate, if You're a White Guy » [archive du ], The New York Times, (ISSN 0362-4331, consulté le )
  5. (en) « Datasheets for Datasets », ArXiv,‎ (lire en ligne)
  6. (en) « Dealing With Bias in Artificial Intelligence », sur THe New York Times,
  7. (en) « Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I. », The New York Times,‎ (lire en ligne).
  8. (en) Zoe Schiffer, « Timnit Gebru’s team at Google is going public with their side of the story », sur The Verge, (consulté le )
  9. (en) « Google workers mobilize against firing of top Black female executive » [archive du ], sur NBC News (consulté le ).
  10. (en) « I School Expert Wins Grant To Develop Language Translation Technology for High-Stakes Settings », UC Berkeley School of Information (consulté le )
  11. « Nature’s 10. Ten people who helped shape science in 2021 », sur nature.com, (consulté le )
  12. Gebru et Torres 2024

Liens externes

  • Ressources relatives à la rechercheVoir et modifier les données sur Wikidata :
    • Digital Bibliography & Library Project
    • Google Scholar
    • Mathematics Genealogy Project
    • ORCID
  • icône décorative Portail de l’informatique
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de Google
  • icône décorative Portail des Afro-Américains