Emily M. Bender

Emily Menon Bender (1973) è una linguista e informatica statunitense, nota per le sue ricerche sui rischi dei grandi modelli linguistici e sull'etica nel trattamento automatico del linguaggio e per aver coniato il termine pappagallo stocastico.
Dal 2003 insegna e svolge ricerca presso l'University of Washington, dove dirige il Computational Linguistics Laboratory.
È coautrice del paper On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021), che ha contribuito ad avviare un ampio dibattito pubblico sui rischi dei grandi modelli linguistici, e del saggio divulgativo L'inganno dell'intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo (The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, 2025), scritto insieme alla sociologa Alex Hanna.
Nel 2023 è stata inclusa nella prima edizione della lista TIME100 AI.


== Biografia ==


=== Formazione ===
Bender ha conseguito la laurea triennale in linguistica presso la University of California, Berkeley nel 1995. Ha ottenuto il master nel 1997 e il dottorato nel 2000 presso la Stanford University, con una tesi sulla variazione sintattica e la competenza linguistica nell'inglese afro-americano vernacolare, sotto la supervisione di Tom Wasow e Penelope Eckert.


=== Carriera e ricerca ===
Dopo aver conseguito il dottorato a Stanford nel 2000, ha ricoperto una posizione temporanea come lettrice alla University of California, Berkeley e ha lavorato come Grammar Engineer presso YY Technologies (2001). Nel settembre 2002 è tornata alla Stanford University come Acting Assistant Professor, prima di approdare alla University of Washington nel 2003 come docente di linguistica, responsabile del Computational Linguistics Laboratory e del programma di master in linguistica computazionale.
È stata presidente dell'Association for Computational Linguistics nel 2024 ed è Fellow dell'American Association for the Advancement of Science dal 2022.


== Contributi alla linguistica computazionale ==
Bender ha condotto ricerche sulle strutture linguistiche di diverse lingue, tra cui il giapponese, il cinese mandarino, la lingua dei segni americana e l'inglese.
Ha sviluppato la LinGO Grammar Matrix, un kit open source per la costruzione di grammatiche di precisione ad ampia copertura nel framework Head-driven phrase structure grammar (HPSG). Ha inoltre pubblicato due monografie destinate ai professionisti del trattamento automatico del linguaggio naturale: Linguistic Fundamentals for Natural Language Processing: 100 Essentials from Morphology and Syntax (2013) e, con Alex Lascarides, Linguistic Fundamentals for Natural Language Processing II: 100 Essentials from Semantics and Pragmatics (2019).
Nel 2020 ha pubblicato, con Alexander Koller, il paper Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data, in cui argomenta come i modelli di apprendimento automatico addestrati esclusivamente sulla forma linguistica, senza connessione con il significato, non siano in grado di comprendere il linguaggio in senso proprio. Su questa base ha sostenuto che strumenti come ChatGPT non siano in grado di comprendere il testo che elaborano né quello che generano.
È nota anche per la cosiddetta Bender Rule, un'indicazione metodologica per i ricercatori in linguistica computazionale che consiste nel nominare esplicitamente la lingua su cui si lavora in ogni pubblicazione e presentazione scientifica, al fine di evitare generalizzazioni implicite sull'inglese come lingua universale.


=== Stochastic Parrots e il caso Google ===
Nel 2021 ha presentato alla conferenza ACM Fairness, Accountability, and Transparency il paper On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, di cui è coautrice insieme a Timnit Gebru, Margaret Mitchell e altri ricercatori. Il paper analizzava i rischi etici nella costruzione di sistemi di elaborazione del linguaggio naturale basati su grandi corpus testuali, tra cui l'impatto ambientale, i costi economici, la possibilità di riprodurre pregiudizi presenti nei dati e il rischio di diffusione di disinformazione. Google aveva tentato di bloccare la pubblicazione del paper, episodio che ha contribuito alla controversa uscita di Gebru dall'azienda.


=== Critica all'intelligenza artificiale e divulgazione ===
Dopo la pubblicazione di Stochastic Parrots, Bender ha intensificato la propria attività di divulgazione critica sui grandi modelli linguistici, sostenendo che il termine «intelligenza artificiale» sia principalmente un'etichetta di marketing usata per mascherare operazioni di raccolta dati, capitalismo della sorveglianza e svalutazione del lavoro umano.
Insieme ad Alex Hanna conduce il podcast Mystery AI Hype Theater 3000, in cui analizza con esperti accademici e dell'industria le affermazioni pubbliche sull'intelligenza artificiale.
Nel 2025 ha pubblicato con Hanna il saggio L'inganno dell'intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo (tit. orig.: The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, HarperCollins, 2025), in cui le due autrici smontano le principali affermazioni sull'intelligenza artificiale, esaminano i danni prodotti dalla sua imposizione nei settori della sanità, dell'istruzione, dei media e delle forze dell'ordine, e propongono strumenti critici per resistere alla narrazione delle grandi aziende tecnologiche.


== Riconoscimenti ==
Nel 2022 è stata eletta Fellow dell'American Association for the Advancement of Science. Nel 2023 è stata inclusa nella prima edizione della lista TIME100 AI, che raccoglie le cento persone più influenti nel campo dell'intelligenza artificiale secondo la rivista Time.


== Pubblicazioni (parziali) ==
(EN) Ivan A. Sag, Thomas Wasow e Emily M. Bender, Syntactic Theory: A Formal Introduction, CSLI Publications, 2003.
(EN) Emily M. Bender, Linguistic Fundamentals for Natural Language Processing: 100 Essentials from Morphology and Syntax, Morgan & Claypool, 2013.
(EN) Emily M. Bender e Alex Lascarides, Linguistic Fundamentals for Natural Language Processing II: 100 Essentials from Semantics and Pragmatics, Morgan & Claypool, 2019.
(EN) Emily M. Bender e Alexander Koller, Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data, in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020,  pp. 5185–5198, DOI:10.18653/v1/2020.acl-main.463.
(EN) Emily M. Bender, Timnit Gebru, Angelina McMillan-Major e Shmargaret Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 2021,  pp. 610–623, DOI:10.1145/3442188.3445922.
(EN) Emily M. Bender e Alex Hanna, The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, HarperCollins, 2025.
Emily M. Bender e Hanna Alex, L'inganno dell'intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo, Roma, Fazi, 2026, ISBN 979-1259678447.


== Note ==


== Voci correlate ==
Apprendimento automatico
Capitalismo della sorveglianza
Elaborazione del linguaggio naturale
Etica dell'intelligenza artificiale
Intelligenza artificiale
Linguistica computazionale
Pappagallo stocastico


== Collegamenti esterni ==

(EN) Sito ufficiale, su linguistics.washington.edu. 
(EN) Sito ufficiale, su faculty.washington.edu. 
(EN) Opere di Emily M. Bender, su Open Library, Internet Archive. 
(EN) Emily M. Bender, su Goodreads.

Alex Hanna

Alex Hanna (...) è una sociologa e informatica statunitense, nota per le sue ricerche sui bias di classe, razza e genere nei sistemi di intelligenza artificiale.
Ha lavorato presso la University of Toronto e Google, dove ha fatto parte del team Ethical AI. Dal 2021 è Direttrice della ricerca presso il Distributed Artificial Intelligence Research Institute (DAIR), fondato da Timnit Gebru.


== Formazione ==
Hanna è nata in Egitto ed è migrata negli Stati Uniti con i genitori e le sorelle.
Fin dall'infanzia ha nutrito una forte passione per i computer e la tecnologia. Nel primo anno alla Purdue University, dove si era iscritta a informatica e matematica, la guerra in Iraq e Afghanistan ha segnato il suo percorso politico: ha partecipato alle prime manifestazioni di protesta e ha tentato di coinvolgere i colleghi nell'attivismo, maturando nel contempo un interesse crescente per le dimensioni sociali della tecnologia, che l'ha portata ad aggiungere la sociologia al suo percorso di studi.
Ha conseguito nel 2007 la laurea triennale in entrambe le discipline, prima di proseguire con il master in sociologia nel 2013 e il dottorato nel 2016 presso la University of Wisconsin-Madison.
Durante il dottorato ha inizialmente studiato l'uso dei social media nella rivoluzione egiziana del 2011, recandosi in Egitto per raccogliere dati sul campo, prima di orientare la ricerca verso lo sviluppo del sistema MPEDS. La sua tesi finale ha riguardato lo sviluppo di MPEDS (Machine-Learning Protest Event Data System), un sistema automatizzato che combina apprendimento automatico ed elaborazione del linguaggio naturale per identificare e classificare eventi di protesta nelle fonti giornalistiche, riducendo significativamente i costi e i tempi della codifica manuale.
Nel corso del dottorato che ha fatto coming out come donna transgender.


== Carriera ==
Dopo il dottorato ha svolto incarichi di docenza presso l'Institute of Communication, Culture, Information and Technology della University of Toronto Mississauga.
Dal 2018 al 2022 ha lavorato in Google, prima come technical writer e sviluppatrice di curricula, poi come Senior Research Scientist nel team Ethical AI guidato da Timnit Gebru.
A seguito del licenziamento di Timnit Gebru nel dicembre 2020, Hanna ha lasciato Google, ritenendo che l'azienda non promuovesse adeguatamente la diversità e mostrasse disinteresse nei confronti delle persone di colore.
Dal 2021 al 2023 ha ricoperto una posizione come Lecturer presso la School of Information della University of California, Berkeley. Dal 2022 è Direttrice della ricerca presso il Distributed Artificial Intelligence Research Institute (DAIR) fondato da Gebru.


== Ricerca ==
La sua ricerca si concentra su come i dataset utilizzati per addestrare i sistemi di intelligenza artificiale incorporino e riproducano pregiudizi legati a razza, genere e classe sociale, esacerbando le disuguaglianze esistenti nella società.
Un filone centrale di questo lavoro riguarda la storia critica dei grandi archivi di addestramento: nel 2021 ha pubblicato, insieme a Emily Denton e altri ricercatori, uno studio genealogico su ImageNet, uno dei più influenti nella storia dell'intelligenza artificiale, analizzando i valori, le norme e i presupposti incorporati nella sua costruzione.
Si occupa inoltre di movimenti sociali, tra cui le proteste antirazziste nei campus universitari degli Stati Uniti e del Canada tra il 2012 e il 2018, analizzate attraverso metodi computazionali. Questa ricerca, finanziata dalla National Science Foundation e dal Social Sciences and Humanities Research Council of Canada, ha prodotto il Higher Ed Protest Event Dataset, che combina apprendimento automatico e codifica sociologica manuale di oltre 16.000 articoli di giornali universitari.
Ha inoltre studiato le proteste del movimento per i diritti dei neri negli Stati Uniti tra il 1994 e il 2010, analizzando come i media abbiano rappresentato in modo sproporzionato gli episodi di violenza della polizia rispetto ad altre forme di attivismo.


== Divulgazione e attivismo ==
Insieme a Emily M. Bender conduce il podcast Mystery AI Hype Theater 3000, in cui analizza criticamente le affermazioni pubbliche sull'intelligenza artificiale.
Nel 2025 ha pubblicato con Bender L'inganno dell'intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo (The AI Con: How to Fight Big Tech's Hype and Create the Future We Want (HarperCollins), in cui le due autrici esaminano i danni prodotti dall'intelligenza artificiale nei settori della sanità, dell'istruzione, dei media e delle forze dell'ordine e propongono strumenti critici per resistere alla narrazione delle grandi aziende tecnologiche.
È cofondatrice di Sociologists for Trans Justice e Senior Fellow del Center for Applied Transgender Studies, e siede nel consiglio consultivo del Human Rights Data Analysis Group.
Nel 2022 ha istituito il fondo di borsa di studio Alex and Demiana Hanna Pride Scholarship per studenti universitari di sociologia, con l'obiettivo di sostenere persone queer, transgender e di colore nella disciplina.


== Premi e riconoscimenti ==
Nel 2021 è stata inclusa nella lista 100 Brilliant Women in Artificial Intelligence Ethics di Women in AI Ethics e nella lista Queer 50 di Fast Company e nella mostra New Science della California Academy of Sciences, dedicata a scienziati queer e transgender di colore.
Nel 2023 ha ricevuto il Wisconsin Alumni Association Forward Award ed è stata inclusa nella Business Insider AI Power List e nella lista Queer 50 di Fast Company per la seconda volta.
Nel 2025 è stata nominata VCCA Fellow.


== Pubblicazioni (selezione) ==


=== Libri ===
(EN) Emily M. Bender e Alex Hanna, The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, HarperCollins, 2025.
Emily M. Bender e Hanna Alex, L'inganno dell'intelligenza artificiale. Come resistere a big tech e costruire il futuro che vogliamo, Roma, Fazi, 2026, ISBN 979-1259678447.


=== Articoli ===
(EN) Emily Denton, Alex Hanna, Razvan Amironesei, Andrew Smart e Hilary Nicole, On the Genealogy of Machine Learning Datasets: A Critical History of ImageNet, in Big Data & Society, 2021, DOI:10.1177/20539517211035955.
(EN) M. K. Scheuerman, M. Pape e Alex Hanna, Auto-essentialization: Gender in automated facial analysis as extended colonial project, in Big Data & Society, vol. 8, n. 2, 2021, DOI:10.1177/20539517211053712.
(EN) Pamela Oliver, Alex Hanna e Chaeyoon Lim, Constructing Relational and Verifiable Protest Event Data: Four Challenges and Some Solutions, in Mobilization: An International Quarterly, vol. 28, n. 1, 2023,  pp. 1–22, DOI:10.17813/1086-671X-28-1-1.


== Note ==


== Voci correlate ==
Timnit Gebru
Emily M. Bender
Etica dell'intelligenza artificiale
Apprendimento automatico


== Altri progetti ==


== Collegamenti esterni ==

(EN) Sito ufficiale, su alex-hanna.com. 
(EN) Opere di Alex Hanna, su Open Library, Internet Archive. 
(EN) Alex Hanna, su Goodreads. 
(EN) Alex Hanna, su GitHub.