Negli ultimi mesi, l’intelligenza artificiale ha suscitato grande interesse, animato dibattiti, scatenato innovazioni e alimentato entusiasmo con pronostici più o meno realistici. Ci siamo abituati a ritenere che questa tecnologia sia in grado di compiere attività complesse, spesso al di là delle capacità umane. Nonostante ciò, a fine giugno, un gruppo di ricercatori svizzeri del dipartimento di psichiatria forense dell’Università di Zurigo ha pubblicato uno studio particolarmente inquietante: hanno presentato un modello in grado di individuare l’orientamento sessuale delle persone attraverso l’analisi dell’elettroencefalogramma, ottenendo risultati con un’affidabilità dell’83%.
Una IA che discrimina l’orientamento sessuale
Incredibilmente, potrebbe essere usata dai censori in Uganda, il paese che da pochi mesi ha introdotto la pena di morte per gli omosessuali. E potrebbe essere altrettanto interessante per diversi governatori di Stati americani che stanno cancellando una dopo l’altra tutte le leggi contro le discriminazioni. Questo modello di intelligenza artificiale, ottimizzato con il deep learning, ha la capacità di determinare se una persona è eterosessuale o gay.
L’Unione Europea sta attualmente lavorando per regolamentare l’intelligenza artificiale, di conseguenza gli attivisti LGBTQ+ hanno chiesto all’Europarlamento di includere misure per proteggere le persone non binarie dal potenziale utilizzo discriminatorio dell’intelligenza artificiale.
Accuratezza ad personam
Stiamo parlando di una ricerca scientifica che, secondo gli autori, può rilevare l’orientamento sessuale delle persone con un’accuratezza di oltre l’80%. Per essere più precisi, si concentra sugli stimoli “elettrofisiologici” ottenuti tramite monitoraggio intensivo dell’attività cerebrale (l’elettroencefalogramma, appunto). Questo enorme set di dati ha permesso a un modello di intelligenza artificiale di distinguere tra eterosessuali e omosessuali.
La ricerca è ancora in fase di revisione, e un articolo su Codastory, nota testata specializzata in diritti digitali, ne indica tutte le preoccupazioni. Sasha Costanza-Chock, professoressa associata alla Northeastern University di Oakland che si occupa di design compatibile con la giustizia sociale, ha notato che i ricercatori svizzeri hanno dovuto escludere dalla loro ricerca partecipanti bisessuali e persone asessuali per confermare i loro risultati, il ché solleva delle questioni sulla rappresentatività dello studio.
Discriminare in base all’orientamento sessuale è pericoloso
Sebbene i firmatari della ricerca affermino che il loro lavoro non ha intenti discriminatori, ma anzi potrebbe aiutare a sradicare le teorie che propongono di “curare” l’omosessualità attraverso terapie psicologiche, molti ritengono che questo approccio sia pericoloso fin dalle sue premesse. La ricerca della Stanford University di alcuni anni fa è ancora in attesa di chiarimenti.
Questo tipo di riduzionismo ottusamente focalizzato sugli aspetti biologici dell’orientamento sessuale è un modello superato nella maggior parte della ricerca scientifica attuale. Applicare tecniche di intelligenza artificiale a queste premesse vecchie e limitanti è decisamente un passo indietro: sembrano le ricerche di inizio secolo sul sequenziamento del DNA.
Un modello di intelligenza artificiale in grado di rilevare l’orientamento sessuale potrebbe essere utilizzato per discriminare le persone LGBTQ+ nel lavoro, nell’alloggio e nell’assistenza sanitaria e togliere loro ogni diritto come accade già oggi in diversi paesi del mondo.
Diritti negati
Questa ricerca arriva in un contesto in cui l’intolleranza nei confronti delle persone LGBTQ+ è ancora presente, soprattutto online e sui social media, con vere e proprie persecuzioni sponsorizzate dagli Stati in alcune parti dell’Africa, come Uganda, Ghana e Kenya, ma anche in Europa con Italia, Ungheria e Polonia in prima linea. Anche i liberissimi statunitensi sanno il fatto loro: i singoli stati hanno approvato qualcosa come 70 leggi discriminatorie che limitano i diritti delle persone queer.
Campagne LGBTQ+ contro le discriminazioni
Il progetto di ricerca svizzero suscita ancora più preoccupazione alla luce delle campagne lanciate da AccessNow e AllOut – note organizzazioni per i diritti umani e civili – per combattere l’intolleranza nei confronti delle persone LGBTQ+. La tecnologia basata su modelli binari come questo rischia di alimentare ulteriormente la misoginia e il patriarcato, poiché ciò che riguarda l’identità e l’orientamento sessuale non può essere ridotto a categorie rigide e limitanti.
Il succo del discorso è che la ricerca dimostra che l’intelligenza artificiale non può e non dovrebbe essere utilizzata per indagare sulla vita, sulle scelte e sulle identità delle persone, in quanto le conseguenze potrebbero essere estremamente pericolose. L’utilizzo dell’Intelligenza Artificiale per giudicare capacità di guida, idoneità lavorativa, preferenze politiche o compatibilità di coppia basandosi sull’orientamento sessuale è allarmante e inaccettabile.
Rispondi