L’intelligenza artificiale dimostra la sua utilità con il riconoscimento vocale, le traduzioni, il controllo di robot e dei veicoli autonomi. Ma ha anche dei difetti non trascurabili, come acquisire bias razziali e di genere attraverso i dati che le diamo in pasto. E quando le IA hanno questi pregiudizi, sistemi di riconoscimento facciale come quelli adottati dalla polizia USA possono fallire miseramente.
Come evitare di trasmettere i nostri bias alle macchine? Possiamo farlo in modo che la polizia possa svolgere il suo lavoro in modo imparziale? Possiamo rendere qualsiasi sistema di IA più equo?
Leggi