L’editore IGI Global nel libro  “Applied Ethics in a Digital World” affida a due ricercatrici italiane  la complessa questione relativa alle scelte etiche da compiere quando ad operare non è la mente umana ma un computer

di Ennio Bassi

L’equità come criterio guida nell’implementazione di regole etiche per l’Intelligenza Artificiale (AI). E’ questo il tema al centro della ricerca realizzata da Lucia Lucchini, manager Cyber Risk di Deloitte UK, e da Ivana Bartoletti, Global Privacy Officer at Wipro, ed inserita nel volume che Igi Global, un editore internazionale specializzato in titoli accademici, ha dedicato ai temi etici che riguardano il mondo digitale. Nato da un’idea di due guru e divulgatrici delle scienze digitali, Ingrid Vasiliu Feltes e Jane Thomason, “Applied Ethics in a Digital World”, è una ricerca affidata a più esperti provenienti da diverse parti del mondo proprio per avere una visione polifonica e multiculturale di un tema così centrale quale è l’etica nel mondo digitale.

Ogni capitolo della ricerca copre dunque una dimensione diversa che i rispettivi ricercatori hanno proposto di esplorare indipendentemente. L’idea finale era di integrare temi e prospettive diverse con l’ulteriore possibilità di esplorare possibili aree future di ricerca per ognuno degli argomenti trattati. Nel capitolo due, le due autrici italiane Lucchini e Bartoletti, hanno deciso di esplorare nello specifico l’intelligenza artificiale e il dibattito apparente tra soluzioni tecnocratiche e soluzioni socio-politiche e le ramificazioni che queste hanno sul dibattito che molte aziende affrontano sul tema del “responsible business” e sul suo significato da un punto di vista di implementazione digitale e di trasformazione digitale. Lucchini e Bartoletti in particolare si concentrano sul ruolo dell’equità nell’AI e di come questa sia la chiave di lettura per l’implementazione dei temi etici in più larga scala.

Lucia Lucchini

Mentre l’intelligenza artificiale (AI) viene sempre più impiegata in quasi tutti gli aspetti della nostra vita quotidiana, il discorso intorno alla pervasività degli strumenti algoritmici e del processo decisionale automatizzato sembra essere quasi banale. Il capitolo scritto dalle due ricercatrici italiane indaga i limiti e le opportunità all’interno dei dibattiti esistenti ed esamina il panorama legale in rapida evoluzione e i recenti casi giudiziari. Gli autori suggeriscono che un approccio praticabile all’equità, che alla fine rimane una scelta che le organizzazioni devono fare, potrebbe essere radicato in un nuovo quadro di business responsabile misurabile e affidabile.

“Le soluzioni di IA – scrivono nell’introduzione Lucchini e Bartoletti – stanno ora guidando l’allocazione delle risorse, così come modellano le notizie e i prodotti a cui gli individui sono esposti: dal credit scoring al riconoscimento facciale, alle tecnologie predittive per identificare con precisione i truffatori, agli strumenti di prevenzione del crimine giovanile, alla pubblicità guidata da algoritmi… quanto lontano possa arrivare l’IA è già una realtà con cui tutti noi conviviamo quotidianamente”.

“Mentre le richieste pubbliche di controllo normativo sono in aumento e dominano i titoli dei giornali – spiegano le due ricercatrici – dobbiamo ancora definire come le agenzie, i governi, così come le organizzazioni del settore privato possono fornire

Ivana Bartoletti

un avviso significativo su un output decisionale algoritmico. Questo ha portato al dispiegamento di un’automazione imperfetta, le cui conseguenze finiscono per danneggiare la fiducia nella tecnologia e ostacolare i diritti umani, limitando e/o bloccando gli individui dai servizi e dalle pari opportunità”.

“Questo articolo – concludono nella loro introduzione Lucchini e Bartoletti – sostiene che, poiché optare per l’equità potrebbe non essere la soluzione finanziaria ottimale per un’organizzazione, la sua formalizzazione risiede nel business responsabile che sta prendendo piede, tra la richiesta dei consumatori di maggiore equità e trasparenza”.

(Associated Medias) – Tutti i diritti sono riservati