Iscriviti alla nostra newsletter Tea O'Clock!
Avete interagito con un'intelligenza artificiale oggi? La risposta è probabilmente sì, e molte volte. Se siete stati sui social media, avete letto o scritto un'e-mail, avete controllato l'app del meteo, ascoltato musica o prenotato un taxi online, allora avete interagito con un sistema di intelligenza artificiale. Lo stesso vale per questo articolo: a meno che qualcuno non vi abbia inviato un link diretto, probabilmente lo avete trovato attraverso un sistema di raccomandazione, un tipo di intelligenza artificiale. Una pietra miliare dopo l'altra, l'intelligenza artificiale è diventata parte integrante della nostra vita quotidiana, plasmando persino il nostro modo di vivere. Le interazioni tra gli esseri umani e le IA hanno conosciuto molte iterazioni, alcune delle quali saranno esplorate in questo articolo.
Si ritiene che l'intelligenza artificiale sia nata dopo il progetto di ricerca estivo di Dartmouth del 1956, durante il quale diversi scienziati e matematici studiarono come creare una macchina in grado di pensare come un essere umano. Da allora (e anche prima), il processo decisionale umano e quello artificiale sono stati a lungo oggetto di interesse per i ricercatori in diversi campi. Herbert Simon, uno scienziato vincitore del premio Nobel, ha introdotto il concetto di razionalità limitata. La sua teoria afferma che, in quanto decisori, gli esseri umani sono limitati nella loro razionalità e tendono a non scegliere l'opzione ottimale, ma piuttosto quella sufficiente nel suo contesto. Simon stesso è stato tra i primi pionieri nel campo dell'intelligenza artificiale. Ha co-creato il Logic Theorist, il programma per computer considerato la prima IA. Basato su un albero di ricerca e su processi logici, il Logic Theorist fu in grado di dimostrare 38 teoremi matematici.
La struttura biologica del cervello è stata fonte di ispirazione per lo sviluppo dell'intelligenza artificiale. Ad esempio, il lavoro di due neurofisiologi premiati con il Nobel, Hubel e Wiesel, sulla corteccia visiva dei gatti ha ispirato la struttura delle reti neurali convoluzionali (CNN), un tipo di rete neurale ampiamente utilizzato nell'elaborazione delle immagini per scopi che includono la previsione del loro contenuto. La loro ricerca ha dimostrato che quando venivano presentate varie linee, le cellule della corteccia visiva si attivavano in modo diverso in base alla loro inclinazione, agli angoli e ai colori. Le CNN utilizzano filtri per il riconoscimento dei modelli, ossia consentono a specifici neuroni di riconoscere particolari modelli (bordi, angoli, ecc.) all'interno di blocchi di pixel.
Da tempo si è interessati a creare un sistema in grado di pensare come un essere umano. Ma la domanda iniziale alla base di questo progetto, "Le macchine possono pensare?", tanto controversa quanto complessa, è stata sostituita da altre più semplici, come: " Le macchine possono fare ciò che noi (come entità pensanti) possiamo fare?". È per rispondere a quest'ultima domanda che Alan Turing propose quello che in seguito divenne noto come "test di Turing", un test eseguito per valutare se le persone fossero in grado di distinguere tra le discussioni generate dall'uomo e quelle generate dalla macchina.
Un altro modo per valutare il processo decisionale "razionale" di un'intelligenza artificiale è presentato in questo articolo. Gli autori volevano determinare se diverse versioni di Large Language Models (LLM) fossero inclini a prendere le stesse decisioni irrazionali degli esseri umani. Hanno presentato agli algoritmi una serie di test cognitivi ampiamente utilizzati per valutare il processo decisionale umano, come il test di riflessione cognitiva, un test psicologico utilizzato per valutare la capacità di una persona di ignorare le risposte errate "di pancia" e di impegnarsi in un'ulteriore riflessione. I risultati hanno mostrato che "i modelli della famiglia 'Da Vinci' (GPT-3 e GPT-3.5) mostravano segni di ragionamento limitato o euristico, e in generale avevano prestazioni inferiori a quelle dei partecipanti umani. D'altra parte, i modelli più recenti (ChatGPT e GPT-4) hanno mostrato prestazioni sovrumane" quando sono stati confrontati con un campione di partecipanti umani, come riportato nel documento.
L'IA è stata applicata in diversi campi come strumento promettente per aiutare i decisori a prendere decisioni migliori. In altre parole, questa tecnologia può aiutarci a prendere decisioni oggettive basate sull'interpretazione dei dati provenienti dall'ambiente e, quindi, potrebbe aiutare il decisore umano a superare qualsiasi euristica nel processo decisionale.
Consideriamo il settore medico come caso d'uso. Dovendo elaborare molte informazioni e svolgere diversi compiti al giorno, a volte in parallelo, i medici possono essere mentalmente esausti e la loro analisi può essere distorta. Ad esempio, possono essere soggetti a bias di conferma. Questo pregiudizio si verifica quando selezioniamo e interpretiamo le informazioni in modo da confermare le nostre convinzioni.
Questo può portare i medici a interpretare in modo errato le analisi mediche e a concentrarsi sugli elementi che confermano la diagnosi scelta. Sono emerse diverse soluzioni basate sull'IA per aiutare la diagnosi medica. Con il riconoscimento delle immagini, la classificazione e l'elaborazione del linguaggio naturale, per citarne alcune, l'IA può analizzare diversi dati medici nel tentativo di fornire una diagnosi medica più "oggettiva".
Anche se si è detto che l'intelligenza artificiale potrebbe perfezionare il processo decisionale come un decisore obiettivo ed efficiente in grado di analizzare un'enorme quantità di dati in poco tempo, non è tutto così perfetto come sembra. Infatti, l'intelligenza artificiale può essere essa stessa distorta.
Un modello di intelligenza artificiale può essere falsato dal set di dati utilizzato per l'addestramento, ad esempio quando il set di dati è sbilanciato tra le classi previste. Si consideri un modello che mira a prevedere se un consumatore si rivolterà (smetterà di fare affari con l'azienda) o meno - in questo caso, il modello deve prevedere una variabile binaria, con 1 se si rivolge e 0 altrimenti. Un data scientist addestrerà un modello di questo tipo sulla cronologia dei dati disponibili per ciascun cliente in ogni fase temporale, indicando se il cliente ha effettuato o meno il churning. I dati di addestramento contengono più zeri che uno e seguono un cliente ogni giorno, dal giorno dell'abbonamento fino al giorno dell'abbandono. Al di fuori di questo giorno di abbandono, tutti gli altri giorni saranno contrassegnati come zeri. Se ci sono molti più zeri che uno, cioè se il modello riesce a malapena a percepire e ad apprendere un comportamento di abbandono, farà fatica a prevedere quando avverrà l'abbandono, e potrebbe addirittura non prevedere mai il comportamento di abbandono per nessuno in nessun momento.
Come esistono soluzioni per superare i pregiudizi cognitivi umani, esistono anche buone pratiche da applicare per superare i pregiudizi dell'intelligenza artificiale. Un modo per debiasare l'algoritmo dell'esempio precedente è quello di bilanciare i dati, ad esempio selezionando solo alcune osservazioni in cui la variabile target è impostata a 0 o creando osservazioni sintetiche in cui il target è impostato a 1.
Il bias può derivare anche da altri aspetti: il modello può essere troppo complicato e portare a un overfitting del dataset di addestramento, il che significa che apprende molte specificità su di esso, compresi gli aspetti "rumorosi", e non può essere esteso a comportamenti non osservati. La regolarizzazione del modello è una tecnica che aiuta a prevenire l'overfitting penalizzando i pesi delle variabili rumorose nei modelli di regressione e abbandonando o spegnendo alcuni neuroni durante il processo di addestramento di una rete neurale.
Un problema dei pregiudizi basati sui dati è che possono riflettere i pregiudizi e gli stereotipi umani. Il modello può imparare a interpretare il mondo come noi e a documentarlo. L'elaborazione del linguaggio naturale è una tecnica di apprendimento automatico per elaborare e interpretare i contenuti scritti. Questa tecnica utilizza l'embedding, cioè la trasformazione delle parole di un documento in vettori interpretabili dalla macchina. Una volta presentati i vettori, la macchina può imparare le relazioni tra le diverse parole, creando contesti diversi. Ad esempio, può imparare che Parigi ha lo stesso significato di Francia e Tokyo di Giappone. Word2vec è un algoritmo popolare che crea tali incorporazioni. In questo lavoro, i ricercatori hanno utilizzato questo algoritmo per incorporare un corpus di 3 milioni di parole provenienti da Google News. I risultati hanno mostrato una distorsione lavorativa legata al genere nell'embedding, come mostrato nella figura seguente.
I lavori più estremi relativi a un genere "lui" o "lei" secondo l'algoritmo. Figura tratta dall'articolo citato.
In altre parole, l'algoritmo ha collegato determinati lavori a specifici generi. Se utilizzati in modo grezzo, tali algoritmi addestrati potrebbero ulteriormente aumentare le disparità di genere, ad esempio proponendo offerte di lavoro diseguali per le persone in cerca di nuove opportunità. Questo articolo e gran parte della letteratura propongono tecniche per gestire i pregiudizi e gli stereotipi di origine umana rilevati negli algoritmi, come l'identificazione delle variabili (o dimensioni, nel caso dell'embedding) che catturano i pregiudizi (come quelli di genere) e la loro eliminazione. Un'altra tecnica menzionata nell'articolo citato in precedenza è quella di equalizzare le dimensioni specifiche per il genere, ossia creare una nuova dimensione di embedding delle parole che sia neutrale rispetto al genere. Questi controlli devono essere eseguiti regolarmente, soprattutto in campi sensibili, per evitare di generare contenuti che rafforzino questi stereotipi.
Un altro tipo di intelligenza artificiale con cui gli esseri umani interagiscono spesso è quello dei sistemi di raccomandazione. Come dice il nome, i sistemi di raccomandazione sono algoritmi utilizzati per consigliare nuove opzioni a un utente in base ai contenuti consumati in precedenza. Per esempio, su una piattaforma musicale, in base a ciò che ho ascoltato e al mio profilo, mi verranno presentati titoli specifici dall'enorme quantità di brani disponibili, probabilmente diversi dai suggerimenti che riceverebbe un altro utente sulla stessa piattaforma.
Lo stesso vale per i social media: i contenuti suggeriti corrispondono ai propri interessi e, quindi, aumentano il coinvolgimento nella piattaforma. Tuttavia, essere costantemente esposti a contenuti che corrispondono ai propri interessi potrebbe sollevare un problema di pregiudizio, in quanto potrebbe aumentare il bias di conferma. Come già detto, questo bias si verifica quando selezioniamo e interpretiamo le informazioni in modo da confermare le nostre precedenti convinzioni. La preoccupazione che si può sollevare in questo caso è che, consumando contenuti che corrispondono ai nostri interessi precedenti, i sistemi di raccomandazione propongano contenuti che si allineano a questi interessi e, sebbene l'algoritmo possa suggerire all'utente contenuti casuali da esplorare, quest'ultimo potrebbe tendere a ignorarli per consumare esclusivamente i contenuti che corrispondono ai suoi pregiudizi precedenti, rafforzandoli. Questo effetto è noto come camera dell'eco. È interessante notare che l'effetto camera d'eco è oggetto di accesi dibattiti, in quanto le opinioni variano sul fatto che la ricerca dedicata a questo fenomeno sia abbastanza forte da confermarne l'esistenza... E se questo comportamento sia dovuto ai preconcetti dell'algoritmo o alla natura stessa del processo decisionale umano.
Questo articolo conclude la nostra serie di articoli che esplorano il processo decisionale. Ci auguriamo che la lettura sia stata piacevole e che vi abbia aiutato a capire quanto possa essere complesso e affascinante il processo decisionale e quanto possa essere d'impatto la scienza delle decisioni.
Non esitate a iscrivervi alla nostra newsletter Tea O'Clock per rimanere aggiornati sulla pubblicazione di nuovi articoli e sulle ultime tendenze del mercato → la newsletter di cinquantacinque.
Scoprite tutte le ultime notizie, articoli, repliche di webinar e cinquantacinque eventi nella nostra newsletter mensile, Tea O'Clock.