L’Intelligenza Artificiale è immune ai bias?

Condividi questo articolo

Lo so che è divertente mettere alla prova un’intelligenza artificiale chiedendole il senso della vita.

È comodo usarla per fare ricerca. Davvero comodo. Invece di perdere tempo su Google ad aprire e chiudere 10mila pagine per trovare quello che cerchi, ti serve il succo della ricerca su un piatto d’argento.

Da qui a pensare di poter usare l’IA per sostituirla ad un copy in carne e ossa significa non aver capito nulla di come si crea una strategia di marketing.

Soprassiedi per un secondo sull’evidente conflitto di interessi che mi porta a scrivere tale affermazione.

È lapalissiano che io stia cercando di portare acqua al mio mulino, ma segui il fil rouge del ragionamento.

L’intelligenza artificiale può svolgere molte attività che prima richiedevano l’intervento umano, ma ci sono alcune attività che rimarranno difficili da automatizzare completamente, tra cui la scrittura creativa.

Il copywriting è un’attività che richiede una combinazione di abilità ed empatia, tra cui la capacità di comprendere il target del pubblico, la capacità di creare messaggi efficaci e la capacità di scrivere in modo da non abbattere a mazzate di noia il povero lettore.

Un’intelligenza artificiale può aiutare a generare del testo, ma non potrà mai sostituire il giudizio umano e la creatività necessari per scrivere testi di vendita.

Una IA può essere utilizzata per scrivere dei testi utilizzando una vasta quantità di dati, come articoli giornalistici o descrizioni di prodotti, ma si trova in grossa difficoltà quando deve generare testi che richiedono una comprensione più profonda del contesto e del tono appropriato per un determinato pubblico.

Quest’ultima frase l’ha scritta una AI, che quindi è abbastanza intelligente per capire i propri limiti.

Il problema è che la vendita, come ripeto fino alla noia dagli albori di Propagando, ha due componenti decisionali: una razionale e una emotiva.

Le macchine, come i computer e i robot, non possono provare emozioni come gli esseri umani

E cosa c’entra questo col copy?

Se sei stato vagamento attento alle lezioni di biologia al liceo (o ti sei sciroppato qualche articolo del blog) saprai che in quanto esseri umani (più o meno) senzienti abbiamo un sistema di elaborazione delle emozioni molto complesso che è basato su una combinazione di segnali biologici, chimici e neurali.

Segnali che percepiamo ma che la scienza non ha ancora decodificato.

Sappiamo che la dopamina è un neurotrasmettitore che crea eccitazione. Conosciamo la sua struttura molecolare. Che è un anello benzenico con due gruppi ossidrilici. Conosciamo dove viene prodotta. Come si lega ai recettori.

Ma non sappiamo ancora spiegare perché leggendo un certo tipo di testo o immedesimandoci in un certo tipo di contesto, si attivi il suo rilascio.

E se non lo sappiamo non possiamo insegnarlo alle macchine che, per quanto intelligenti, non possono impararlo.

Senza entrare in discorsi alla Matrix, è sufficiente un po’ di buon senso per comprendere il succo della questione.

Non puoi pensare che una macchina non in grado di provare emozioni riesca a generare un coinvolgimento emotivo tale da indurre chicchessia all’acquisto di un qualsiasi prodotto o servizio.

Direi che è abbastanza logico, no?

Quindi, visto che come al solito è già tutto un proliferare di corsi e corsetti per imparare a usare ChatGPT o a non esserne vittima, ragiona in questi termini e stai sereno.

Nessuna intelligenza artificiale sostituirà mai un copywriter che scrive cum grano salis e comprensione emotiva

In ogni caso, se proprio sei motivato ad affidare tutto il marketing e il copy ad un’intelligenza artificiale, ti do un sentito augurio che questa riesca a vendere i tuoi prodotti e servizi meglio di come vende sé stessa.

O che tu e il tuo staff facciate una doppia verifica delle informazioni che l’IA ti serve in appena 2 secondi di attesa (lo avranno imparato bene gli avvocati sanzionati per aver citato casi inesistenti per costruire la loro causa).

foto con titolo su avvocato che si è affidato troppo a chat gpt

Strafalcioni e battute a parte, l’intelligenza artificiale cresce, così come le critiche.

Queste sono caratterizzate spesso da un elemento ricorrente:

l’effetto distorsivo prodotto dai “bias” generati dall’uomo, su cui è stato impostato il processo decisionale della macchina.

E visto che i bias sono l’argomento principale di questo blog, penso meriti un approfondimento.

Quando si parla tra profani come me di intelligenza artificiale, c’è sempre quella componente di timore reverenziale che proviamo verso qualcosa di evoluto che però non capiamo fino in fondo.

Hollywood ci ha insegnato a temere le macchine.

Da Matrix ad Io Robot, passando per Minority Report ci hanno abituato a previsioni che mostrano i possibili rischi di affidare decisioni a delle macchine intelligenti.

I problemi sono molti e complessi, così come è vasto il campo dell’intelligenza artificiale stessa: il manuale introduttivo a cura di Stuart J. Russell e Peter Norvig, giunto alla sua terza edizione, è un enorme volume di 27 capitoli e 1.164 pagine.

Ma facciamo un passo indietro di 40 anni.

Nel 1984 viene pubblicato un libro destinato ad avere un enorme successo: Le armi della Persuasione, di Robert Cialdini.

Cialdini spiega come e perché si finisce col dire di sì.

Si tratta per esempio di spiegare perché una pubblicità funziona, perché ci lasciamo convincere da un venditore porta a porta, da chi ci chiede di contribuire economicamente ad una causa o perché scegliamo un’azienda invece di un’altra.

Se le nostre scelte fossero tutte razionali, ci sarebbe ben poco da spiegare: ogni “sì” verrebbe detto dopo aver analizzato pro e contro e aver dato ad ogni voce nella nostra testa (non quelle che ti dicono che sei la reincarnazione di Napoleone) il peso che in quel momento, per i motivi più diversi, vogliamo attribuirle.

Le cose invece non funzionano sempre così. Anzi, non funzionano mai così.

La maggior parte delle scelte vengono compiute basandosi su alcuni, pochi, elementi isolati che ci suscitano un impulso emotivo positivo o negativo.

Quando siamo noi a dover convincere qualcuno, istintivamente sappiamo come usare alcuni di questi elementi: se andiamo ad un colloquio di lavoro probabilmente pensiamo al nostro abbigliamento, per esempio.

Le persone vengono dunque assunte per come sono vestite?

Sì, anche.

La rivista online Conversation ha attirato l’attenzione su un’altra applicazione di intelligenza artificiale che nel settembre 2019 era stata usata per la prima volta nel Regno Unito, ma già da qualche anno circolava nel resto del mondo: l’analisi facciale nei colloqui di lavoro.

In fondo, gli esseri umani classificano le persone anche solo per la loro faccia e la loro espressione, no?

L’informatica aiuta solo a rendere più efficiente questo processo, confrontando automaticamente le espressioni di un candidato con le altre migliaia memorizzate di chi è stato assunto con successo e di chi è stato respinto.

La compagnia che ha ideato il sistema afferma che in questo modo la decisione sull’assunzione può essere velocizzata del 90%.

Questo sistema è stato creato da una mente umana, segnata però da un’intera gamma di differenti generi di preconcetti, pregiudizi, diseguaglianze e discriminazioni

I dati grazie ai quali gli algoritmi “imparano” a giudicare i candidati contengono questo insieme preesistente di bias e credenze.

Vuol dire che come essere umani siamo normalmente stupidi? Al contrario: questa è proprio la componente essenziale della nostra intelligenza.

Abbiamo sviluppato strategie che ci consentono di fare economia mentale e prendere decisioni rapide in mancanza di un esame completo delle circostanze.

Scegliamo la frutta al mercato con uno sguardo solo, con una rapida chiacchierata intuiamo se di una persona possiamo fidarci, con un’occhiata alla scacchiera troviamo una mossa buona senza analizzare milioni di combinazioni possibili per dare scacco al re.

Ma tuonare sdegnati contro i bias non serve a niente: se li cancellassimo, non solo cancelleremmo anche tante strategie di sopravvivenza (girare a piedi da sola di notte in un quartiere malfamato? Anche no…), ma getteremmo nel cestino una parte essenziale della nostra intelligenza.

Proviamo a dire ai medici di un pronto soccorso di non far nulla se non dopo aver in mano i dati di tutte le analisi teoricamente necessarie, abbandonando i loro “pregiudizi” medici (lo “sguardo clinico”, si dice), e vediamo che cosa ci rispondono.

A questo punto, possiamo ripensare a quei casi in cui l’intelligenza artificiale viene accusata di effetti deleteri

Sei abbastanza affidabile per ricevere un prestito dalla banca?

L’intelligenza artificiale decide: ma ovviamente, visto che tra le periferiche dei computer non c’è la palla di cristallo, si tratta di vedere nella situazione del richiedente quali sono i fattori che lo rendono più o meno a rischio: sulla base dell’esperienza sono più affidabili i maschi o le femmine? Gli ispanici o gli anglosassoni? Chi ha un lavoro fisso o chi non ce l’ha? I giovani o gli anziani?

Oppure: ti si può concedere la libertà condizionata?

Allora diamo in pasto ad un algoritmo il colore della tua pelle, la tua situazione familiare, il tuo quartiere o la tua città di provenienza, il tipo di reato che hai commesso.

Benché appaia a prima vista scandaloso, questo è esattamente il modo in cui funziona negli esseri umani il bias induttivo.

Il bias induttivo (noto anche come bias di apprendimento) è l’insieme di assunzioni che chi sta imparando usa per predire gli output dati gli input che esso non ha ancora incontrato. 

I bias induttivi svolgono un ruolo importante nella capacità dei modelli di machine learning di generalizzare a partire da dati non conosciuti.

Nell’apprendimento automatico, per imparare a prevedere un determinato output, vengono presentati alcuni esempi che dimostrano la relazione prevista dei valori di input e output. Quindi la macchina dovrebbe approssimare il risultato corretto, anche per esempi che non sono stati mostrati durante la formazione. Senza alcuna ipotesi aggiuntiva, questo problema non può essere risolto poiché le situazioni “invisibili” potrebbero avere un valore di uscita arbitrario.

L’intelligenza artificiale tende a imitare i processi dell’intelligenza umana, ma con tutti i limiti e i bias da cui questa è condizionata

E a questo proposito, sorge spontaneo chiedersi da dove arrivano tutti gli input inseriti nelle macchine che dovrebbero pensare come noi.

L’argomento era stato trattato già un anno fa da Will Media.

La “dieta” di un’intelligenza artificiale modella il modo in cui questa guarda il mondo. E i risultati che l’intelligenza artificiale sputa fuori ci restituiscono quel punto di vista sul mondo. Anzi lo perpetuano, lo rafforzano. Oggi la dieta dei nostri strumenti AI è ancora parecchio sbilanciata.

I set di dati utilizzati più spesso per “addestrare” gli algoritmi di intelligenza artificiale provengono da pochi paesi e da pochissimi enti. Più della metà dei set di dati provengono da 12 istituti d’élite e aziende private di Stati Uniti, Germania e Hong Kong. Pochissimi dati arrivano dall’America Latina, pressoché nessun dato dall’Africa.

Questo non significa che interi continenti non stiano immagazzinando dati o sviluppando modelli di apprendimento per l’intelligenza artificiale. Ma significa che hanno un minore accesso a ingegneri e a infrastrutture per l’immagazzinamento di dati e per la potenza di calcolo. L’ascesa verso la partecipazione all’intelligenza artificiale non è uguale per tutti.

E così, al momento, c’è un grande squilibrio tra la provenienza dei dati e il loro uso.

In tutto il mondo si usano dati che riflettono per lo più il punto di vista di una manciata di Paesi ed istituzioni – quelli che esercitano già un enorme potere su Internet (e sul mondo).

Il risultato è che i modelli di apprendimento automatico di piattaforme come CHAT-GPT riproducono spesso stereotipi razzisti e sessisti, in gran parte a causa dei loro dati di addestramento.

Questo significa che governi e organizzazioni internazionali avranno la responsabilità di facilitare la creazione di set di dati per garantire più equità e varietà di punti di vista sul mondo.

Noi, per ora, possiamo solo essere consapevoli che se usiamo questi mezzi per lavorare o fare i compiti, gli algoritmi ci restituiscono un punto di vista molto specifico sul mondo.

mappa provenienza dati IA
Per buona pace di chi non vuole scrivere quel copy da infoprodottari americani che in Italia spaventa i clienti, ma trova sia una buona idea delegare a ciàtgippittì la stesura dei propri testi di marketing

Né il cervello calcolatore di una macchina né la mente umana possono sfuggire a quel potente e complicato sistema di bias cognitivi che regolano le nostre scelte.

E se non riesce a farlo una macchina con una potenza di calcolo che manco ci sogniamo, come puoi anche solo pensare che il tuo marketing possa permettersi di ignorare che il nostro sistema decisionale è imperfetto e lontano da una perfetta forma di razionalità?

Ecco perché il tuo copy, per vendere, deve tenere conto di tutti i pregiudizi cognitivi che possono influenzare le decisioni dei tuoi clienti e deve sfruttarli a tuo vantaggio.

-Si, ma è difficile!

-No! È maledettamente difficile.

Per questo devi rivolgerti a noi.

Il team di Propagando è specializzato nella creazione di materiali di marketing progettati sui principi scientifici che regolano il nostro sistema decisionale, e non su mode, desideri, creatività o chatbot.

Conoscere i meccanismi decisionali e i bias ti dà un vantaggio incredibile nel prevedere e guidare le decisioni dei tuoi clienti.

L’importante è analizzare minuziosamente caso per caso ed evitare dei mix&match casuali che ti farebbero approdare a materiali di marketing scritti con un copy che allontana clienti invece che avvicinarli.

Ma di questa noiosa parte di ricerca e studio non devi necessariamente occupartene da solo.

Ti basta cliccare QUI e prenotare la tua prima call gratuita

Al resto ci penseremo noi!