Articolo • 8 minuti di lettura
L’etica dell’intelligenza artificiale nella CX
L’etica dell’intelligenza artificiale ha lo scopo di prevenire pregiudizi, violazioni della privacy e conseguenze indesiderate che possono danneggiare le persone e il tuo business. Scopri come usare l’intelligenza artificiale per la CX in modo etico.
Da Hannah Wren, Autore interno
Ultimo aggiornamento 28 novembre 2023
L’etica dell’intelligenza artificiale nella CX prevede quanto segue:
Sviluppare linee guida per l’AI etica
Formare gli agenti del servizio clienti rispetto al codice etico dell’AI
Privilegiare trasparenza e "spiegabilità", ossia la facilità nel comprendere e considerare affidabili i risultati e gli output generati mediante algoritmi di machine learning.
Informare i clienti quando interagiscono con un chatbot basato su AI
Creare chatbot specifici per casi d’uso e contesti
Valutare l’AI rispetto ai propri pregiudizi
In fatto di customer experience (CX), i consumatori sono pronti a interagire con l’intelligenza artificiale (AI).
Secondo lo Zendesk Customer Experience Trends Report 2023, il 73% dei consumatori si aspetta un maggior numero di interazioni con l’AI nella vita quotidiana e ritiene che questa potrà migliorare la qualità del servizio clienti.
Come Spider-Man, che usa i suoi sensi di ragno a fin di bene, le aziende possono utilizzare l’AI per migliorare la customer experience. Sappiamo, però, che "da un grande potere derivano grandi responsabilità". Per questo motivo, sia le aziende che le singole persone devono impegnarsi a dare priorità all’etica dell’AI nella CX, per creare un’esperienza sicura e positiva per tutti.
Per conoscere meglio l’etica dell’intelligenza artificiale nella CX, è necessario comprenderne le basi: cosa significa etica dell’AI, quali considerazioni etiche occorre tenere presenti e come implementarla in modo etico nella CX.
Sommario:
- Che cos’è l’etica dell’AI?
- Considerazioni importanti sull’AI per i leader della CX
- 6 consigli per un uso etico dell’AI per la CX
- Domande frequenti
- Affianca l’AI al lavoro degli agenti per raggiungere l’equilibrio etico
Che cos’è l’etica dell’AI?
“Etica dell’intelligenza artificiale” è un termine che descrive un insieme di principi morali che determinano lo sviluppo, la diffusione e l’uso responsabile delle tecnologie di AI. Di pari passo con l'uso più prominente dell'AI nei prodotti, nei servizi e nella vita di tutti i giorni, le organizzazioni devono stabilire policy adeguate che possano garantirne un utilizzo corretto.
L’etica dell’AI è richiesta anche a livello nazionale. Nell’ottobre 2022, l’Ufficio per le politiche scientifiche e tecnologiche (OSTP) della Casa Bianca ha pubblicato il Blueprint for an AI Bill of Rights (Progetto per una Carta dei Diritti in materia di AI), come quadro etico di riferimento per l’uso dell’intelligenza artificiale negli Stati Uniti.
Il Progetto per una Carta dei Diritti in materia di AI include cinque principi che, secondo l’OSTP, devono essere garantiti a tutti i cittadini americani:
- Sicurezza ed efficacia dei sistemi. I sistemi di AI devono essere sicuri ed efficaci.
- Protezione dalla discriminazione algoritmica. Gli algoritmi di AI devono dare priorità all’equità e all’imparzialità e non devono contribuire in alcun modo alla discriminazione.
- Privacy dei dati. I sistemi di AI devono includere protezioni integrate per la salvaguardia dei dati.
- Avvisi e spiegazioni. Le aziende devono informare gli utenti ogni volta che utilizzano un sistema di AI.
- Considerazione e alternative, anche umane. Gli utenti devono avere la possibilità di scegliere di non utilizzare un sistema di AI e di ricevere aiuto da una persona, se necessario.
Dare priorità all’etica dell’AI può contribuire a garantire la sicurezza delle aziende e delle persone, sia a livello nazionale che di azienda. Questo permette di progettare e utilizzare l’AI in modo responsabile, riducendo al minimo le possibili conseguenze negative indesiderate.
L’impatto dell’etica dell’AI sulla CX
Dai chatbot basati su AI al software per la customer experience, le aziende si rivolgono alla tecnologia di AI per migliorare la CX. In questo contesto, è fondamentale tenere ben presente l’etica dell’AI. Secondo IBM, l’85% dei consumatori ritiene importante che le aziende prendano in considerazione l’etica nell’uso della tecnologia di AI.
Non farlo può portare a conseguenze inaspettate. Ad esempio, la mancanza di trasparenza delle modalità di raccolta e trattamento dei dati dei clienti mediante la tecnologia di AI può comportare la perdita della fiducia dei clienti e trasformare i supereroi del servizio clienti in personaggi subdoli.
D’altra parte, l’uso etico dell’AI può trasformare il modo di lavorare dei team del servizio, offrendo ai clienti interazioni coinvolgenti ed efficienti con il servizio clienti. Secondo il nostro CX Trends Report, il 74% dei consumatori ritiene che l’AI migliorerà l’efficienza del servizio clienti.
Considerazioni importanti sull’AI per i leader della CX
Come manager, probabilmente hai preso in considerazione l’implementazione dell'AI per migliorare la customer experience. Sei in ottima compagnia: secondo il nostro CX Trends Report, il 72% dei leader aziendali ha come priorità l’espansione dell’AI in tutti gli aspetti della customer experience nel prossimo anno. Per garantire un uso corretto dell’AI da parte dell’azienda, tieni presenti le domande riportate di seguito.
Come si possono ottimizzare le operazioni e la produttività pur assicurando un'esperienza clienti empatica?
Le aziende possono utilizzare l’AI per ottimizzare le operazioni e offrire esperienze preziose ed empatiche ai clienti, riducendo i tempi di attesa e fornendo assistenza 24 ore su 24, 7 giorni su 7. Se tutto questo non viene fatto nel modo giusto, tuttavia, l’AI può portare a una minore empatia nelle interazioni con i clienti e, di conseguenza, a un peggioramento delle esperienze. Per evitare ciò, considera l’AI come un assistente degli agenti dell’assistenza anziché come un robot progettato per sostituirli. Ad esempio:
- L’azienda può creare un rapporto di empatia con il cliente fornendo soluzioni rapide ed efficaci. I bot basati sull’AI possono rispondere immediatamente alle domande e, se necessario, indirizzare il cliente verso un agente in carne e ossa. In alcuni casi, i chatbot AI possono risolvere direttamente il problema di un cliente senza coinvolgere un agente. In questo modo è possibile ridurre i tempi di attesa dei clienti e lasciare gli agenti liberi di dedicarsi a problemi più complessi.
- Analogamente, un software per il servizio clienti potenziato con l’intelligenza artificiale può fornire agli agenti le informazioni pertinenti necessarie per risolvere rapidamente i problemi, con un tocco umano ed empatico.
L’AI può anche aiutare gli agenti a rispondere rapidamente ai problemi, suggerendo automaticamente articoli utili in base ai messaggi dei clienti in tempo reale. In questo modo, gli agenti possono dedicare più tempo ad assistere i clienti e meno alla selezione manuale delle risorse.
Per mantenere l’empatia, le aziende possono anche sfruttare i dati dei clienti per fornire esperienze personalizzate: un aspetto gradito dalla maggior parte dei clienti.
Il 59% dei consumatori ritiene che le aziende dovrebbero utilizzare i dati dei clienti per personalizzare le esperienze di assistenza clienti. Fonte: Zendesk CX Trends Report 2023
Se l’AI viene implementata senza dare priorità a connessioni empatiche, soluzioni rapide ed esperienze personalizzate, i clienti possono sentirsi trascurati e decidere di non servirsi più della tua azienda. Secondo il nostro CX Trends Report, il 66% dei consumatori afferma che un’interazione negativa con l’assistenza clienti può rovinargli la giornata e il 73% è pronto a passare alla concorrenza se il problema persiste.
Come si possono includere punti di vista diversificati?
È importante anche fare in modo di includere prospettive diverse. In caso contrario, si rischia di avere una tecnologia di AI che amplifica i pregiudizi legati a razza, sesso o età. Ad esempio:
- Steven T. Piantadosi, responsabile del dipartimento di informatica e linguistica della University of California, Berkeley, ha fatto in modo che ChatGPT scrivesse un codice secondo il quale solo gli uomini bianchi o asiatici possono essere bravi scienziati.
- Gli studi dimostrano che una piattaforma di prestiti AI ha applicato tassi di interesse e commissioni di prestito più alti a persone che hanno frequentato università tradizionalmente legate a comunità afroamericane o latinoamericane rispetto a coloro che hanno frequentato la New York University.
Le aziende devono assumere team diversificati e testare gli algoritmi su gruppi eterogenei. In caso contrario, si ottengono risultati inquietanti che amplificano i pregiudizi nascosti di una forza lavoro monoculturale. Per verificare l’assenza di pregiudizi, le aziende possono:
Monitorare continuamente le interazioni con l’AI per individuare eventuali pregiudizi.
Valutare i dati su cui si basa la tecnologia di AI per individuare informazioni distorte dai pregiudizi.
Richiedere verifiche di terze parti.
Utilizzare strumenti di rilevamento dei pregiudizi dell’AI.
Per fortuna, i test contro i pregiudizi dell’AI stanno diventando sempre più diffusi e, in alcune regioni, sono persino un obbligo di legge. Nel 2023, la città di New York ha approvato una legge che impone alle aziende che utilizzano strumenti di decisione automatica sulle assunzioni di superare una verifica di terze parti che dimostri che il sistema di AI sia privo di pregiudizi razzisti o sessisti.
Il nostro software di AI è in grado di tutelare la privacy e la sicurezza dei clienti?
Quando si utilizza l’AI, la privacy e la sicurezza dei clienti devono essere una priorità assoluta. Ciò include ottenere il consenso e implementare best practice per la sicurezza dei dati allo scopo di evitare abusi, furti o perdite dei dati dei clienti. Esegui ricerche approfondite su qualsiasi tecnologia di AI prima di utilizzarla, per assicurarti che garantisca misure di cybersecurity sufficienti (a seconda del luogo in cui operi). Questo può includere la conformità a norme e regolamenti quali:
- Regolamento generale sulla protezione dei dati (GDPR). Il GDPR è una legge in materia di privacy e sicurezza dei dati approvata dall’Unione europea (UE) allo scopo di tutelare i dati delle persone all’interno dell’UE.
- California Consumer Privacy Act (CCPA). Il CCPA garantisce la privacy dei dati dei consumatori in California, compreso il diritto di negare il consenso alla vendita e alla condivisione dei dati personali.
- Canada Personal Information Protection and Electronic Documents Act (PIPEDA). PIPEDA garantisce che le organizzazioni del settore privato ottengano il consenso prima di raccogliere o utilizzare i dati dei consumatori canadesi.
- Health Insurance Portability and Accountability Act (HIPAA). HIPAA è una legge federale che impedisce la condivisione di informazioni sanitarie sensibili senza il consenso del paziente. Le aziende del settore sanitario devono garantire la conformità alla normativa HIPAA quando utilizzano l'AI.
L’uso di una tecnologia di AI conforme agli standard di sicurezza in vigore nell’area geografica e relativi al settore in cui opera l’azienda può contribuire a proteggere sia i dati dell’azienda che quelli della base di clienti.
Assumi il controllo della customer experience con l’intelligenza artificiale
Scarica la nostra guida strategica per scoprire come sfruttare in modo etico l’intelligenza artificiale per trasformare la CX e migliorare la soddisfazione del cliente, tenendo sotto controllo i costi dell’assistenza.
6 consigli per un uso etico dell’AI per la CX
Ora che conosci l’etica dell’AI e la sua importanza nel mondo della CX, è il momento di utilizzare l’intelligenza artificiale come superpotere del servizio clienti. Per coloro che sono pronti a potenziare i propri super team di agenti con l’AI, abbiamo raccolto sei consigli per evitare di incappare in problemi etici.
1. Sviluppare linee guida per un’AI etica
Uno dei modi migliori per essere certi di utilizzare in modo etico l’AI per la CX è sviluppare un codice etico per regolamentare l’uso dell’AI. Tali linee guida possono variare a seconda dell’uso specifico che si fa dell’AI, ma in generale includono:
Rispettare le norme sulla privacy dei dati
Dare priorità alla trasparenza
Garantire imparzialità, diversità e inclusione
Dare agli utenti la possibilità di negare il consenso alle interazioni con l’AI
Impegnarsi in verifiche e controlli continui
Una volta definite le linee guida dell’etica dell’automazione per l’azienda, i soggetti interessati possono utilizzarle per implementare l'AI nella CX.
2. Aggiornare gli agenti del servizio clienti riguardo il codice etico dell’AI
Dopo aver creato le linee guida per l’AI, assicurati di istruire i dipendenti sugli aspetti etici legati all’uso dell’intelligenza artificiale per la CX e ricorda: i computer si basano su informazioni fornite da noi.
“Si limitano a rigurgitare dati già disponibili”, afferma Mikey Fischer, che ha sviluppato un sistema che traduce il linguaggio naturale in codice e ha terminato di recente il dottorato in informatica alla Stanford University, specializzandosi in AI ed elaborazione del linguaggio naturale.
Secondo Fischer, è per questo motivo che è importante l’intervento umano nella valutazione dei pregiudizi dell’AI anche dopo aver testato un sistema, per garantire che funzioni per utenti specifici e singoli casi d’uso anziché prendere in considerazione dati demografici globali.
È inoltre consigliabile avere a disposizione un sistema alternativo che consenta ai clienti di contattare una persona in carne e ossa in caso di imprevisti o imprecisioni.
3. Privilegiare trasparenza e "spiegabilità"
Indipendentemente dall’uso che se ne fa, è necessario garantire trasparenza nel modo in cui le aziende operano in relazione all’AI e alla cosiddetta “spiegabilità”, ovvero la possibilità di capire perché un sistema di intelligenza artificiale ha preso una determinata decisione.
“Le aziende che adottano un approccio trasparente alla tecnologia o che la rendono liberamente accessibile tendono ad avere meno problemi”, afferma Fischer. “I problemi con l’AI sorgono quando le aziende fanno promesse eccessive o nascondono delle informazioni, non necessariamente perché la tecnologia non è perfetta; è risaputo che la tecnologia ha dei limiti”.
La stessa trasparenza che le aziende applicano ai prezzi o ai propri valori può essere applicata all’AI, ad esempio in termini di capacità effettive della tecnologia e dei relativi processi interni. Ciò significa anche ammettere onestamente la presenza di eventuali problemi.
4. Informare i clienti quando interagiscono con un chatbot basato su AI
Secondo Fischer, le aziende trasparenti fanno in modo che i clienti siano consapevoli quando interagiscono con l’AI. Ad esempio, la “B.O.T. law” impone alle aziende californiane di informare i consumatori quando interagiscono con un chatbot anziché con una persona.
In questo modo, il cliente non dovrà mai chiedersi se sta parlando con un chatbot o con un agente del servizio clienti. Questo aspetto sta assumendo sempre più importanza, dal momento che, secondo il nostro CX Trends Report, il 65% dei manager ritiene che la tecnologia di AI che utilizza stia diventando più “umana”.
5. Creare chatbot specifici per casi d’uso e contesti
Le aziende possono ridurre i pregiudizi creando una tecnologia di AI che sia pertinente al contesto e specifica per il caso d’uso.
“Quando l’AI viene impostata per un compito troppo ampio, non può in alcun modo essere priva di pregiudizi, perché molti aspetti etici sono legati al contesto” afferma Fischer. “Se siamo costretti a rientrare in una monocultura della tecnologia, non è possibile che questa riesca a cogliere tutte le sfumature di un determinato gruppo demografico o di coloro che l’intelligenza artificiale sta cercando di servire”.
Tra gli esempi di chatbot specifici di un dominio, ovvero chatbot impostati per un compito specifico, troviamo Erica di Bank of America, che aiuta i clienti a gestire le proprie finanze, e il bot WhatsApp dell’Organizzazione Mondiale della Sanità, che fornisce agli utenti informazioni affidabili sul COVID-19.
“Il chatbot dev’essere specifico per l’utente e il caso d’uso, in modo che abbia un contesto sufficiente a consentirgli un comportamento etico”, afferma Fischer. “Se ha un compito specifico, l’utente e il sistema possono collaborare più facilmente”.
6. Valutare l’intelligenza artificiale rispetto ai propri pregiudizi
La tecnologia di AI apprende dal numero di input che le forniamo, imparando dalla realtà così com’è o com’è stata, non come dovrebbe essere. Di conseguenza, trasmettiamo alla tecnologia i nostri pregiudizi, consci o inconsci che siano.
“Non esiste un sistema privo di pregiudizi”, spiega Fischer. “L’AI si basa sempre su una qualche definizione di imparzialità che cerca di ottimizzare, e sono molte le definizioni del significato di imparzialità”.
L’esempio proposto da Fischer è quello di un chatbot per l’affidabilità creditizia. Si avvicina di più alla definizione di affidabilità creditizia una persona che ha maggiori probabilità di restituire un prestito o di ottimizzarlo per massimizzare il profitto?
Anche quando pensiamo di averla programmata senza pregiudizi, l’AI può apprendere pregiudizi che non sappiamo di avere.
“I sistemi di AI hanno milioni di parametri e a volte, per una persona, non è immediatamente chiaro il motivo per cui è stata presa una certa decisione”, spiega Fischer. “Anche i genitori più attenti possono avere un figlio molto diverso dalle loro aspettative”.
Ad esempio, una banca potrebbe scoprire che il suo algoritmo di affidabilità creditizia ha un pregiudizio razziale e rimuovere l’input della razza. Tuttavia, l’algoritmo può dedurre statisticamente la razza da altri fattori, come la posizione geografica o dove una persona ha frequentato l’università.
“È difficile eliminare completamente i fattori discriminanti”, spiega Fischer. Ecco perché, in quanto responsabili della creazione delle esperienze di AI del futuro, dobbiamo valutare i chatbot rispetto ai nostri stessi pregiudizi.
Domande frequenti
Offri agli agenti un’AI etica
Anche se l’AI per il servizio clienti può migliorare la customer experience e snellire i processi di assistenza, è fondamentale utilizzarla in modo responsabile ed etico, mantenendo l’empatia e rispettando la diversità e la privacy.
Mettendo l’intelligenza artificiale a disposizione degli agenti, puoi ampliare le loro capacità e fornire un’assistenza clienti automatizzata. Questo ti permetterà di incrementare la produttività, migliorare la soddisfazione dei clienti e risparmiare tempo e denaro.