Vai al contenuto principale

Articolo 8 minuti di lettura

L’etica dell’intelligenza artificiale nella CX

L’etica dell’intelligenza artificiale ha lo scopo di prevenire pregiudizi, violazioni della privacy e conseguenze indesiderate che possono danneggiare le persone e il tuo business. Scopri come usare l’intelligenza artificiale per la CX in modo etico.

Da Hannah Wren, Autore interno

Ultimo aggiornamento 28 novembre 2023

Immagine che raffigura un insieme di oggetti di vario tipo sospesi all’interno di blocchi trasparenti.

L’etica dell’intelligenza artificiale nella CX prevede quanto segue:

  • Sviluppare linee guida per l’AI etica

  • Formare gli agenti del servizio clienti rispetto al codice etico dell’AI

  • Privilegiare trasparenza e "spiegabilità", ossia la facilità nel comprendere e considerare affidabili i risultati e gli output generati mediante algoritmi di machine learning.

  • Informare i clienti quando interagiscono con un chatbot basato su AI

  • Creare chatbot specifici per casi d’uso e contesti

  • Valutare l’AI rispetto ai propri pregiudizi

In fatto di customer experience (CX), i consumatori sono pronti a interagire con l’intelligenza artificiale (AI).

Secondo lo Zendesk Customer Experience Trends Report 2023, il 73% dei consumatori si aspetta un maggior numero di interazioni con l’AI nella vita quotidiana e ritiene che questa potrà migliorare la qualità del servizio clienti.

Come Spider-Man, che usa i suoi sensi di ragno a fin di bene, le aziende possono utilizzare l’AI per migliorare la customer experience. Sappiamo, però, che "da un grande potere derivano grandi responsabilità". Per questo motivo, sia le aziende che le singole persone devono impegnarsi a dare priorità all’etica dell’AI nella CX, per creare un’esperienza sicura e positiva per tutti.

Per conoscere meglio l’etica dell’intelligenza artificiale nella CX, è necessario comprenderne le basi: cosa significa etica dell’AI, quali considerazioni etiche occorre tenere presenti e come implementarla in modo etico nella CX.

Sommario:

Che cos’è l’etica dell’AI?

“Etica dell’intelligenza artificiale” è un termine che descrive un insieme di principi morali che determinano lo sviluppo, la diffusione e l’uso responsabile delle tecnologie di AI. Di pari passo con l'uso più prominente dell'AI nei prodotti, nei servizi e nella vita di tutti i giorni, le organizzazioni devono stabilire policy adeguate che possano garantirne un utilizzo corretto.

Grafico che definisce l’etica dell’AI, illustrando ulteriormente la sua importanza nella CX.

L’etica dell’AI è richiesta anche a livello nazionale. Nell’ottobre 2022, l’Ufficio per le politiche scientifiche e tecnologiche (OSTP) della Casa Bianca ha pubblicato il Blueprint for an AI Bill of Rights (Progetto per una Carta dei Diritti in materia di AI), come quadro etico di riferimento per l’uso dell’intelligenza artificiale negli Stati Uniti.

Il Progetto per una Carta dei Diritti in materia di AI include cinque principi che, secondo l’OSTP, devono essere garantiti a tutti i cittadini americani:

  • Sicurezza ed efficacia dei sistemi. I sistemi di AI devono essere sicuri ed efficaci.
  • Protezione dalla discriminazione algoritmica. Gli algoritmi di AI devono dare priorità all’equità e all’imparzialità e non devono contribuire in alcun modo alla discriminazione.
  • Privacy dei dati. I sistemi di AI devono includere protezioni integrate per la salvaguardia dei dati.
  • Avvisi e spiegazioni. Le aziende devono informare gli utenti ogni volta che utilizzano un sistema di AI.
  • Considerazione e alternative, anche umane. Gli utenti devono avere la possibilità di scegliere di non utilizzare un sistema di AI e di ricevere aiuto da una persona, se necessario.

Dare priorità all’etica dell’AI può contribuire a garantire la sicurezza delle aziende e delle persone, sia a livello nazionale che di azienda. Questo permette di progettare e utilizzare l’AI in modo responsabile, riducendo al minimo le possibili conseguenze negative indesiderate.

L’impatto dell’etica dell’AI sulla CX

Dai chatbot basati su AI al software per la customer experience, le aziende si rivolgono alla tecnologia di AI per migliorare la CX. In questo contesto, è fondamentale tenere ben presente l’etica dell’AI. Secondo IBM, l’85% dei consumatori ritiene importante che le aziende prendano in considerazione l’etica nell’uso della tecnologia di AI.

Non farlo può portare a conseguenze inaspettate. Ad esempio, la mancanza di trasparenza delle modalità di raccolta e trattamento dei dati dei clienti mediante la tecnologia di AI può comportare la perdita della fiducia dei clienti e trasformare i supereroi del servizio clienti in personaggi subdoli.

D’altra parte, l’uso etico dell’AI può trasformare il modo di lavorare dei team del servizio, offrendo ai clienti interazioni coinvolgenti ed efficienti con il servizio clienti. Secondo il nostro CX Trends Report, il 74% dei consumatori ritiene che l’AI migliorerà l’efficienza del servizio clienti.

Considerazioni importanti sull’AI per i leader della CX

Grafico che evidenzia le regole dell’uso dell’AI nella CX, approfondendo ulteriormente l’etica dell’AI nella CX.

Come manager, probabilmente hai preso in considerazione l’implementazione dell'AI per migliorare la customer experience. Sei in ottima compagnia: secondo il nostro CX Trends Report, il 72% dei leader aziendali ha come priorità l’espansione dell’AI in tutti gli aspetti della customer experience nel prossimo anno. Per garantire un uso corretto dell’AI da parte dell’azienda, tieni presenti le domande riportate di seguito.

Come si possono ottimizzare le operazioni e la produttività pur assicurando un'esperienza clienti empatica?

Le aziende possono utilizzare l’AI per ottimizzare le operazioni e offrire esperienze preziose ed empatiche ai clienti, riducendo i tempi di attesa e fornendo assistenza 24 ore su 24, 7 giorni su 7. Se tutto questo non viene fatto nel modo giusto, tuttavia, l’AI può portare a una minore empatia nelle interazioni con i clienti e, di conseguenza, a un peggioramento delle esperienze. Per evitare ciò, considera l’AI come un assistente degli agenti dell’assistenza anziché come un robot progettato per sostituirli. Ad esempio:

  • L’azienda può creare un rapporto di empatia con il cliente fornendo soluzioni rapide ed efficaci. I bot basati sull’AI possono rispondere immediatamente alle domande e, se necessario, indirizzare il cliente verso un agente in carne e ossa. In alcuni casi, i chatbot AI possono risolvere direttamente il problema di un cliente senza coinvolgere un agente. In questo modo è possibile ridurre i tempi di attesa dei clienti e lasciare gli agenti liberi di dedicarsi a problemi più complessi.
  • Analogamente, un software per il servizio clienti potenziato con l’intelligenza artificiale può fornire agli agenti le informazioni pertinenti necessarie per risolvere rapidamente i problemi, con un tocco umano ed empatico.
  • L’AI può anche aiutare gli agenti a rispondere rapidamente ai problemi, suggerendo automaticamente articoli utili in base ai messaggi dei clienti in tempo reale. In questo modo, gli agenti possono dedicare più tempo ad assistere i clienti e meno alla selezione manuale delle risorse.

Per mantenere l’empatia, le aziende possono anche sfruttare i dati dei clienti per fornire esperienze personalizzate: un aspetto gradito dalla maggior parte dei clienti.

Il 59% dei consumatori ritiene che le aziende dovrebbero utilizzare i dati dei clienti per personalizzare le esperienze di assistenza clienti. Fonte: Zendesk CX Trends Report 2023

Se l’AI viene implementata senza dare priorità a connessioni empatiche, soluzioni rapide ed esperienze personalizzate, i clienti possono sentirsi trascurati e decidere di non servirsi più della tua azienda. Secondo il nostro CX Trends Report, il 66% dei consumatori afferma che un’interazione negativa con l’assistenza clienti può rovinargli la giornata e il 73% è pronto a passare alla concorrenza se il problema persiste.

Come si possono includere punti di vista diversificati?

È importante anche fare in modo di includere prospettive diverse. In caso contrario, si rischia di avere una tecnologia di AI che amplifica i pregiudizi legati a razza, sesso o età. Ad esempio:

Le aziende devono assumere team diversificati e testare gli algoritmi su gruppi eterogenei. In caso contrario, si ottengono risultati inquietanti che amplificano i pregiudizi nascosti di una forza lavoro monoculturale. Per verificare l’assenza di pregiudizi, le aziende possono:

  • Monitorare continuamente le interazioni con l’AI per individuare eventuali pregiudizi.

  • Valutare i dati su cui si basa la tecnologia di AI per individuare informazioni distorte dai pregiudizi.

  • Richiedere verifiche di terze parti.

  • Utilizzare strumenti di rilevamento dei pregiudizi dell’AI.

Per fortuna, i test contro i pregiudizi dell’AI stanno diventando sempre più diffusi e, in alcune regioni, sono persino un obbligo di legge. Nel 2023, la città di New York ha approvato una legge che impone alle aziende che utilizzano strumenti di decisione automatica sulle assunzioni di superare una verifica di terze parti che dimostri che il sistema di AI sia privo di pregiudizi razzisti o sessisti.

Il nostro software di AI è in grado di tutelare la privacy e la sicurezza dei clienti?

Quando si utilizza l’AI, la privacy e la sicurezza dei clienti devono essere una priorità assoluta. Ciò include ottenere il consenso e implementare best practice per la sicurezza dei dati allo scopo di evitare abusi, furti o perdite dei dati dei clienti. Esegui ricerche approfondite su qualsiasi tecnologia di AI prima di utilizzarla, per assicurarti che garantisca misure di cybersecurity sufficienti (a seconda del luogo in cui operi). Questo può includere la conformità a norme e regolamenti quali:

L’uso di una tecnologia di AI conforme agli standard di sicurezza in vigore nell’area geografica e relativi al settore in cui opera l’azienda può contribuire a proteggere sia i dati dell’azienda che quelli della base di clienti.

6 consigli per un uso etico dell’AI per la CX

Grafico che evidenzia sei suggerimenti per dare priorità all’etica dell’AI nella CX.

Ora che conosci l’etica dell’AI e la sua importanza nel mondo della CX, è il momento di utilizzare l’intelligenza artificiale come superpotere del servizio clienti. Per coloro che sono pronti a potenziare i propri super team di agenti con l’AI, abbiamo raccolto sei consigli per evitare di incappare in problemi etici.

1. Sviluppare linee guida per un’AI etica

Uno dei modi migliori per essere certi di utilizzare in modo etico l’AI per la CX è sviluppare un codice etico per regolamentare l’uso dell’AI. Tali linee guida possono variare a seconda dell’uso specifico che si fa dell’AI, ma in generale includono:

  • Rispettare le norme sulla privacy dei dati

  • Dare priorità alla trasparenza

  • Garantire imparzialità, diversità e inclusione

  • Dare agli utenti la possibilità di negare il consenso alle interazioni con l’AI

  • Impegnarsi in verifiche e controlli continui

Una volta definite le linee guida dell’etica dell’automazione per l’azienda, i soggetti interessati possono utilizzarle per implementare l'AI nella CX.

2. Aggiornare gli agenti del servizio clienti riguardo il codice etico dell’AI

Dopo aver creato le linee guida per l’AI, assicurati di istruire i dipendenti sugli aspetti etici legati all’uso dell’intelligenza artificiale per la CX e ricorda: i computer si basano su informazioni fornite da noi.

“Si limitano a rigurgitare dati già disponibili”, afferma Mikey Fischer, che ha sviluppato un sistema che traduce il linguaggio naturale in codice e ha terminato di recente il dottorato in informatica alla Stanford University, specializzandosi in AI ed elaborazione del linguaggio naturale.

Secondo Fischer, è per questo motivo che è importante l’intervento umano nella valutazione dei pregiudizi dell’AI anche dopo aver testato un sistema, per garantire che funzioni per utenti specifici e singoli casi d’uso anziché prendere in considerazione dati demografici globali.

È inoltre consigliabile avere a disposizione un sistema alternativo che consenta ai clienti di contattare una persona in carne e ossa in caso di imprevisti o imprecisioni.

3. Privilegiare trasparenza e "spiegabilità"

Indipendentemente dall’uso che se ne fa, è necessario garantire trasparenza nel modo in cui le aziende operano in relazione all’AI e alla cosiddetta “spiegabilità”, ovvero la possibilità di capire perché un sistema di intelligenza artificiale ha preso una determinata decisione.

“Le aziende che adottano un approccio trasparente alla tecnologia o che la rendono liberamente accessibile tendono ad avere meno problemi”, afferma Fischer. “I problemi con l’AI sorgono quando le aziende fanno promesse eccessive o nascondono delle informazioni, non necessariamente perché la tecnologia non è perfetta; è risaputo che la tecnologia ha dei limiti”.

La stessa trasparenza che le aziende applicano ai prezzi o ai propri valori può essere applicata all’AI, ad esempio in termini di capacità effettive della tecnologia e dei relativi processi interni. Ciò significa anche ammettere onestamente la presenza di eventuali problemi.

4. Informare i clienti quando interagiscono con un chatbot basato su AI

Secondo Fischer, le aziende trasparenti fanno in modo che i clienti siano consapevoli quando interagiscono con l’AI. Ad esempio, la “B.O.T. law” impone alle aziende californiane di informare i consumatori quando interagiscono con un chatbot anziché con una persona.

In questo modo, il cliente non dovrà mai chiedersi se sta parlando con un chatbot o con un agente del servizio clienti. Questo aspetto sta assumendo sempre più importanza, dal momento che, secondo il nostro CX Trends Report, il 65% dei manager ritiene che la tecnologia di AI che utilizza stia diventando più “umana”.

5. Creare chatbot specifici per casi d’uso e contesti

Le aziende possono ridurre i pregiudizi creando una tecnologia di AI che sia pertinente al contesto e specifica per il caso d’uso.

“Quando l’AI viene impostata per un compito troppo ampio, non può in alcun modo essere priva di pregiudizi, perché molti aspetti etici sono legati al contesto” afferma Fischer. “Se siamo costretti a rientrare in una monocultura della tecnologia, non è possibile che questa riesca a cogliere tutte le sfumature di un determinato gruppo demografico o di coloro che l’intelligenza artificiale sta cercando di servire”.

Tra gli esempi di chatbot specifici di un dominio, ovvero chatbot impostati per un compito specifico, troviamo Erica di Bank of America, che aiuta i clienti a gestire le proprie finanze, e il bot WhatsApp dell’Organizzazione Mondiale della Sanità, che fornisce agli utenti informazioni affidabili sul COVID-19.

“Il chatbot dev’essere specifico per l’utente e il caso d’uso, in modo che abbia un contesto sufficiente a consentirgli un comportamento etico”, afferma Fischer. “Se ha un compito specifico, l’utente e il sistema possono collaborare più facilmente”.

6. Valutare l’intelligenza artificiale rispetto ai propri pregiudizi

La tecnologia di AI apprende dal numero di input che le forniamo, imparando dalla realtà così com’è o com’è stata, non come dovrebbe essere. Di conseguenza, trasmettiamo alla tecnologia i nostri pregiudizi, consci o inconsci che siano.

“Non esiste un sistema privo di pregiudizi”, spiega Fischer. “L’AI si basa sempre su una qualche definizione di imparzialità che cerca di ottimizzare, e sono molte le definizioni del significato di imparzialità”.

L’esempio proposto da Fischer è quello di un chatbot per l’affidabilità creditizia. Si avvicina di più alla definizione di affidabilità creditizia una persona che ha maggiori probabilità di restituire un prestito o di ottimizzarlo per massimizzare il profitto?

Anche quando pensiamo di averla programmata senza pregiudizi, l’AI può apprendere pregiudizi che non sappiamo di avere.

“I sistemi di AI hanno milioni di parametri e a volte, per una persona, non è immediatamente chiaro il motivo per cui è stata presa una certa decisione”, spiega Fischer. “Anche i genitori più attenti possono avere un figlio molto diverso dalle loro aspettative”.

Ad esempio, una banca potrebbe scoprire che il suo algoritmo di affidabilità creditizia ha un pregiudizio razziale e rimuovere l’input della razza. Tuttavia, l’algoritmo può dedurre statisticamente la razza da altri fattori, come la posizione geografica o dove una persona ha frequentato l’università.

“È difficile eliminare completamente i fattori discriminanti”, spiega Fischer. Ecco perché, in quanto responsabili della creazione delle esperienze di AI del futuro, dobbiamo valutare i chatbot rispetto ai nostri stessi pregiudizi.

Domande frequenti

Offri agli agenti un’AI etica

Anche se l’AI per il servizio clienti può migliorare la customer experience e snellire i processi di assistenza, è fondamentale utilizzarla in modo responsabile ed etico, mantenendo l’empatia e rispettando la diversità e la privacy.

Mettendo l’intelligenza artificiale a disposizione degli agenti, puoi ampliare le loro capacità e fornire un’assistenza clienti automatizzata. Questo ti permetterà di incrementare la produttività, migliorare la soddisfazione dei clienti e risparmiare tempo e denaro.

Pubblicazioni correlate

Articolo
15 minuti di lettura

Che cos’è l'AI conversazionale? Come funziona, esempi e molto altro

Scopri come l'AI conversazionale sta trasformando la CX e come puoi usarla a vantaggio della tua azienda, dei tuoi agenti e dei tuoi clienti.

Articolo
5 minuti di lettura

Automazione dell'esperienza clienti (CXA): Definizione + esempi

L'automazione dell'esperienza clienti aumenta la soddisfazione del cliente, incrementa l'efficienza degli agenti e riduce i costi.

Articolo
6 minuti di lettura

Zendesk presenta la soluzione di assistenza e customer experience più completa del settore per l'era dell'AI

L’azienda leader nella CX lancia gli agenti AI, l’agent copilot e Workforce Engagement Management (WEM) alimentato…

Articolo
8 minuti di lettura

Ottimizzazione del personale: la guida completa per il 2024

L’ottimizzazione del personale rende i processi più efficienti e i dipendenti più produttivi e offre una maggiore flessibilità dei profitti. Per saperne di più, leggi qui di seguito.