GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/2017/01.jpg

Dettaglio news
Dal tono della voce al controllo del pensiero: l’intelligenza artificiale nei call-center


lunedì 1 dicembre 2025
di Avv. Gianni Dell'Aiuto



Basta cercare in rete e si scopre facilmente che in un numero crescente di centri servizi, customer care e call center, viene impiegata un’intelligenza artificiale che non solo registra le conversazioni, ma analizza in tempo reale elementi come tono di voce, ritmo, pause, esitazioni, emotività. L’operatore, pertanto, non viene valutato solo per i tempi di chiamata e il loro numero, ma anche per ciascuna interazione al fine di misurare “quanta empatia mostri”, “quanto sei proattivo”, “quanto sei allineato al discorso aziendale”. In questi contesti l’AI, più che le parole, legge le modalità, i silenzi, gli umori.

E lo stesso ben potrebbe avvenire, a sua insaputa o con un consenso “distratto”, per l’interlocutore. Si tratta di una sorveglianza algoritmica che va ben oltre la tradizionale misurazione della performance: è una misura di un “modo di essere” professionale da un lato e del consumatore dall’altro. Si accertano stati d’animo e reazioni se non, addirittura, sentimenti. Questo scenario, non certo impossibile, considerato che notizie sull’esistenza di questi sistemi sono confermate, porta a riflessioni sul controllo dei dati e della soggettività che vanno oltre la misurazione di un comportamento e che possono toccare il pensiero.

 

Dati biometrici e comportamentali: i confini critici del GDPR

Dal punto di vista giuridico-privacy, emergono due dimensioni critiche. Primo, si tratta di trattamento di dati personali, biometrici e comportamentali, che richiedono basi giuridiche corrette, trasparenza, informazione e limitazione. Secondo, si tratta di un controllo che incide direttamente sulla dignità del lavoratore, sulla libertà di espressione, sulla sua autonomia professionale e, non ultimo, sul consumatore.

Laddove un sistema di AI analizza la voce per inferire stato emotivo o atteggiamento, ci troviamo davanti a “dati idonei a rivelare lo stato di salute o le condizioni personali” (Art. 6 GDPR) e “dati biometrici elaborati al fine di identificare in modo univoco una persona fisica” (Art. 9).

Inoltre, il controllo algoritmico continuo contrasta anche con il principio di minimizzazione (Art. 5) e con la trasparenza (Art. 13-14): il lavoratore deve essere informato non solo che esiste un sistema di monitoraggio, ma in che modo vengono estratti “toni”, “pause”, “emozioni” e come questi dati vengono usati. E ciò è ancora più vero per il cliente.

Ancora più rilevante è l’Art. 22 del GDPR: nessuna decisione basata unicamente su trattamento automatizzato che produca effetti giuridici o che incida significativamente sulla persona può essere messa in atto senza garanzie di intervento umano, possibilità di contestazione e trasparenza delle logiche. Pertanto, se il sistema IA in call center decide punteggi, bonus, promozioni, sanzioni senza intervento umano, siamo nel pieno del divieto (se non derogato correttamente) e del rischio di discriminazione algoritmica.

Per approfondire > Rilevazione impronte digitali sul posto di lavoro: intervento del Garante
 

Sorveglianza algoritmica e dignità: i limiti dello Statuto dei Lavoratori 

Sul piano della tutela del lavoro, il tema rimanda allo statuto costituzionale della dignità del lavoratore, alla libertà di manifestazione del pensiero e alla non trasformazione dell’uomo in oggetto di misurazione. L’articolo 4 dello Statuto dei lavoratori stabilisce che l’installazione di strumenti di controllo a distanza non può essere utilizzata per verificare l’attività lavorativa del prestatore, salvo accordo sindacale o autorizzazione dell’Ispettorato del lavoro. L’uso dell’IA pone quindi anche una questione di compatibilità con quel limite tradizionale ma che, oggi, va reinterpretato alla luce delle nuove tecnologie digitali.

Corrono allarmanti notizie secondo cui la sorveglianza digitale dei lavoratori stia diventando sistematica, capillare, automatizzata, e che la normativa fatica a tenere il passo. In non pochi articoli si evidenzia come l’IA nell’ambiente di lavoro comporti la necessità di definire limiti al monitoraggio dei dipendenti e alla raccolta e al trattamento di dati personali.

Dal punto di vista della governance e dell’accountability, è necessario che il datore di lavoro (o chi per lui) effettui una valutazione d’impatto (DPIA) se il trattamento è ad alto rischio, informi i lavoratori, consulti le rappresentanze sindacali, garantisca trasparenza e possibilità di opposizione o revisione delle valutazioni automatizzate. Allo stesso modo la cura del consumatore – interessato è altro aspetto fondamentale.

L’IA nei call center non è soltanto una questione di efficienza: è un banco di prova per il modello giuridico della protezione dei dati e dei diritti del lavoro e dei consumatori. Se accettiamo che il tono della voce o una risposta secca possano essere misurate, analizzate e computate, dobbiamo ricordare che dietro c’è una persona, la sua dignità, la sua autonomia: in ultima analisi la sua libertà di pensiero.

 

 




CONDIVIDI QUESTA PAGINA!