Etica dei dati: è il momento di dimostrare coraggio, non solo attenzione alla conformità

Jamie Barnard è consulente generale per il marketing globale e i media di Unilever e presidente del Data Ethics Board presso la World Federation of Advertisers (WFA), per la quale ha guidato la realizzazione del rapporto Data Ethics: The Rise of Morality in Technology (Etica dei dati: l’ascesa della moralità nella tecnologia). Si è confrontato con Pedro Pina, vicepresidente di Global Client & Agency Solutions di Google, sul modo in cui gli attuali dirigenti devono pensare all’etica dei dati nella nostra società digitale.

Pedro Pina, Google: Parlando di problematiche relative alla privacy online e al regolamento sulla protezione dei dati, una volta mi hai detto che i brand devono dimostrare “coraggio” e che questo non è il momento per “essere cauti, attenti alla conformità o esitanti”. Ma questa è esattamente l’opinione della maggior parte delle persone su questo argomento. La conformità al GDPR e ad altri regolamenti è fondamentale. Mi parli un po’ di più del suo punto di vista. Come dovrebbero pensarla le persone riguardo a questo argomento?

Jamie Barnard, Unilever: Le aziende che precorrono i tempi guardano oltre il rispetto delle disposizioni, per quanto possa sembrare difficile. La conformità è un punto fermo, in quanto da un lato protegge i diritti fondamentali delle persone e dall’altro tutela le aziende dalle insidie legali. Tuttavia, ha un valore limitato presso l’opinione pubblica: se le persone pensano che le pratiche adottate da un’azienda in relazione ai dati non siano etiche, una dimostrazione di conformità legale non ne proteggerà la reputazione. È per questo motivo che i brand devono definire e seguire un codice etico.

Hai bisogno di assistenza sui tuoi progetti di Intelligenza Artificiale, Arte Generativa, Siti Internet, WordPress, Produzioni Video, Software Open Source?
Parla con noi:
la Redazione è operativa da lunedi a venerdi (10-13/16-19, festività escluse):
375 5204559

Esistono alcune eccellenti aziende di cui le persone si fidano perché primeggiano grazie a etica e integrità. E a volte sono le piccole cose che contano.

Ecco un buon esempio. Alcuni anni fa ho scaricato un’app di social media. Al momento della registrazione, è comparso un popup che chiedeva di poter accedere ai miei contatti. In condizioni normali avrei dovuto allarmarmi, ma le intenzioni dell’app sono state chiarite fin da subito: i miei contatti sarebbero stati criptati e utilizzati solo per collegarmi con amici esistenti mediante l’app, poi sarebbero stati eliminati definitivamente. Questa era esattamente la rassicurazione di cui avevo bisogno. Non ho mai dimenticato il rispetto per la privacy e l’approccio aperto e trasparente dell’app.

Dimostrare il proprio impegno verso i principi etici richiede coraggio e contribuisce sostanzialmente a instaurare un clima di fiducia.

“Dimostrare il proprio impegno verso i principi etici richiede coraggio e contribuisce sostanzialmente a instaurare un clima di fiducia.”

Pina: Spesso la privacy non è considerata un argomento particolarmente entusiasmante. È importante, ma non è considerata stimolante. In che modo motiva i suoi colleghi, e il vasto mondo delle grandi aziende, a considerare l’etica dei dati come un fattore rivoluzionario?

Barnard: L’entusiasmo deriva dall’eliminazione della tensione tra innovazione data-driven e le aspettative delle persone in materia di privacy. L’entusiasmo deriva dal superamento delle barriere tecniche di ciò che è possibile fare senza compromettere l’impegno nei confronti della sicurezza, della privacy e del benessere delle persone.

Se si vuole essere progressisti e fare qualcosa che nessuno ha mai fatto prima, senza compromettere i propri valori, occorre fissare nuovi e più severi standard per sé stessi. Quando si considera la privacy come un diritto fondamentale, tutelarla diventa profondamente gratificante.

Pensiamo ad esempio all’intelligenza artificiale (AI). Un’azienda può progettare un sistema di AI con le migliori intenzioni. All’inizio è possibile che tale sistema funzioni alla perfezione, ma dopo sei mesi gli ingegneri potrebbero notare che prende decisioni con conseguenze non intenzionali. Identificare e risolvere sfide complesse come questa è molto stimolante. La voglia di scoprire modi per riprogettare principi di etica e morale all’interno di sistemi intelligenti è ciò che anima molte persone. L’entusiasmo deriva dalla sfida.

Pina: In Google siamo entusiasti del lavoro pionieristico che stiamo svolgendo nel settore su Privacy Sandbox e di avere consentito alle persone un maggiore controllo sui propri dati. Quali sono i principali ostacoli che impediscono ai professionisti e alle professioniste del settore di apportare le modifiche necessarie in questo spazio? In che modo possono affrontare questi problemi etici?

Barnard: Per costruire un sistema sano, dobbiamo intervenire per risolvere i dilemmi etici prima che diventino problemi. Tenendo conto di ciò, occorre pensare a tre fattori:

In primo luogo dobbiamo riconoscere eventuali punti ciechi. Quando la consapevolezza dei rischi etici è scarsa, è facile non avere una visione completa delle cose. Dobbiamo allenarci a identificare questi rischi e ad affrontarli.

Ad esempio, se un ingegnere crea un sistema per ottimizzare le percentuali di clic, potrebbe non accorgersi se le decisioni dell’algoritmo iniziano ad avere un impatto negativo sulla diversità o a escludere persone. Se si cerca attivamente di individuare il problema, è possibile intervenire e adattare il modo in cui misurare il successo in un modo più inclusivo. Questa è una responsabilità condivisa, ma inizia nella fase di progettazione. Da un punto di vista gestionale, è utile introdurre un’attività di formazione per aiutare i team a essere consapevolmente attenti ai rischi etici.

Tuttavia, questo richiede una completa visibilità sull’intero flusso dei dati. Può essere difficile identificare i rischi e assicurarsi che siano presenti quadri di governance se parte del flusso di dati è sconosciuto (in genere perché inizia o finisce al di fuori dell’organizzazione). Ecco perché è così importante lavorare con aziende trasparenti con cui condividere valori e principi etici.

“Per costruire un sistema sano, dobbiamo intervenire per risolvere i dilemmi etici prima che diventino problemi.”

Il secondo ostacolo è la responsabilizzazione. A volte una persona o un team può individuare un problema etico che ha origine da un sistema legacy. In un mondo ideale, il problema verrebbe segnalato e affrontato, ma ovviamente può essere difficile abbandonare sistemi e processi utilizzati da lungo tempo. Le persone potrebbero non sentirsi direttamente responsabili di trovare una soluzione a un problema che non hanno creato. Si torna così alla responsabilizzazione condivisa e al concetto secondo il quale tutti hanno una responsabilità collettiva di affrontare personalmente qualsiasi tipo di problema.

Il terzo ostacolo è una mancanza di sicurezza psicologica. Come dirigenti di azienda, vogliamo che le persone siano determinate e alzino la mano quando identificano potenziali problematiche di natura etica. Tuttavia, molte di loro, in particolare i lavoratori più giovani sotto pressione per i risultati, potrebbero non voler far sentire la propria voce. Potrebbero non voler creare attriti o rallentare i processi, con potenziali ripercussioni negative su di loro. I dirigenti devono garantire a queste persone di poter segnalare in tutta sicurezza i motivi di preoccupazione senza timore di ritorsioni, anche se si tratta solo di sospetti. Se ciò non avviene, i problemi persistono e possono peggiorare nel tempo.

Pina: Il rapporto Data Ethics: The Rise of Morality in Technology di WFA è stata la prima guida mondiale sull’etica dei dati per i brand. Come mai ha deciso di scriverlo e in che modo è cambiato da allora il suo pensiero?

Barnard: Il rapporto è stato un prodotto del Data Ethics Board di WFA. Come inserzionisti responsabili, abbiamo cercato di favorire la trasparenza e costruire un clima di fiducia. Il problema era (ed è ancora) rappresentato dal fatto che l’uso dei dati è estremamente complesso e l’enorme peso della decodifica ricade sul consumatore. L’Informativa sulla privacy non è una soluzione del problema facile da adottare.

Il Data Ethics Board ha accettato che l’etica fosse un utile antidoto. Se possiamo abbracciare il concetto di etica come settore, rassicureremo le persone e creeremo fiducia e credibilità.

Il rapporto di WFA è stato un modo per comunicare al settore che dobbiamo spostare il discorso dalla privacy come fattore di rischio alla privacy e all’etica dei dati come passo positivo verso una società digitale in buona salute.

“Dobbiamo spostare il discorso dalla privacy come fattore di rischio alla privacy e all’etica dei dati come passo positivo verso una società digitale in buona salute.”

Per me, l’aspetto più edificante dell’etica dei dati è l’impatto che può avere sulla promozione della diversità e dell’inclusività. Gli interventi positivi possono eliminare le differenze, includere gli esclusi e celebrare le differenze, il che è esattamente lo scopo del digitale.

Pina: Questo rapporto ha cambiato il suo approccio alla privacy e all’etica dei dati in Unilever? È diventato un argomento affrontato e discusso a livello dirigenziale e di consiglio di amministrazione?

Barnard: Il Data Ethics Board di WFA si è mobilitato nella primavera del 2019 e il rapporto rispecchia il nostro pensiero collettivo. L’intenzione è sempre stata quella di aiutare i brand a trarre vantaggio da tutto ciò che abbiamo appreso.

In Unilever, la nostra attenzione iniziale verso l’etica dei dati si è concentrata sulle best practice etiche nel campo dell’intelligenza artificiale e del machine learning. Tuttavia, abbiamo esteso molto rapidamente l’ambito in modo da includere l’etica dei dati più in generale.

In termini di supporto da parte della direzione, abbiamo sfondato una porta aperta. Ora il nostro obiettivo è mettere in pratica i principi etici. Oltre ad agevolare la gestione del rischio, riteniamo che l’applicazione pratica dei principi etici aiuterà le persone a prendere rapidamente decisioni intelligenti e più affidabili. È questo che intendevo quando ho affermato che non si tratta solo di essere cauti o conformi, ma di compiere quel passo in più, di essere intraprendenti e progressisti, senza però sacrificare i propri valori.

È sorprendente vedere quanto l’etica dei dati stia catturando l’immaginazione e la determinazione di così tante persone. Mi fa certamente sperare in una società digitale in buona salute e un futuro positivo.

“Non si tratta solo di essere cauti o conformi, ma di compiere quel passo in più, di essere intraprendenti e progressisti, senza però sacrificare i propri valori.”

Pina: Se si volesse cogliere un solo aspetto del rapporto di WFA, quale dovrebbe essere?

Barnard: In effetti sono due gli aspetti importanti, ma sono strettamente correlati.

In primo luogo dovremmo pensare all’etica nello stesso modo in cui pensiamo allo spirito sportivo. Un ottimo sportivo è scrupoloso: farà la cosa giusta anche se richiede sacrificio. Il suo impegno per il rispetto di valori quali onestà, integrità e fair play implica che faticherà il doppio rispetto a chi prende scorciatoie, ma apprezzerà il successo in tutte le sue sfumature.

“Dovremmo pensare all’etica nello stesso modo in cui pensiamo allo spirito sportivo.”

In secondo luogo, continuando con la stessa metafora, creare fiducia è uno sport di gruppo. Siamo tutti responsabili di raccogliere e utilizzare i dati in modo sicuro, etico e trasparente. Incorporare l’etica dei dati nel settore richiede impegno, collaborazione e leadership responsabile in modo uguale da parte di inserzionisti, piattaforme tecnologiche, publisher, sviluppatori e fornitori di tecnologie. Se collaboriamo, vinciamo insieme.

Jamie Barnard (General Counsel, Global Marketing and Media Unilever)
Pedro Pina (Vice-President of Global Client & Agency Solutions Google)

fonte: Think with Google