Non sei riuscito a partecipare a Transform 2022? Dai un’occhiata a tutte le sessioni del vertice nella nostra libreria on-demand ora! Guarda qui.


Sei un repository di dati ambulante. Mentre sei fuori dalla tua residenza o dal tuo veicolo, cammini per strada, fai shopping in un negozio o visiti qualsiasi tipo di evento pubblico o riunione, potresti potenzialmente perdere la tua privacy personale e attraversare il confine dall’essere un privato a un personaggio pubblico virtuale. Puoi essere filmato o fotografato, la tua immagine può essere trasportata in un silo di archiviazione in qualsiasi parte del mondo, la tua voce può essere registrata e il tuo tempo in pubblico può essere annotato. Questo è il mondo in cui viviamo 2022.

Quando vai online per effettuare un acquisto, si apre una porta completamente nuova per gli altri delle tue informazioni di identificazione personale (PII). Invariabilmente offrirai volontariamente a estranei il tuo nome, indirizzo, numero di telefono, indirizzo e-mail e possibilmente informazioni più estese su di te. Apparentemente, questi dati rimangono privati ​​tra te e il venditore. “Apparentemente” è la parola chiave qui, tuttavia; uno mai veramente sa quante delle tue PII rimangono legittimamente private.

Tutto ciò che è citato sopra può diventare dati e andare nel tuo record da qualche parte nel mondo, che ti piaccia o no. Valutazione severa sopra le righe? Forse, ma sta a te saperlo e agire di conseguenza.

Quali informazioni si qualificano come informazioni di identificazione personale?

Secondo il Dipartimento del Lavoro degli Stati Uniti, (DoL) le società possono mantenere PII sui propri dipendenti, clienti, clienti, studenti, pazienti o altri individui, a seconda del settore. Per PII si intendono le informazioni che identificano direttamente un individuo (ad es. nome, indirizzo, numero di previdenza sociale o altro numero o codice identificativo, numero di telefono, indirizzo e-mail, ecc.). Può anche significare informazioni con cui un’agenzia intende identificare individui specifici con altri elementi di dati, come una combinazione di sesso, razza, data di nascita, indicatore geografico e altri descrittori.

eventi

MetaBeat 2022

MetaBeat riunirà leader di pensiero per fornire indicazioni su come la tecnologia metaverse trasformerà il modo in cui tutti i settori comunicano e fanno affari il 4 ottobre a San Francisco, in California.

Registrati qui

Se vuoi che queste PII siano nelle mani (o nei database) di numerosi estranei è in gran parte, ma non totalmente, una tua decisione. Il DoL afferma specificamente: “È responsabilità del singolo utente proteggere i dati a cui ha accesso”.

Le persone sono state a lungo a disagio con il modo in cui le aziende possono tracciare i propri movimenti online, spesso raccogliendo numeri di carte di credito, indirizzi e altre informazioni critiche. Hanno trovato inquietante essere seguiti sul Web da annunci che erano stati chiaramente attivati ​​dalle loro ricerche online, il che li ha portati a preoccuparsi costantemente di furti di identità e frodi. Questo è il risultato diretto del mettere le PII nelle mani di aziende che vogliono trarre profitto dai tuoi movimenti sul web.

Tali preoccupazioni hanno portato all’approvazione di normative negli Stati Uniti e in Europa che garantiscono agli utenti di Internet un certo livello di controllo sui propri dati personali e sulle proprie immagini — soprattutto, il Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea del 2018. Naturalmente, tali misure non hanno posto fine al dibattito sull’utilizzo dei dati personali da parte delle aziende; sono solo un punto di partenza per leggi più profonde e specifiche.

il Legge sulla privacy dei consumatori della California è un ottimo esempio, una legge sulla privacy dei dati (promulgata nel 2020) che fornisce diritti alla privacy ai residenti della California, offrendo loro opzioni su come utilizzare le loro PII. C’è anche l’Automated Decisions Systems Accountability Act (ancora in fase di elaborazione legislativa), che mira a porre fine ai pregiudizi algoritmici contro i gruppi protetti dalle leggi federali e statali contro la discriminazione.

Privacy, normative sull’IA che si muovono in parallelo

Le leggi sulla privacy dei dati e la regolamentazione dei dati raccolti per l’uso dell’intelligenza artificiale stanno progredendo in percorsi paralleli attraverso le agenzie governative perché sono così intrecciate.

Ogni volta che un essere umano è coinvolto in un progetto di analisi, è possibile introdurre pregiudizi. In effetti, i sistemi di intelligenza artificiale che producono risultati distorti hanno fatto notizia. Un esempio molto pubblicizzato è quello di Apple algoritmo della carta di credito, accusato di discriminazione nei confronti delle donne e oggetto di un’indagine da parte del Dipartimento dei servizi finanziari di New York. Un altro è il COMPAS (Profilazione di gestione del reato correttivo per sanzioni alternative) algoritmo utilizzato nei sistemi giudiziari statunitensi per prevedere la probabilità che un imputato diventi recidivo. Questo in particolare è stato sbagliato numerose volte.

Come risultato di tutta questa raccolta di PII, del rapido aumento dell’uso dell’analisi e dell’apprendimento automatico nelle applicazioni online e della costante minaccia di pregiudizi negli algoritmi di intelligenza artificiale, le forze dell’ordine stanno dando la caccia a un numero crescente di reclami da parte dei cittadini per frode online .

Anche i governi stanno cercando di mettere le armi attorno alla legislazione appropriata negli sforzi a livello statale per frenare questa attività criminale.

Lo stato delle normative sull’IA

Esistono normative per l’intelligenza artificiale? non ancora ma stanno arrivando. Gli Stati possono muoversi più rapidamente su questo rispetto al governo federale, il che non è una sorpresa. Per due anni, il legislatore californiano ha discusso e modificato il Legge sulla responsabilità dei sistemi decisionali automatizzati, che prevede che le agenzie statali utilizzino un metodo di acquisizione che riduce al minimo il rischio di impatti negativi e discriminatori derivanti dalla progettazione e dall’applicazione di sistemi decisionali automatizzati. C’è la possibilità che diventi legge entro la fine dell’anno o all’inizio del prossimo anno.

Queste sono solo la prima ondata di una falange di nuove leggi e regolamenti che avranno un impatto sulle aziende online e sui loro clienti nei prossimi anni. Ci sono molte prove che sono necessarie normative più severe per contenere le società con tasche profonde come Google e Amazon, che stanno diventando monopoli virtuali a causa dell’uso continuo delle PII dei loro utenti.

Non c’è dubbio che l’oceano di PII sia il carburante che l’analisi utilizza per produrre dati che possono portare a valore aziendale. L’analisi è la base per l’intelligenza artificiale che può suggerire una correzione strategica per un’azienda, avvertire di un problema imminente nella catena di approvvigionamento o fare una previsione su dove si dirigerà un mercato nel corso di mesi o anni. Tutto ciò è importante per un’impresa e i suoi investitori, per non parlare di tutti i dipendenti, partner, appaltatori e clienti che fanno affidamento sull’attività stessa.

Bobby Napiltonia è il presidente di Okera.

DataDecisionMakers

Benvenuto nella comunità VentureBeat!

DataDecisionMakers è il luogo in cui gli esperti, compresi i tecnici che lavorano sui dati, possono condividere approfondimenti e innovazioni relative ai dati.

Se vuoi leggere idee all’avanguardia e informazioni aggiornate, best practice e il futuro dei dati e della tecnologia dei dati, unisciti a noi su DataDecisionMakers.

Potresti anche considerare di contribuire con un tuo articolo!

Leggi di più da DataDecisionMakers

Leave a Comment