Unisciti ai dirigenti dal 26 al 28 luglio per la AI & Edge Week di Transform. Ascolta i migliori leader discutere di argomenti relativi alla tecnologia AL/ML, AI conversazionale, IVA, NLP, Edge e altro ancora. Prenota ora il tuo pass gratuito!
L’intelligenza artificiale responsabile (AI) deve essere incorporata nel DNA di un’azienda.
“Perché il pregiudizio nell’IA è qualcosa a cui tutti dobbiamo pensare oggi? È perché l’IA sta alimentando tutto ciò che facciamo oggi”, Miriam VogelPresidente e Amministratore Delegato di EqualAIha detto a un pubblico in live streaming durante l’evento Transform 2022 di questa settimana.
Vogel ha discusso in modo approfondito i temi del pregiudizio dell’IA e dell’IA responsabile in una chat davanti al fuoco guidata da Victoria Espinel del gruppo commerciale L’alleanza del software.
Vogel ha una vasta esperienza in tecnologia e politica, inclusa la Casa Bianca, il Dipartimento di Giustizia degli Stati Uniti (DOJ) e l’organizzazione no profit EqualAI, che è dedicato alla riduzione dei pregiudizi inconsci nello sviluppo e nell’uso dell’IA. È anche presidente del National AI Advisory Committee (NAIAC), lanciato di recente, incaricato dal Congresso di consigliare il Presidente e la Casa Bianca sulla politica dell’IA.
Come ha notato, l’IA sta diventando sempre più importante per le nostre vite quotidiane e le migliora notevolmente, ma allo stesso tempo dobbiamo comprendere i numerosi rischi intrinseci dell’IA. Tutti, costruttori, creatori e utenti allo stesso modo, devono fare dell’IA il “nostro partner”, oltre che efficiente, efficace e affidabile.
“Non puoi creare fiducia con la tua app se non sei sicuro che sia sicura per te, che sia costruita per te”, ha affermato Vogel.
Ora è il momento
Dobbiamo affrontare ora la questione dell’IA responsabile, ha affermato Vogel, poiché stiamo ancora stabilendo “le regole della strada”. Ciò che costituisce l’IA rimane una sorta di “zona grigia”.
E se non è affrontato? Le conseguenze potrebbero essere disastrose. Alle persone potrebbe non essere data la giusta assistenza sanitaria o opportunità di lavoro a causa del pregiudizio dell’IA e “verranno contenziosi, arriveranno le normative”, ha avvertito Vogel.
Quando ciò accade, “Non possiamo decomprimere i sistemi di intelligenza artificiale su cui siamo diventati così dipendenti e che si sono intrecciati”, ha detto. “In questo momento, oggi, è il momento per noi di essere molto consapevoli di ciò che stiamo costruendo e implementando, assicurandoci di valutare i rischi, assicurandoci di ridurre tali rischi”.
Buona ‘Igiene AI’
Le aziende devono affrontare ora l’IA responsabile stabilendo solide pratiche e politiche di governance e stabilendo una cultura sicura, collaborativa e visibile. Questo deve essere “messo attraverso le leve” e gestito consapevolmente e intenzionalmente, ha affermato Vogel.
Ad esempio, nelle assunzioni, le aziende possono iniziare semplicemente chiedendo se le piattaforme sono state testate per la discriminazione.
“Proprio quella domanda di base è così estremamente potente”, ha detto Vogel.
Il team delle risorse umane di un’organizzazione deve essere supportato da un’intelligenza artificiale inclusiva e che non esclude i migliori candidati dall’impiego o dall’avanzamento.
È una questione di “buona igiene dell’IA”, ha affermato Vogel, e inizia con la C-suite.
“Perché la suite C? Perché alla fine della giornata, se non hai un buy-in ai massimi livelli, non puoi mettere in atto il framework di governance, non puoi ottenere investimenti nel framework di governance e non puoi ottenere buy-in per assicurarti di farlo nel modo giusto”, ha affermato Vogel.
Inoltre, il rilevamento delle distorsioni è un processo in corso: una volta stabilito un quadro, deve essere in atto un processo a lungo termine per valutare continuamente se le distorsioni stanno ostacolando i sistemi.
“Il pregiudizio può essere incorporato in ogni punto di contatto umano”, dalla raccolta dei dati, ai test, alla progettazione, allo sviluppo e all’implementazione, ha affermato Vogel.
Intelligenza artificiale responsabile: un problema a livello umano
Vogel ha sottolineato che la conversazione sul pregiudizio dell’IA e sulla responsabilità dell’IA era inizialmente limitata ai programmatori, ma Vogel ritiene che sia “ingiusto”.
“Non possiamo aspettarci che risolvano da soli i problemi dell’umanità”, ha detto.
È la natura umana: le persone spesso immaginano solo nella misura in cui la loro esperienza o creatività lo consente. Quindi, più voci possono essere portate, meglio è per determinare le migliori pratiche e garantire che l’annosa questione del pregiudizio non si infiltri nell’IA.
Questo è già in corso, con i governi di tutto il mondo che creano quadri normativi, ha affermato Vogel. L’UE sta creando un regolamento simile al GDPR per Al, per esempio. Inoltre, negli Stati Uniti, la Commissione nazionale per le pari opportunità di lavoro e il DOJ hanno recentemente pubblicato un “senza precedenti” dichiarazione congiunta sulla riduzione della discriminazione quando si tratta di disabilità, qualcosa che l’IA e i suoi algoritmi potrebbero peggiorare se non osservati. Anche il National Institute of Standards and Technology è stato incaricato dal Congresso di creare a quadro di gestione del rischio per l’IA.
“Possiamo aspettarci molto dagli Stati Uniti in termini di regolamentazione dell’IA”, ha affermato Vogel.
Ciò include il comitato di recente formazione che ora presiede.
“Avremo un impatto”, ha detto.
Non perdere il conversazione completa dall’evento Trasformazione 2022.
La missione di VentureBeat deve essere una piazza cittadina digitale per i decisori tecnici per acquisire conoscenze sulla tecnologia aziendale trasformativa e le transazioni. Saperne di più sull’appartenenza.
Leave a Comment