Home Motori TV CODICE ETICO PER L’IA: BOSCH FISSA LE LINEE GUIDA AZIENDALI PER L’USO...

CODICE ETICO PER L’IA: BOSCH FISSA LE LINEE GUIDA AZIENDALI PER L’USO DELL’INTELLIGENZA ARTIFICIALE

Bosch ha stabilito dei limiti etici per l’uso dell’intelligenza artificiale (IA). L’azienda ha emanato linee guida vincolanti che regolano l’utilizzo dell’IA nei suoi prodotti intelligenti. Il codice etico per l’IA di Bosch si basa sul principio secondo cui l’uomo deve avere l’ultima parola su qualsiasi decisione basata sull’IA. “L’intelligenza artificiale deve essere al servizio delle persone. Il nostro codice  etico per l’IA fornisce ai nostri collaboratori una chiara guida per lo sviluppo di prodotti intelligenti” ha dichiarato il CEO di Bosch, Volkmar Denner, durante il discorso di apertura al Bosch  ConnectedWorld (BCW), l’evento annuale di Bosch dedicato all’IoT che si svolge a Berlino. “Il nostro obiettivo è fare in modo che le persone si fidino dei nostri prodotti basati sull’IA”.

L’IA è una tecnologia di vitale importanza per Bosch. L’obiettivo è dotare tutti i prodotti Bosch di intelligenza artificiale, oppure, fare in modo che siano sviluppati o realizzati con l’aiuto dell’IA entro il 2025. Inoltre, l’azienda vuole rendere i propri prodotti IA sicuri, affidabili e comprensibili. “Se l’IA è una scatola nera, la gente non può fidarsi di essa. Nel mondo connesso, tuttavia, la fiducia sarà un fattore essenziale” ha dichiarato Michael Bolle, CDO e CTO di Bosch. Bosch punta a produrre prodotti basati sull’IA che siano affidabili. Il codice etico si fonda sulla filosofia di Bosch “Tecnologia per la vita”, che combina la ricerca dell’innovazione con un senso di responsabilità sociale. Nei prossimi due anni Bosch prevede di formare 20.000 collaboratori all’uso dell’IA. Il codice etico per l’IA di Bosch, che disciplina l’uso responsabile di questa tecnologia, sarà parte del programma di formazione.

L’IA offre un grande potenziale
L’intelligenza artificiale è un motore globale di crescita e progresso. I consulenti di gestione PwC, per esempio, calcolano che, entro il 2030, l’IA farà aumentare il PIL del 26% in Cina, del 14% in Nord America e di circa il 10% in Europa. Questa tecnologia può contribuire a superare le sfide, come la necessità di intraprendere azioni a favore del clima e ottimizzare i risultati in molte aree: trasporti, medicina, agricoltura. Analizzando grandi volumi di dati, gli algoritmi sono in grado di ragionare e prendere decisioni. Molto prima dell’introduzione delle normative UE, Bosch ha preso la decisione di affrontare attivamente le questioni etiche sollevate dall’utilizzo dell’IA. Il fondamento morale di questo processo è dato dai valori sanciti nella Dichiarazione Universale dei Diritti Umani.

Gli umani devono avere il controllo
Il codice etico di Bosch per l’IA prevede che l’intelligenza artificiale non prenda decisioni relative alle persone senza che l’uomo ne abbia il controllo. L’intelligenza artificiale deve, anzi, essere uno strumento al servizio dell’uomo. Sono descritti tre modelli possibili. Tutti hanno in comune quanto segue: nei prodotti basati sull’IA sviluppati da Bosch, gli umani devono avere il controllo su qualsiasi decisione presa dalla tecnologia. Nel primo modello (l’uomo ha il controllo), l’intelligenza artificiale è puramente un ausilio, per esempio come nei sistemi di supporto alle decisioni in cui l’IA può aiutare le persone a classificare gli oggetti o gli organismi. Nel secondo modello (l’uomo può intervenire) un sistema intelligente prende in modo autonomo decisioni che l’uomo può, tuttavia, annullare in qualsiasi momento. Ne sono un esempio la guida parzialmente autonoma in cui il guidatore umano può intervenire direttamente nella decisione, per esempio, di un sistema di parcheggio assistito. Il terzo modello (l’uomo non può intervenire) riguarda la tecnologia intelligente, come i sistemi di frenata di emergenza. Durante la fase di sviluppo di queste tecnologie, gli esperti stabiliscono determinati parametri su cui si basano le decisioni dell’IA. L’uomo non può dunque intervenire nel processo di decisione stesso. A posteriori, gli ingegneri verificano se il sistema ha agito entro i parametri definiti che, se necessario, possono essere modificati. Costruire insieme la fiducia Bosch è fiduciosa anche che il suo codice etico per l’IA possa contribuire al dibattito pubblico sull’intelligenza artificiale. “L’IA trasformerà ogni aspetto della nostra vita, ecco perché questo dibattito è di fondamentale importanza” ha spiegato Denner. Ci vorrà più del solo know-how tecnico per instaurare la fiducia nei sistemi intelligenti, è necessario anche un dialogo serrato che coinvolga la politica, la comunità scientifica e i cittadini. Per questo motivo, Bosch partecipa all’High-Level Expert Group on Artificial Intelligence, un ente creato dalla Commissione Europea per approfondire aspetti quali le proporzioni etiche dell’IA.

In una rete globale che al momento comprende sette sedi e in collaborazione con l’Università di Amsterdam e la Carnegie Mellon University (Pittsburgh, USA), Bosch sta lavorando allo sviluppo di applicazioni di intelligenza artificiale più sicure e affidabili. Analogamente, in quanto membro fondatore dell’alleanza per la ricerca della Cyber Valley nel Baden-Württemberg, Bosch investirà 100 milioni di euro nella costruzione di una campus per l’IA, in cui 700 dei suoi esperti presto lavoreranno fianco a fianco con ricercatori esterni e collaboratori delle startup.
Infine, ma ugualmente importante, il Digital Trust Forum, un comitato fondato da Bosch, si propone di promuovere un fitto scambio di idee tra gli esperti delle principali associazioni e organizzazioni internazionali. I suoi undici membri si incontreranno al Bosch ConnectedWorld 2020. “Il nostro obiettivo comune è rendere sicura e affidabile l’Internet delle cose” ha dichiarato Bolle.

In breve: le linee guida del codice etico di Bosch per l’IA

  • Tutti i prodotti IA di Bosch devono rispecchiare il motto “Tecnologia per la vita” che combina la ricerca dell’innovazione con un senso di responsabilità sociale.
  • Le decisioni prese dall’IA che si ripercuotono sulle persone non devono essere prese senza l’arbitrio dell’uomo. L’IA deve essere uno strumento al servizio delle persone.
  • Vogliamo sviluppare prodotti IA sicuri, affidabili e comprensibili.
  • La fiducia è uno dei valori fondamentali della nostra azienda. Vogliamo sviluppare prodotti con IA affidabili.
  • Quando sviluppiamo i prodotti con IA, ci atteniamo ai requisiti legali e siamo orientati ai principi etici.
CONDIVIDI