Il Ceo di Google Sundar Pichai ha promesso che l’intelligenza artificiale(AI) della compagnia non sarà usata in applicazioni legate ad armi, a una sorveglianza che violi le regole accettate a livello internazionale, né a tecnologie il cui scopo va contro i diritti umani e le leggi internazionali. Questa presa di posizione etica arriva a una settimana di distanza dalla decisione di non rinnovare – dopo le proteste dei dipendenti – un contratto con il Pentagono, che prevede l’uso dell’AI per identificare oggetti nei video girati dai droni.
Nella dichiarazione Pichai descrive sette principi che guideranno il lavoro dell’azienda nel campo dell’AI, “standard concreti che governeranno la ricerca e lo sviluppo dei prodotti”.
Secondo il Ceo le applicazioni dell’intelligenza artificiale, dovranno essere socialmente utili, in settori come assistenza sanitaria, sicurezza, energia, trasporti ma anche nella diffusione di “informazione di qualità”. Inoltre i sistemi basati sull’AI dovranno evitare la creazione o il rafforzamento di pregiudizi, essere costruiti e testati per la sicurezza, e responsabili verso le persone, oltre a incorporare i principi della privacy e a sostenere standard elevati di eccellenza scientifica. Nell’ultimo punto si legge che tutte le tecnologie hanno molti usi, pertanto Google vigilerà affinché si evitino applicazioni dannose o abusive e si rispettino i principi etici elencati.
L’intelligenza artificiale di Google non sarà usata per le armi