Actualité

Google : Les 7 règles éthiques concernant l’usage de l’intelligence artificielle ( IA )

Le géant du Web veut cantonner ses technologies à des usages positifs pour la société. Il tire aussi un trait sur le projet controversé Maven, portant sur des drones intelligents de l’armée américaine. Mais il continuera de collaborer avec les militaires dans d’autres domaines. Parmi les grands préceptes gravés dans le marbre, la firme de Mountain View garantit de ne pas utiliser l’intelligence artificielle pour fabriquer des armes. Cette décision intervient après une révolte des employés de Google liée au développement d’une IA pour le Pentagone.

Consultez aussi l’Intelligence Artificielle Hololens 2 de Microsoft à travers ce lien.

4000 salariés ont signé une pétition

Sachant que les drones de surveillance sont la pierre angulaire du programme d’assassinats ciblés du gouvernement américain, on comprend mieux pourquoi cette collaboration a provoqué cette rébellion chez Google. Plus de 4000 employés avaient signé une pétition en mars, après avoir eu connaissance d’un contrat signé par leur compagne avec le ministère de la défense américain. Le projet Maven avait pour objectif de développer une intelligence artificielle d’analyse d’images de drones militaires dont le contrat ne sera honoré en revanche qu’à partir de 2019.

IA

Les 7 principes de Google concernant les IA

Sundar Pichaï, le PDG de Google, a publié une charte éthique concernant l’usage de l’intelligence artificielle : 7 principes généraux que le géant de Mountain View s’est fixés comme ligne de conduite. « La manière dont l’ IA est développée et utilisée va avoir un impact significatif sur la société pour années à venir. Nous ressentons une profonde responsabilité de bien faire les choses », a déclaré le dirigeant sur Twitter.

1) Avoir des usages positifs pour la société

La charte stipule : « Lorsque nous examinerons les possibilités de développement et d’utilisation des technologies de l’ IA, nous tiendrons compte d’un large éventail de facteurs sociaux et économiques, et procéderons lorsque nous estimons que les avantages globaux probables dépassent largement les risques et les inconvénients prévisibles ». En particulier, la société souhaite que ses algorithmes ne renforcent pas des inégalités sociales et ne soient pas utilisés pour des armes. Pour autant, Google continuera de collaborer avec l’armée américaine, et notamment dans les domaines de « la cybersécurité, la formation, le recrutement, la santé des vétérans ou les secours ».

IA

2) Éviter de créer ou de renforcer des biais injustes

L’ IA reproduit bien souvent des biais qu’elle observe dans les algorithmes d’apprentissage qu’on lui indique. Des partis pris racistes ou sexistes ont déjà été observés. En 2015, une IA de reconnaissance d’images de Google Photos a, par exemple, indiqué reconnaître deux gorilles sur une photo de deux personnes noires. La firme avait alors présenté ses excuses. Dans sa charte, il affirme : “Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux qui sont liés à des caractéristiques sensibles telles que la race, l’origine ethnique, le sexe, la nationalité, le revenu, l’orientation sexuelle, les compétences et les convictions politiques ou religieuses”.

3) Être conçue et testée pour la sécurité

Google veut « éviter des résultats imprévus qui pourraient créer des risques ». « Dans les cas appropriés, nous testerons les technologies IA dans des environnements contraints et surveillerons leur fonctionnement après déploiement », annonce l’entreprise. Sundar Pichai affirme aussi : “Nous concevrons nos systèmes d’ IA de manière prudente et nous chercherons à les développer conformément aux meilleures pratiques en matière de recherche sur la sécurité de l’ IA”.

IA

4) Faire face à ses obligations envers les gens

Google travaille à la transparence de ses algorithmes et note « nos technologies d’IA feront l’objet d’une direction et d’un contrôle humains appropriés ».

Cliquez ici pour découvrir le rachat de Ozlo, le spécialiste de l’Intelligence Artificielle, par le géant des réseaux sociaux Facebook.

5) Préserver la vie privée

En plus du scandale de Facebook – Cambridge Analytica et la mise en application récente du RGPD, le respect de la vie privée et la protection des données personnelles sont devenus une variable essentielle pour les entreprises du numérique. Sundar Pichaï ajoute dans sa charte : “Nous donnerons la possibilité d’avis et de consentement, encouragerons les architectures avec des mesures de protection de la vie privée et fournirons une transparence et un contrôle appropriés sur l’utilisation des données”.

IA

6) Garder de hauts standards d’excellence scientifique

La firme de Mountain View indique vouloir conserver son niveau d’excellence dans l’intelligence artificielle pour « débloquer de nouveaux domaines de recherche scientifique et de connaissance dans des domaines critiques comme la biologie, la chimie, la médecine et les sciences de l’environnement ». L’entreprise va également partager ses connaissances « qui permettront à plus de personnes de développer des IA utiles ».

7) Être mise à disposition pour des utilisations en accord à ces principes

Sundar Pichaï termine en notant « Nous allons travailler à la limitation des applications potentiellement nuisibles ou abusives ». Le géant du web insiste sur la mise en place de contrôles internes pour respecter ces principes autour. En phase de développement, quatre grands critères seront passés à la loupe : l’objectif principal et l’usage de l’IA, sa nature et son unicité, son échelle (l’ampleur de la technologie) et le degré d’implication de Google (sous-traitance ou développement propre à l’entreprise).

IA

Les partenariats pour l’ IA

Ces dernières années, la firme a acquis une position de leader en termes d’intelligence artificielle. Elle a racheté DeepMind, une entreprise britannique spécialisée, en 2014. Cette dernière s’est illustrée en élaborant notamment un programme capable de battre les champions mondiaux du jeu de go. En 2016, face au développement de ces technologies, des géants du secteur (Facebook, Microsoft, IBM, Amazon et Google entre autres) ont signé un « partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société ». Google a, par ailleurs, annoncé en 2017 la création d’un comité d’éthique pour éviter des dérives.

Google s’engage à ne pas se servir de l’intelligence artificielle pour l’armement

Le géant de l’informatique Google se refuse désormais à développer des intelligences artificielles susceptibles de causer un dommage global, d’aider à tuer ou à blesser, de faciliter la surveillance « en violation des normes internationales » ou qui contreviennent aux droits de l’homme.

« Nous voulons être clairs sur le fait que nous ne développons pas l’ IA pour les armes, mais nous continuerons notre travail avec les gouvernements et les militaires dans de nombreux autres domaines », rappelle le géant américain qui va honorer le contrat signé avec le Pentagone jusqu’en 2019.

IA

« Là où il y a risque de dommage, nous le ferons si seulement nous pensons que le bénéfice est substantiellement supérieur au risque, et nous incorporerons des contraintes de sécurité adéquates. Nous ne développerons pas d’armes ou de technologies dont l’objectif est de causer directement ou de faciliter des blessures aux gens. Nous n’utiliserons pas de technologie de collecte d’informations qui sont contraires aux lois internationales. Nous ne travaillerons pas sur des technologies qui sont contraires aux droits humains et aux principes des lois internationales ».

D’ailleurs, il serait même candidat pour devenir l’hébergeur Cloud du ministère de la Défense américain, un contrat à 10 milliards de dollars.

Quelques remarques

« Sur la plupart des points, ce sont des principes bien pensés, et avec quelques mises en garde, nous recommandons que d’autres grandes entreprises définissent des lignes directrices et des objectifs similaires », confie Peter Eckerlsley, responsable informatique de l’Electronic Frontier Foundation, interrogé par le site Gizmodo. « En fin de compte, la façon dont l’entreprise applique ces principes a plus d’importance que la déclaration elle-même », nuance Peter Asaro, professeur à la New School qui a participé à la rédaction d’une lettre ouverte contre le projet Maven, « En l’absence d’actions positives, tel que le soutien public à une interdiction internationale des armes autonomes, Google devra offrir plus de transparence quant aux systèmes qu’il conçoit. Sinon, nous continuerons à compter sur les employés consciencieux prêts à risquer leur poste chez Google pour s’assurer que l’entreprise “ne soit pas malveillante” [référence à l’ancien slogan interne de l’entreprise, ndlr] ».

Google : Les 7 règles éthiques concernant l’usage de l’intelligence artificielle ( IA )
Note
Voir plus

Du même auteur

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *