Google annonce un panel d'éthique d'Amnesty International | Voyages pas cher

Google a annoncé la création d'un comité d'éthique de l'IA, qui traitera de la manière dont l'entreprise devrait utiliser et développer de manière responsable les projets d'IA.

Constitué d'un groupe diversifié provenant des milieux universitaires, des entreprises et du gouvernement, le conseil se réunira régulièrement en 2019 pour discuter des problèmes que pose l'IA.

Le panel est une extension des principes de l’intelligence artificielle de Google. Il s’agit d’un ensemble d’objectifs que la société a mis en place l’année dernière, après avoir été critiqués pour son implication dans des contrats militaires.

Qu'est-ce que le panel et quels sont ses objectifs?

Le conseil consultatif externe sur les technologies de pointe (ATEAC) a été annoncé sur son blog par Kent Walker, vice-président principal de Google. Selon le post, le panel est une extension des objectifs de Google consistant à utiliser et à créer de manière responsable l’intelligence artificielle, une position énoncée dans ses principes sur l’intelligence artificielle en juin. Parmi les tâches que le panel a eu la tâche difficile de résoudre, citons la reconnaissance faciale et l'apprentissage automatique.

Le conseil siégera en 2019 et tiendra quatre réunions au cours de cette période, la première ayant lieu en avril. Dans son blog, Google indique qu'il encouragera les membres du conseil à partager leurs expériences et à publier un rapport résumant les discussions.

Quels sont les principes de Google en matière d’IA?

Révélés l’année dernière, les principes de l’intelligence artificielle de Google constitueraient une réaction directe à sa décision de ne pas renouveler son contrat avec le Pentagone pour la fourniture de drones pour l’intelligence artificielle.

Les travaux de Google dans ce domaine ont été controversés, ce qui a provoqué plusieurs démissions du personnel de Google. Cela semble être un problème croissant dans l’espace technologique, alors que d’autres sociétés telles que Microsoft ressentent la chaleur de leur travail avec les départements de la défense. Les principes de Google en matière d'intelligence artificielle définissent son mandat à l'avenir et, bien que l'on se moque bien de la société pour avoir retiré de son code de conduite sa politique «ne soyez pas démoniaque» (en le remplaçant par «faites ce qu'il faut»), on peut soutenir que les principes de l'IA aller beaucoup plus loin qu'un simple slogan.

Alors, quels sont les principes?

  1. Être socialement bénéfique – Il ne suffit pas qu’un projet d’IA soit rentable, il doit également avoir un impact positif sur la société
  2. Éviter de créer ou de renforcer des préjugés injustes – Comme d'autres sociétés de technologie l'ont constaté, AI s'appuie fortement sur ses ensembles de données, qui peuvent être faussés par une implication humaine. Amazon a découvert cela lors de son embauche. Amnesty International prenait des décisions sexistes et favorisait les hommes, uniquement en raison des tendances comportementales qu'elle avait nourries.
  3. Être construit et testé pour la sécurité – L'augmentation de l'intelligence artificielle aura un impact important sur notre sécurité, en particulier dans des domaines tels que le transport automatisé, où les décisions de vie ou de mort sont confiées à une machine.
  4. Être responsable envers les gens – Google indique que ses projets d'intelligence artificielle seront ouverts aux commentaires et soumis à une direction et à un contrôle humains.
  5. Incorporer les principes de conception de la confidentialité – L'intelligence artificielle de Google sera dotée d'une protection intégrée des données. Toute information recueillie sera transparente et permettra à l'utilisateur de contrôler ce qui est collecté.
  6. Respecter des normes d'excellence scientifique élevées – Google souhaite partager ses connaissances en matière d'intelligence artificielle avec les principales parties prenantes, dans le but d'ouvrir de nouvelles voies à la technologie grâce à la collaboration.
  7. Être mis à disposition pour des utilisations conformes à ces principes – La société s’engage à limiter la capacité d’Amnesty International à être préjudiciable à la société ou aux personnes qui présentent des applications abusives.

En outre, Google a promis de ne pas appliquer son IA à certains domaines. Celles-ci incluent une surveillance «en contradiction avec les normes internationales», des technologies violant les droits de l'homme et des armes visant à nuire à la population (bien que la société continue de travailler avec l'armée dans les domaines du recrutement, de la cybersécurité et de la recherche et du sauvetage).

Qui est sur le panneau?

ATEAC est composé de huit parties prenantes clés avec des années d'expérience dans le domaine de l'IA, issues de sociétés, d'universitaires et de gouvernements. Google indique clairement que le panel représente ses propres perspectives et ne parle pas pour les institutions auxquelles il est associé.

Alessandro Acquiti – Professeur de technologie de l'information et de politique publique au Heinz College de l'Université Carnegie Mellon

Bubacarr Bah – Chercheur principal en mathématiques spécialisé en science des données à l'Institut africain des sciences mathématiques, Afrique du Sud, et professeur assistant au département des sciences mathématiques de l'Université de Stellenbosch.

De Kai – Professeur d’informatique et d’ingénierie à l’Université des sciences et de la technologie de Hong Kong et chercheur distingué à l’Institut international d’informatique de Berkeley.

Dyan Gibbens – PDG de Trumbull, une startup axée sur l'automatisation, la résilience des données et de l'environnement dans l'énergie et la défense.

Joanne Bryson – Professeur associé au département d'informatique de l'Université de Bath. A également consulté LEGO sur sa ligne de programmation Mindstorms destinée aux enfants.

Kay Coles James – Président de The Heritage Foundation, axé sur la libre entreprise, le gouvernement limité, la liberté individuelle et la défense nationale

Lucian Floridi – Professeur de philosophie et d’éthique de l’information à l’Université d’Oxford, membre du corps professoral d’Exeter College et de Turing Fellow et président du groupe d’éthique des données du Alan Turing Institute.

William Joseph Burns – Ancien secrétaire d’État adjoint américain. Président du Carnegie Endowment for International Peace, le plus ancien groupe de réflexion sur les affaires internationales aux États-Unis.

Avec le rythme de développement du secteur de l'intelligence artificielle, ces principes représentent certainement un code de conduite important. Bien entendu, il reste à savoir dans quelle mesure Google reste fidèle à ces nobles objectifs.