L’intelligence artificielle chez Google: nos principes

L’intelligence artificielle est une programmation informatique qui apprend et s’adapte. Il ne peut pas résoudre tous les problèmes, mais son potentiel d’améliorer nos vies est profond. Chez Google, nous utilisons l’IA pour rendre les produits plus utiles: des e-mails sans spam et plus faciles à composer , en passant par un assistant numérique auquel vous pouvez parler naturellement , des photos qui dévoilent des trucs amusants .

Au-delà de nos produits, nous utilisons l’IA pour aider les gens à résoudre des problèmes urgents. Deux lycéens construisent des capteurs à l’aide d’une intelligence artificielle afin de prédire le risque d’incendies de forêt . Les agriculteurs l’utilisent pour surveiller la santé de leurs troupeaux . Les médecins commencent à utiliser l’IA pour diagnostiquer le canceret prévenir la cécité . Ce sont ces avantages évidents qui expliquent pourquoi Google investit massivement dans la recherche et le développement sur l’IA et rend les technologies de l’IA largement accessibles aux autres via ses outils et son code source ouvert.

Nous reconnaissons qu’une technologie aussi puissante soulève des questions tout aussi puissantes quant à son utilisation. La manière dont l’IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que chef de file en matière d’intelligence artificielle, nous nous sentons profondément responsables de bien faire les choses. Nous annonçons donc aujourd’hui sept principes pour guider nos travaux. Ce ne sont pas des concepts théoriques; Ce sont des normes concrètes qui régiront activement nos travaux de recherche et de développement de produits et auront une incidence sur nos décisions commerciales.

Nous reconnaissons que ce domaine est dynamique et en évolution, et nous aborderons notre travail avec humilité, avec un engagement pour un engagement interne et externe et avec la volonté d’adapter notre approche à mesure que nous apprenons au fil du temps.

Objectifs pour les applications d’intelligence artificielle

Nous évaluerons les applications d’intelligence artificielle au regard des objectifs suivants. Nous croyons que l’IA devrait:

  1. Soyez socialement bénéfique. 

La portée élargie des nouvelles technologies touche de plus en plus la société dans son ensemble. Les progrès de l’IA auront des effets transformateurs dans un grand nombre de domaines, notamment les soins de santé, la sécurité, l’énergie, les transports, la fabrication et le divertissement. Lors de l’examen des possibilités de développement et d’utilisation des technologies de l’IA, nous tiendrons compte d’un large éventail de facteurs sociaux et économiques et procéderons là où nous pensons que les avantages globaux probables dépassent considérablement les risques et les inconvénients prévisibles.

L’intelligence artificielle améliore également notre capacité à comprendre la signification d’un contenu à grande échelle. Nous nous efforcerons de mettre facilement à disposition des informations précises et de haute qualité grâce à l’IA, tout en respectant les normes culturelles, sociales et juridiques en vigueur dans les pays où nous opérons. Et nous continuerons à évaluer de manière réfléchie quand rendre nos technologies disponibles sur une base non commerciale.

  1. Évitez de créer ou de renforcer des préjugés injustes.

Les algorithmes d’intelligence artificielle et les jeux de données peuvent refléter, renforcer ou réduire les biais injustes. Nous reconnaissons que distinguer les préjugés équitables des injustices injustes n’est pas toujours simple, et diffère d’une culture et d’une société à l’autre. Nous chercherons à éviter les conséquences injustes sur les personnes, en particulier celles liées à des caractéristiques sensibles telles que la race, l’appartenance ethnique, le sexe, la nationalité, le revenu, l’orientation sexuelle, les capacités et les convictions politiques ou religieuses.

  1. Être construit et testé pour la sécurité.

Nous continuerons d’élaborer et d’appliquer de solides pratiques en matière de sécurité afin d’éviter les résultats inattendus qui créent des risques de préjudice. Nous concevrons nos systèmes d’intelligence artificielle de manière à faire preuve de la prudence requise et chercherons à les développer conformément aux meilleures pratiques en matière de recherche sur la sécurité de l’IA. Dans les cas appropriés, nous testerons les technologies d’intelligence artificielle dans des environnements soumis à des contraintes et surveillerons leur fonctionnement après le déploiement.

  1. Être responsable envers les gens.

Nous concevrons des systèmes d’intelligence artificielle offrant des possibilités appropriées de rétroaction, d’explications pertinentes et d’appel. Nos technologies d’intelligence artificielle seront soumises à une direction et à un contrôle humains appropriés.

  1. Incorporer les principes de conception de la vie privée.

Nous allons incorporer nos principes de confidentialité dans le développement et l’utilisation de nos technologies d’intelligence artificielle. Nous donnerons une possibilité de notification et de consentement, encouragerons les architectures avec des garanties de confidentialité et fournirons une transparence et un contrôle appropriés sur l’utilisation des données.

  1. Maintenir des normes élevées d’excellence scientifique.

L’innovation technologique est enracinée dans la méthode scientifique et dans un engagement en faveur d’une enquête ouverte, de la rigueur intellectuelle, de l’intégrité et de la collaboration. Les outils d’intelligence artificielle peuvent potentiellement ouvrir de nouveaux domaines de recherche scientifique et de connaissances dans des domaines critiques tels que la biologie, la chimie, la médecine et les sciences de l’environnement. Nous aspirons à des normes d’excellence scientifique élevées alors que nous travaillons au progrès du développement de l’IA.

Nous travaillerons avec un éventail de parties prenantes pour promouvoir un leadership réfléchi dans ce domaine, en s’appuyant sur des approches scientifiquement rigoureuses et multidisciplinaires. Et nous partagerons de manière responsable les connaissances en intelligence artificielle en publiant du matériel pédagogique, des pratiques recommandées et des recherches permettant à davantage de personnes de développer des applications utiles en intelligence artificielle.

  1. Être mis à disposition pour des utilisations conformes à ces principes.  

De nombreuses technologies ont des utilisations multiples. Nous travaillerons pour limiter les applications potentiellement nuisibles ou abusives. Au fur et à mesure du développement et du déploiement des technologies d’IA, nous évaluerons les utilisations probables à la lumière des facteurs suivants:

Objectif principal et utilisation: objectif principal et vraisemblable utilisation d’une technologie et d’une application, y compris le degré de corrélation entre la solution et son adaptation à une utilisation préjudiciable

Nature et caractère unique: que nous rendions disponible une technologie unique ou plus largement disponible

  • Échelle :si l’utilisation de cette technologie aura un impact significatif
  • Nature de la participation de Google :qu’il s’agisse de fournir des outils généraux, d’intégrer des outils pour les clients ou de développer des solutions personnalisées

Applications d’IA que nous ne poursuivrons pas

Outre les objectifs ci-dessus, nous ne concevrons ni déploierons l’intelligence artificielle dans les domaines d’application suivants:

Technologies qui causent ou sont susceptibles de causer des dommages globaux. Lorsqu’il existe un risque important de préjudice, nous n’intervenons que lorsque nous estimons que les avantages l’emportent largement sur les risques et intégrons les contraintes de sécurité appropriées.

Armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes.

Technologies qui collectent ou utilisent des informations pour la surveillance en violation des normes internationalement reconnues.

Technologies dont le but est contraire aux principes largement acceptés du droit international et des droits de l’homme.

Nous voulons être certains que, même si nous ne développons pas d’intelligence artificielle à des fins militaires, nous poursuivrons notre travail avec les gouvernements et les forces armées dans de nombreux autres domaines. Celles-ci incluent la cybersécurité, la formation, le recrutement dans l’armée, les soins de santé dispensés aux anciens combattants, ainsi que la recherche et le sauvetage. Ces collaborations sont importantes et nous rechercherons activement d’autres moyens d’accroître le travail critique de ces organisations et d’assurer la sécurité des membres des services et des civils.

L’IA pour le long terme

Bien que ce soit la façon dont nous choisissons d’approcher l’IA, nous comprenons qu’il ya de la place pour de nombreuses voix dans cette conversation. À mesure que les technologies de l’IA progressent, nous travaillerons avec un éventail de parties prenantes pour promouvoir un leadership réfléchi dans ce domaine, en nous appuyant sur des approches scientifiquement rigoureuses et multidisciplinaires. Et nous continuerons à partager ce que nous avons appris pour améliorer les technologies et les pratiques de l’IA.

Nous croyons que ces principes sont la base de notre entreprise et du développement futur de l’IA. Cette approche est conforme aux valeurs énoncées dans notre lettre aux fondateurs de 2004, dans laquelle nous avions clairement indiqué notre intention d’adopter une perspective à long terme, même si cela impliquait de faire des compromis à court terme. Nous l’avons dit à l’époque et nous le croyons maintenant.

 

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

%d blogueurs aiment cette page :
search previous next tag category expand menu location phone mail time cart zoom edit close