Les Dossiers du Mois :

Rapport de Stage

Réussir son rappport de Stage :

➜ Voir le dossier

 

APB 2017

Réussir la procédure APB 2017 :

➜ Voir le dossier

 

Étudier à l'étranger

Comment partir étudier à l'étranger ?

➜ Voir le dossier

 

Comment survivre en prépa ?

Toutes les clés pour réussir sa CPGE !

➜ Voir le dossier

 

 

Réussir et obtenir son code de la route sur Codedelaroute.fr

 

 

Révisez sur digiSchool :

Bac Brevet BTS

 

étudier à l'étranger

 

Journées portes ouvertes dans toutes les écoles

Intelligences Artificielles: quelles valeurs en...

Intelligences Artificielles: quelles valeurs enseigneriez-vous à un robot?

Être moral, éthique et prendre en compte les valeurs humaines n’est pas une chose facile, en particulier lorsqu’il s’agit d’Intelligence Artificielle. Comment s’y prendre?

16 Aout 2016 à 14h15 | | 0 avis

Intelligences Artificielles: quelles valeurs enseigneriez-vous à un robot?

Quelles valeurs humaines transmettre aux I.A.?

La difficulté de cet enseignement à apporter aux robots réside dans un fait simple: les valeurs humaines ne sont pas universelles. En effet, si les intelligences artificielles sont parfaitement capables d’intégrer des normes de ce type, le problème est de savoir quelles valeurs inculquer.  Les données reçues par ces machines informatiques dépendant de la personne qui les programme, c’est-à-dire d’une culture propre à une région du monde et à un individu. Or, l’être humain est faillible et l’on connait la complexité de la diplomatie entre des populations dont les modes de vie divergent. Les psychologues Joseph Henrich, Steven Heine et Ara Norenzayan ont ainsi démontré dans une étude que la psychologie et les comportements humains dans les sociétés occidentales riches, industrialisées et démocratiques ne peuvent pas s’appliquer ailleurs. Les étudiants l’auront sans doute compris, il s’agit là d’une question d’avenir sur laquelle les jeunes chercheurs, programmeurs, spécialistes du numérique et experts en sociologie devront se pencher pendant encore quelques années avant d’aboutir à des réponses et des solutions.

➜ À voir aussi : A quoi reconnait-on vraiment l'Intelligence Artificielle?

 

Pourquoi transmettre des valeurs humaines aux I.A.?

L’écrivain de science-fiction Isaac Asimov formulait pour la première fois en 1942 les trois règles de la robotique:

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi
  3. un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi

Malheureusement, il existe certaines situations pour lesquelles cette équation est insoluble. C’est notamment le cas dans une situation où une voiture autonome est mise en face d’un dilemme cornélien: doit-elle sacrifier ses passagers ou les piétons qui traversent devant elle? Moral Machine est un jeu en ligne qui laisse au joueur la possibilité de choisir qui mettre en danger en fonction de nombreuses variables. Ce jeu a notamment permis de découvrir que les joueurs choisissaient généralement de sauver les personnages féminins plutôt que masculins. Autre fait surprenant, l’âge des personnages compte moins que le fait qu’ils aient traversé au feu rouge ou vert. Un véritable casse-tête pour les chercheurs en quête de critères et de raisonnements logiques. L'avenir est entre les mains des jeunes diplômés.

➜ Voir le dossier : Se former aux métiers du numérique: un pari gagnant?

Donne ton avis !
Ta note :
Rédige ton avis