Choix du module >>>

  • Afficher le flux RSS
  • Ajouter une actualité
1 2 »
SOMMAIRE de Demain l'Homme - Accès aux derniers articles quotidiens du module principal WikiSurTerre

PARCE QU'ILS CACHENT LE CODE SOURCE, LES SCIENTIFIQUES NE PEUVENT PAS RÉPLIQUER DES ÉTUDES D'IA

Posté le 18/02/2018 à 22h39

Visiter ce module par catégories : Nouvelles hautes technologies - Robots humanoïdes, Biologie synthétique - OGM - Transhumanisme, Intelligence et conscience Artificielle

Parce qu'ils cachent le code source, les scientifiques ne peuvent pas répliquer des études d'IA
Actualités, news, presse alternative indépendante, journal du jour, widgets exportables GRATUITS à insérer dans votre blog, site Web ou réseau social, informations sur l'Homme et son environnement

 

 

 

............

 

La plupart des chercheurs en IA ne signalent pas le code source des programmes d'IA qu'ils utilisent ou les données sur lesquelles ils sont formés. Cela signifie que d'autres scientifiques ne peuvent pas reproduire leurs résultats - et peuvent rendre plus difficile la mise en oeuvre de l'IA plus largement.

 

Le spectre de la réplication

 

Le domaine de l'intelligence artificielle (IA) pourrait bientôt faire face à un fantôme qui a hanté beaucoup de domaines scientifiques ces derniers temps : le spectre de la réplication. Pour qu'une étude soit considérée comme scientifiquement robuste, la méthode scientifique indique qu'il doit être possible pour d'autres chercheurs de reproduire ses résultats dans les mêmes conditions.

 

 

Cependant, étant donné que la plupart des chercheurs en IA ne publient pas le code source qu'ils utilisent pour créer leurs algorithmes, il est pratiquement impossible pour les chercheurs de le faire.

Le magazine Science rapporte que lors d'une réunion de l'Association pour l'Avancement de l'Intelligence Artificielle (AAAI), l'informaticien Odd Erik Gundersen a partagé un rapport qui n'a trouvé que 6% des 400 algorithmes présentés lors de deux conférences d'IA. Seulement un sur trois partageait les données qu'ils utilisaient pour tester leur programme, et seulement la moitié partageait un résumé décrivant l'algorithme avec des détails limités - pseudo-code AKA.

Gundersen dit qu'un changement va être nécessaire à mesure que le champ se développe. "Ce n'est pas honteux", a-t-il déclaré à Science, "il s'agit juste d'être honnête."

 

 

Secret nuisible

 

La réplication est essentielle pour prouver que l'information produite par une expérience peut être utilisée de manière cohérente dans le monde réel, et qu'elle n'a pas été obtenue de manière aléatoire. Une IA qui n'a été testée que par ses créateurs peut ne pas produire les mêmes résultats lorsqu'elle est exécutée sur un autre ordinateur ou si elle est alimentée avec des données différentes. Cela ne serait pas du tout utile si vous demandiez à l'IA de faire une tâche précise, que ce soit pour chercher quelque chose sur votre téléphone ou pour faire fonctionner un réacteur nucléaire. Vous voulez être assuré que le programme que vous exécutez fera ce que vous voulez qu'il fasse.

Le problème peut être particulièrement aigu lorsqu'il s'agit d'algorithmes d'apprentissage automatique, qui acquièrent des connaissances à partir de l'expérience. L'utilisation de données différentes pour former une machine à apprendre, l'IA peut complètement changer la façon dont elle réagit : «Il y a du hasard d'un passage à l'autre».

 

 

Il y a beaucoup de raisons de ne pas partager le code source ou les données : il pourrait être en construction, ou des informations exclusives appartenant à une entreprise. Cela pourrait se faire en arrière d'autres codes qui ne sont pas publiés. Les chercheurs pourraient être réticents à partager du code parce qu'ils s'inquiètent de la concurrence. Dans certains cas, le code peut même être manquant entièrement - sur un ordinateur portable cassé ou volé, stocké dans un disque perdu, ou mangé par le chien (pour ainsi dire).

Ce n'est pas une excellente nouvelle pour l'avenir de l'industrie. L'intelligence artificielle a connu un essor incroyable, et il est probable que nous aurons une intelligence artificielle ultra-intelligente, jouant un rôle croissant dans la société dans les années à venir. Si nous voulons que cela se produise, nous voulons savoir si nous pouvons faire confiance à chaque IA que nous mettons en oeuvre (et nous avons déjà des doutes) et si nous voulons lui faire confiance, nous devons pouvoir le reproduire.

 


Pour lire l'article en anglais, cliquer ICI

 

Une actualité de Claudia Geib, publiée par futurism.com et relayée par Demain l'Homme ex SOS-planete

 

 

Les scientifiques ne peuvent pas répliquer des études d'IA et c'est une mauvaise nouvelle

 

 

 

 

 

 

 

 

 

 

.....

 

Pages officielles sur les Réseaux Sociaux
 

............

...

 

 

Tout va si vite ! Vous n'allez
pas en croire vos yeux ;o)

 

 

 

Auteur : Claudia Geib - futurism.com

Article relayé par : Jacky

Actualités, news, presse alternative indépendante, journal du jour, widgets exportables GRATUITS à insérer dans votre blog, site Web ou réseau social, informations sur l'Homme et son environnement
  • Commentaires <!--()-->
  • Google+
  • FaceBook
  • Twitter
  • Linked in
  • Tumblr
  • Google+  FaceBook   Twitter
  • LinkedIn  Tumblr

1 2 »
1 2 »