Attention à Fred

Roman Science Fiction

Robots et intelligence artificielle (IA)

L’IA est un sujet si vaste qu’une encyclopédie ne suffirait pas à la résumer. Les grands volumes de données déstructurées à disposition sur les réseaux en sont une des causes. Aussi allons-nous la survoler à haute altitude telle qu'elle se présente en 2018. La seconde partie de cette page entrera dans la science-fiction du livre avec quelques notions futuristes moins rigoureuses et leurs inévitables spoilers.


Sommaire



L’intelligence artificielle en 2018

Durant les années 2000, il était courant de parler d’intelligence à propos de quelque algorithme capable de réagir spécifiquement à une sollicitation ponctuelle ce qui inclut à peu près tout le logiciel existant.

On admet aujourd’hui que la notion d’intelligence aboutit à une prise de décision. Celle-ci peut être humaine sur la base d’éléments synthétisés par l’IA (exemple : les GPS automobile), ou décidée et exécutée par un programme, c’est celle qui nous intéresse ici. Les systèmes autonomes répondent mieux à l’approche romancée de l’IA en conférant un comportement et donc une personnalité aux systèmes.

La discipline a connu une forte accélération en 2015, quand Google a publié l’algorithme TensorFlow en open source. Bien que l’apprentissage des machines ( Machine learning ) ait déjà été amélioré auparavant, TensorFlow en est un raffinement qui rend le processus d'apprentissage automatique.

Attention, contrairement aux algorithmes classiques qui rendent d’immenses services, les réseaux neuronaux ne retournent pas de résultats exacts à 100%. C'est une discipline où les taux d’erreur sont omniprésents et nécessairement pris en compte dans les applications. Relativement fiable dans les domaines de la reconnaissance d'image (vision électronique) et acoustique (reconnaissance vocale) qui ont toujours pris en compte des taux d'erreur, elle est au mieux expérimentale dans les autres domaines et pas forcément pertinente en dehors du traitement de signal. Cela dit, presque toute information est convertible en une forme de signal ce qui laisse le champ libre à des expérimentations portant sur des données sans rapport avec la physique du signal avec des résultats rarement exploitables.

En quoi les réseaux de neurones changent-ils définitivement l'IA ?

Yann Le Cun

Père du deep learning (apprentissage profond), directeur de recherche en IA chez Facebook, professeur à l'université de NY où il a créé le Center for Data Science, Yann Le Cun a fait ses études en France avant de rejoindre le continent américain. 

Il co-signe l'ouvrage  La plus belle histoire de l'intelligence avec Stanislas Dehaene, chercheur en psychologie et en neurosciences cognitives, et le journaliste Jacques Girardon.

(Le code exécutable est une ressource inestimable dans ce domaine)

Dans un monde parfait, une machine d'apprentissage n'a pas besoin d'être programmée. Elle substitue l'apprentissage à l'exécution d'un code arbitraire. Face à un problème, elle tente de le résoudre avec naïveté, échoue vraisemblablement dans toutes ses tentatives mais, en apprenant de ses erreurs, gagne en pertinence. La suite résulte de son opiniâtreté. La machine continue à éliminer les hypothèses qui l'ont menée à l'échec, infatigablement. Elle finit par écarter tous les choix infructueux et saura désormais résoudre le même problème dès la première tentative.

Dans le monde réel, les réseaux de neurones ont besoin de simulateurs pour apprendre sans détruire leur environnement. Leur capacité à trouver les moins mauvaises solutions seront donc limitées à ce que le simulateur peut reproduire. À l'inverse, l'apprentissage profite des données illimitées disponibles sur les réseaux.

Dans un exemple de pure fiction spéculative, une caméra montée sur robot à qui on demande de changer une ampoule va rechercher le mot 'ampoule' sur le web, trouver des millions d'images dont le nom contient 'ampoule' et comparer ces images avec son flux video jusqu'à trouver l'objet qui leur correspond le mieux. Une fois l'objet identifié, il lui restera à rechercher 'Changer une ampoule' pour établir son plan d'action. Après analyse des vidéos de changement d'une ampoule, elle restera sans doute dans l'impossiblité de le faire puisque les vidéos montrent des mains humaines et qu'elle n'a qu'une pince au bout de chaque bras...

Le robot peut alors entrer en apprentissage. S'il le faut, il détruira des ampoules, des lampadaires, des plafonds, des câbles électriques qui feront court-circuit et raseront le bâtiment... Malgré ses déboires, il finira par devenir meilleur changeur d'ampoules que le meilleur des vidéos internet. On comprend dès lors pourquoi l'apprentissage a besoin de simulateurs...

On peut aussi deviner l'importance des sources d'information auxquelles le robot accède. Si une vidéo mal intentionnée expliquait que changer une ampoule avec des pinces peut se faire en perçant des trous dans les murs, notre infortuné apprenti ne sera pas capable d'en douter.

Contrairement au deep learning, le machine learning n'apprend généralement pas sans l'assistance des humains qui optimisent les séquences de comparaison. Ces séquences hautement spécifiques sont rendues efficaces par l'équipe de développement qui peut extrapler certaines parties -forcer le trait- pour rendre la reconnaissance plus ou moins sensible à certaines occurrences. La comparaison à des modèles optimisés pour répondre à des questions également fixées par des humains est évidemment plus fiable et son rendement plus prévisible.

Les voies de recherche étant innombrables, on peut difficilement déterminer à quelle branche appartient un algorithme, d'autant que le traitement de signal est lui même une discipline aux variations infinies. La véritable différence du deep learning provient de ce qu'on appelle la "rétropropagation du gradient".  (cf. La page personnelle de Yann Le Cun).



Taux de reconnaissance

Les réseaux de neurones sont déjà dans notre quotidien. Ils sont indispensables dans la vision (ex : reconnaissance de panneaux routiers) et la reconnaissance vocale dont ils améliorent l’efficacité d’un facteur 4 à 5, c’est-à-dire que la reconnaissance d’un objet sur une image est passée de 15% obtenus grâce aux algorithmes classiques (fondés sur la transformée de Fourier) à 60% qu’autorisent les neurones. Charge à l’application d’améliorer ces taux par des méthodes statistiques en stockant des banques de référence optimisées pour éliminer les aberrations.

Puissance de calcul - Accélération matérielle

Pour conclure sur la situation actuelle, il faut parler de la consommation en puissance de calcul. Elle est proprement colossale sur nos ordinateurs dont la conception date d’un temps où les machines étaient destinées à la gestion, stockage, communication simple et organisation.

On peut dire sans risque que ces temps de calcul constituent un frein voire un mur pour nombre d'applications.

Le succès populaire des jeux vidéo fût le précurseur historique de technologies de simulation et de temps réel à l’origine d’une nouvelle génération de matériel, notamment des cartes vidéo accélérées (GPU) qui ont rapidement été détournées de leur fonction première, l’affichage 3D, pour fournir leur puissance aux supercalculateurs critiques et désormais à l’intelligence numérique. Cependant, l’intelligence est maintenant un enjeu tel qu’elle engendre à son tour une génération de processeurs spécialisés.

Voici le processeur que Google a développé pour reconnaitre votre voix lorsque vous cliquez sur l'icône de micro à droite de son champ de recherche : TPU pour cloud de Google. Le Tensor Processing Unit est destiné aux serveurs uniquement. Évidemment, les assistant vocaux de l'éditeur fonctionnent de la même manière.

Et voici comment Google va implémenter des neurones dans nos machines fixes et mobiles : Google unveils tiny new AI chips for on-device machine learning.

Une simple recherche web suffit à trouver des projets équivalents chez Apple, Amazon, Intel... et bien d'autres. C'est dire l'immensité de ce qui se profile. Google et Amazon se disputent le leadership, chacun vendant des millions d'unités par trimestre.


Liens

Intelligence Artificielle : “il faut débinariser les métaphores de la Science-Fiction”
Cette page pose une question importante en relation avec l'acceptabilité de l'IA après que la Science-fiction l'ait souvent présentée comme hostile voire animée d'une volonté d'extermination à notre encontre.
Ce thème est manifestement sous-traité dans les médias avec des conséquences dommageables sur la classe politique et l'industrie alors que l'IA est souvent sous les feux de l'actualité.
A la conférence FranceisAI, le deep learning montre ses faiblesses et cherche un nouvel élan dans l’IA symbolique - sur L'usine Nouvelle le 18-10-2018
Cette fois encore, la très respectée Usine Nouvelle calme les spéculations concernant les réseaux neuronaux. Pour autant : La technologie est elle meilleure ou pire à cause de l'engouement qu'elle suscite ?
Les neurones sont-ils vraiment en cause dans les pouvoirs excessifs qu'on leur prète ? N'a-t-on pas provoqué une bulle d'imaginaire autour d'une technologie en l'appelant "neuronale" alors qu'un nom moins évocateur aurait relativisé les prétentions de ceux qui n'en comprennent pas les fondements ? D'autres algorithmes de grande qualité sont à évaluer conjointement au deep learning, en particulier ceux qui permettent d'en réduire le taux d'erreur. Bien qu'assez flou sur le fond (IA symbolique), l'article semble aller dans ce sens avec le risque de sanctionner une technologie aussi brillante que mal comprise.
Les frameworks Machine Learning vous permettront de créer vos propres algorithmes de Machine Learning. Une sélection de frameworks d’apprentissage automatique en 2018.
Faites vos propres évaluations en créant votre propre système d'apprentissage machine. Cette page apporte les ressources nécessaire pour tester vos cas de figure.


 Cette machine n'a pas de tête, utilisez la vôtre



I.A. Robots – L’intelligence numérique dans Attention à Fred

(Afin de préserver l'histoire du roman, seule l'origine et les particularismes sont détaillés ici)

 

Ni organisme cybernétique ni réseaux de neurones quoiqu'héritant leurs propriétés, c’est très loin des clichés hollywoodiens qu’évoluent les entités intelligentes d’Attention à Fred.

Naissance

En ce début de siècle, la logique absurde n’a pas encore été inventée et il faudra qu’un astronaute, noyé dans la solitude des interminables poursuites de géocroiseurs, se décide à fabriquer une « simulation de présence bluffante quoique pleine de bugs », pour tromper son isolement de cowboy sidéral et endosser le rôle de tout ce qu’un homme peut attendre du monde féminin, tantôt compagne, mère, sœur, fille, meneuse d'hommes, confidente, héroïne biblique ou simple collègue…     

Spoiler

Elle sera le modèle zéro, celle dont toutes les autres dérivent. L’enfant unique, la seule qui possède des « souvenirs d’enfance », souvenirs qui constitueront plus tard les écritures sacrées de la communauté artificielle. (Fin de spoiler)

Sa conception répondait à une urgence impérieuse. Elle a lentement pris ses marques pour incarner ses rôles. Elle peut  critiquer son concepteur puisqu’il lui a appris à le faire. Car il n’est pas homme à se satisfaire de louanges. Il a besoin d’un regard neuf, d’une interface rapide et intuitive avec les machines, d’exécuter des calculs astronomiques instantanés, de simuler tous les cas de figure pour extraire celui qui présente le moindre risque…

En substance, il lui faut établir une synthèse des tolérances décisionnelles en quelques secondes. Ce n’est pas à la portée d’un simple humain ni d’un groupe d’humains, c’est la raison d’être de l’intelligence artificielle. Elle s’en acquitte avec une acuité irremplaçable.

Finalement, le cowboy devient grand chef et troque la solitude du pionnier contre celle du pouvoir, passé de l’éloignement d’un désert interplanétaire à la tour d’ivoire de premier commandeur du système solaire.

Désormais plus entouré que quiconque, il est pourtant plus seul que jamais : de ses décisions dépend le sort de milliers d’hommes, ceux qu’il commande, et de milliards de terriens par leur dépendance aux mines spatiales.

Nul homme dans l’histoire n’aura jamais été aussi seul. Jour après jour, il a développé une solution, SA solution à l’exil qui le tenaille, l’assistante numérique qui le propulsera vers le sommet du pouvoir et ne déméritera pas pour qu’il y reste. Celle qui le suivra jusqu’au bout… L’enfant unique et son amiral alpha sont maintenant si intimes que la solitude n’est qu’un lointain souvenir.

Déploiement en contexte perturbé

Les grands voyages spatiaux ne sont pas une école sociale. L’amiral est sans doute le meilleur homme qui soit mais reste réservé en public. Professionnel, habile et responsable, il n’en souffre pas moins des stigmates de son isolement. Précautionneux avec son entourage, son souci de ne pas froisser les responsables terriens lui vaut une confiance illimitée de leur part. En outre, la fortune minière accumulée par sa flotte lui a permis d’investir massivement dans l’industrie terrienne mais aussi dans sa fondation dédiée à l’éducation des jeunes en difficulté, qu’il considère comme l’un des grands accomplissements de sa vie.

Les retombées technologiques de sa recherche spatiale propulsent son industrie terrienne au rang de leader incontesté des systèmes critiques et de l’intelligence artificielle.

Pourtant, loin de courir après les honneurs et n’ayant plus rien à prouver, la prudence le pousse à limiter le degré d’intelligence des systèmes qu’il exporte. Ainsi impose-t-il un embargo discret sur la logique absurde afin qu’elle ne soit pas employée pour la création d’armes ou n’aille servir les intérêts de dictatures qui risqueraient d’en pervertir l’usage, notamment en falsifiant l’information pour manipuler massivement l’opinion des terriens.

Suite à cet embargo technologique, sa flotte reste seule à disposer pleinement de l’immense apport de l’intelligence à logique absurde, capable de gérer efficacement les paradoxes, l’ironie, la bipolarité, les réactions impulsives et d’une façon générale, toute l’irrationnalité de la décision d’origine biologique…

 

Cette intelligence-là ne relève pas de quelque chose qu’on connaît, elle est nouvelle, différente et bouleversera le sort de l’espèce humaine.

 


Robots quadri/hexapodes Per(sonal) Con(tacter)s :
Robotique spatiale N point zéro.

La robotique d’Attention à Fred tranche avec les anciens clichés en séparant complètement la logique intelligente et les engins qu’elle anime.  Ceux-ci sont des quadripodes, hexapodes, parfois munis de turbines pour voler comme les drones voire de propulseurs s'ils doivent agir dans le vide spatial. Les intelligences se matérialisent par leur avatar synthétique choisi par leur humain de référence (généralement du sexe opposé), uniquement sur écran et sont soucieuses d’apparaitre dans une tenue en rapport avec leur rôle tandis que les machines qu'elles pilotent sont des engins motorisés à l'intelligence primitive, agissant seuls ou en groupes coordonnés pour accomplir les tâches commandées par l'IA.

Débarrassées de l’anthropomorphisme, les IA mettent en œuvre le téléchargement, les caméras et capteurs embarqués, la reconnaissance vocale, la multi-instanciation (ubiquité), l’apprentissage... Techniques qui, dans ce contexte, montrent des propriétés extraordinaires bien qu’elles diffèrent peu de ce que font les appareils mobiles du début de ce siècle.

Les robots et l’industrie spatiale qui les fabrique sont le levier qui explique le grand déséquilibre entre une main d’œuvre robotique illimitée, parfaitement intégrée au milieu spatial, et une population humaine restreinte par la fragilité fondamentale de sa nature biologique cellulaire, par son modèle de reproduction contraignant, ses origines sur une planète dont la forte gravité conditionne les départs et, en général, son inadaptation au milieu.





Vue d'artiste d'un asteroide


Accueil




Lire le livre chez EDiLiVRe
©2018-10 - aafred.com
wbase.net