Article original : Data-Driven Reality – Exploring the Power of AI, ML, Virtual and Augmented Reality
À ce jour, il n'est plus un secret que les données numériques sont générées par camions entiers et qu'elles peuvent valoir leur poids en or.
Mais cette connaissance n'est pas aussi importante que de comprendre comment vous pouvez dompter la bête des données et ensuite en extraire chaque once de valeur.
Naturellement, des personnes créatives et ingénieuses, ici ou là, trouvent toujours de nouveaux processus et applications qui permettront de mieux utiliser leurs données. Nous allons donc explorer certaines des tendances dominantes actuelles en matière d'utilisation des données et laisser la prédiction des technologies de demain aux experts.
Ce chapitre a été tiré de mon livre, Keeping Up: Backgrounders to All the Big Technology Trends You Can't Afford to Ignore. Si vous préférez regarder ce chapitre sous forme de vidéo, n'hésitez pas à suivre ici :
Qu'est-ce que les données exactement ?
Avant de préparer notre compréhension de ce qui est disponible pour nous aider à travailler de manière productive avec les données, il est bon de définir exactement ce que sont les données.
Bien sûr, nous avons vu de nombreux exemples individuels dans mon article précédent sur la gestion du stockage des données, y compris les grands volumes d'informations de performance et de statut produits par les composants numériques de systèmes complexes comme les voitures. Mais ce n'est pas la même chose qu'une définition.
Alors définissons-les. Les données, pour nos besoins, sont toute information numérique générée par, ou utilisée pour, vos opérations informatiques. Cela inclura les messages de journal produits par un appareil informatique, les informations météorologiques relayées par des capteurs distants à un serveur, les fichiers d'imagerie numérique (comme les scans CT, tomographie et échographie), et les chiffres que vous entrez dans une feuille de calcul. Et tout ce qui se trouve entre les deux.
Ce qui nous amène au big data – une autre de ces phrases à la mode qui sont souvent lancées sans contexte ni clarté accompagnants.
À première vue, vous penseriez probablement que le big data décrit des ensembles de données qui arrivent en volumes plus élevés que ce que les solutions logicielles et matérielles traditionnelles sont capables de gérer.
En effet, votre façon de le comprendre serait largement correcte. Bien que nous pourrions ajouter une ou deux caractéristiques secondaires. La complexité d'un ensemble de données, par exemple, est également quelque chose qui pourrait vous forcer à considérer des solutions de big data. Et les ensembles de données qui doivent être consommés et analysés en mouvement (streaming data) sont également souvent mieux traités à l'aide d'outils de big data.
Il est utile de mentionner que les charges de travail de big data chercheront souvent à résoudre des problèmes d'analyse prédictive à grande échelle ou d'analyse comportementale. De tels problèmes sont courants dans des domaines comme la santé, l'Internet des objets (IoT), et les technologies de l'information.
Cela étant dit, nous pouvons maintenant nous mettre au travail pour comprendre comment – et pourquoi – toutes ces données sont utilisées.
Réalité virtuelle et réalité augmentée
Quoi ? La simple réalité n'est soudainement plus assez bonne pour vous ?
Eh bien oui, dans certains cas, la simple réalité n'est vraiment pas assez bonne. Au moins si vous avez un fort intérêt à vous engager dans des expériences difficiles ou impossibles dans des conditions normales.
Un dispositif de réalité virtuelle (VR) vous permet de vous immerger dans un environnement inexistant.
Les exemples les plus courants de la technologie VR actuellement disponible comportent un casque qui projette des images visuelles devant vos yeux tout en suivant vos mouvements de tête et, dans certains cas, la manière dont vous bougez d'autres parties de votre corps. Les images visuelles s'adapteront à vos mouvements physiques, vous donnant la sensation que vous êtes réellement à l'intérieur et manipulez la projection virtuelle.
La VR a des applications potentielles dans les domaines de l'éducation, de la santé, de la recherche et du militaire. La capacité de simuler des environnements distants, prohibitivement coûteux ou théoriques peut rendre la formation plus réaliste et immédiate que ce qui serait autrement possible.
Les technologies VR arrivent – puis disparaissent – depuis des décennies déjà. Pour la plupart, elles se sont concentrées sur la fourniture d'environnements de jeu et de divertissement immersifs. Mais elles n'ont jamais vraiment pris d'ampleur au-delà du niveau de produit de niche.
Cela pourrait être partiellement dû aux prix élevés, et parce que certaines personnes ont ressenti des formes de mal des transports et de désorientation.
Mais peut-être – juste peut-être – (insérez l'année en cours ici) sera enfin l'année où la VR connaîtra un grand succès.
Mais là où la VR peut exploiter les données de manière vraiment significative, c'est lorsque, plutôt que de bloquer votre environnement physique, l'environnement virtuel est superposé par-dessus votre champ de vision réel.
Imaginez que vous êtes un technicien travaillant sur du matériel de commutation électrique sous un trottoir. Vous portez des lunettes qui vous permettent de voir l'équipement devant vous, mais qui projettent également du texte et des icônes identifiant clairement les étiquettes pour chaque partie et qui vous montrent où une pièce de rechange doit aller et comment elle est connectée. C'est la réalité augmentée.
Je suis sûr que vous pouvez facilement imaginer à quel point ce type d'affichage dynamique pourrait être puissant dans les bonnes conditions.
Les chirurgiens peuvent accéder à l'historique d'un patient ou même consulter la littérature médicale pertinente sans avoir à détourner les yeux de l'opération. Les pilotes militaires peuvent également profiter d'affichages "tête haute" qui leur montrent des rapports de statut opportuns décrivant leur propre aéronef et les conditions de trafic aérien plus larges sans distraction.
Intelligence artificielle et apprentissage automatique
En règle générale, les ordinateurs sont encore meilleurs pour effectuer des tâches répétitives et ennuyeuses encore et encore que les adolescents ennuyés faisant semblant de faire leurs devoirs. Et ils font moins de bruit dans le processus.
Le truc avec les ordinateurs est d'enchaîner habilement de nombreuses tâches répétitives et ennuyeuses afin qu'ils puissent approximer un comportement intelligent et utile.
Le prix au bout de cette route s'appelle l'automatisation. Ou, en d'autres termes, un état où les ordinateurs peuvent être laissés seuls en toute confiance pour effectuer des tâches complexes et utiles sans supervision.
À bien des égards, nous vivons depuis des décennies dans une ère d'automatisation informatique sophistiquée. Des domaines aussi divers que la surveillance de la sécurité, le contrôle du trafic urbain, la fabrication de livres et l'industrie lourde sont déjà gérés avec peu ou pas de supervision humaine.
Mais l'intelligence artificielle (IA) cherche à aller au-delà de la simple répétition pour former les ordinateurs à penser par eux-mêmes – et ainsi résoudre efficacement des problèmes bien plus difficiles.
Grande idée. Un peu plus difficile à réaliser dans le monde réel.
Que peut faire l'IA exactement ?
Comprendre à quel point l'IA peut être efficace dépendra de ce que vous attendez d'elle. Pouvez-vous concevoir un logiciel pour rechercher et signaler une poignée de transactions financières suspectes parmi les millions de transactions par carte de crédit qu'une grande banque traite ? Oui. (Bien que je ne sois pas tout à fait sûr que ce soit vraiment de l'IA au travail et pas seulement de l'automatisation.)
Pouvez-vous déployer des "chatbots" "intelligents" sur votre site web pour aider les clients à résoudre leurs problèmes sans avoir besoin d'une interaction humaine réelle (et coûteuse) ? Oui. En fait, je viens d'avoir une conversation surprenamment efficace avec le chatbot de mon opérateur de téléphone mobile qui a rapidement résolu mon problème.
Les premiers étages d'une fusée que vous venez d'utiliser pour lancer une charge utile dans l'espace peuvent-ils utiliser l'IA pour la guider vers un atterrissage sûr sur une plateforme mobile au milieu de l'océan ? Si vous me le demandiez, je dirais que c'est impossible. Mais SpaceX a continué et l'a fait plusieurs fois. Heureusement qu'ils ne m'ont pas demandé.
Mais l'IA peut-elle prendre des décisions stratégiques de manière fiable en tenant compte intelligemment de toutes les nombreuses parties mobiles et de la complexité qui existent dans votre industrie ? Une machine alimentée par l'IA peut-elle passer le test de Turing (où un évaluateur humain n'est pas sûr que la machine est également humaine) ? Peut-être pas encore. Et peut-être jamais.
Un outil utilisé dans de nombreux processus d'IA est le réseau de neurones. Le réseau de neurones original se compose des nombreux neurones qui transportent des informations sur l'état d'un environnement biologique vers le cerveau.
Les réseaux de neurones artificiels et virtuels sont des systèmes pour évaluer, traiter et répondre aux grands ensembles de données physiques ou virtuelles qui alimentent les systèmes contrôlés par l'IA.
De telles données peuvent provenir de caméras ou d'autres capteurs physiques, ou de multiples sources de données. Les données traitées peuvent parfois être utilisées pour la modélisation prédictive, où la probabilité des résultats futurs est comparée.
Des choses passionnantes, à n'en pas douter. Mais les outils utilisés pour certaines des réalisations les plus significatives attribuées à l'intelligence artificielle ne sont pas vraiment artificiels. Ni n'ont-ils nécessairement requis toute cette intelligence.
Par exemple, Amazon Mechanical Turk (MTurk) est un service qui connecte des entreprises clientes avec des travailleurs freelances "d'intelligence humaine" à distance. Les travailleurs, pour ce qui s'apparente généralement à un salaire dérisoire, effectueront des tâches "mécaniques" comme l'étiquetage du contenu de centaines ou de milliers d'images. L'étiquetage couvrira des domaines comme "le sujet est-il un homme ou une femme ?" ou "le sujet est-il une voiture ou un bus ?".
Il se pourrait qu'avec le temps, des services comme Mechanical Turk deviennent moins importants à mesure que les méthodologies d'IA s'améliorent et pourraient un jour remplacer complètement l'élément humain pour ce type de travail. Mais en attendant, MTurk et ses concurrents continuent de fonctionner à plein régime, produisant des millions d'unités d'intelligence artificielle" artificielle.
Une méthodologie qui peut aider à réduire la dépendance à l'intervention humaine est l'apprentissage automatique (ML).
Comment l'apprentissage automatique peut-il aider ?
Le ML fonctionne en exploitant divers types d'assistance manuelle pour aider à atteindre une plus grande automatisation des tâches. Un système ML peut espérons-le "apprendre" comment gérer nos tâches en étant exposé à des données de formation existantes. Ce n'est que lorsque le système a démontré une compétence suffisante à résoudre les problèmes que vous avez pour lui qu'il sera lâché sur des données du "monde réel".
Voici quelques approches courantes pour former votre système ML :
- L'apprentissage supervisé permet au logiciel ML de lire des ensembles de données qui incluent à la fois des "problèmes" (des images, par exemple) et leurs "solutions" (étiquettes complètes). En voyant suffisamment d'exemples fournis, le système devrait être capable d'appliquer son expérience à des problèmes similaires qui arrivent sans solutions.
- L'apprentissage non supervisé lance simplement des données brutes sans aucune solution associée au système. Le but est que le logiciel reconnaisse suffisamment de motifs dans les données pour lui permettre de résoudre les problèmes par lui-même.
- L'apprentissage par renforcement apprend des interactions avec son environnement. Idéalement, le logiciel reconnaît et comprend les résultats positifs et fait évoluer sa méthodologie pour produire de manière fiable et cohérente des résultats similaires.
- Les algorithmes d'apprentissage profond appliquent plusieurs couches d'analyse pour transformer les données cibles brutes. Le processus complet, multicouche, dans l'apprentissage profond est connu sous le nom de substantial credit assignment path (CAP).
L'IA en général, et le ML en particulier, sont efficaces pour construire des outils pour des tâches comme la conduite autonome, la découverte de médicaments, le filtrage des e-mails et la reconnaissance vocale, et pour dériver l'analyse des sentiments à partir de grands ensembles de données composés de communications humaines.
Ce que l'IA et le ML ont en commun avec toutes les autres technologies comme la réalité virtuelle et la réalité augmentée dont nous avons discuté ici – et dans cet autre article "Comment gérer le stockage des données" – est le besoin de contrôler et de mieux comprendre les flux infinis d'informations que nos produits numériques continuent de générer. Plus nous serons bons dans ce type de contrôle, plus nous obtiendrons de valeur de nos données.
Les vidéos YouTube des dix chapitres de ce livre sont disponibles ici. Beaucoup plus de bonnes choses technologiques - sous forme de livres, de cours et d'articles - peuvent être obtenues ici. Et envisagez de suivre mes cours sur AWS, la sécurité et la technologie des conteneurs ici.