¨ Dépannage Maintenance Informatique | Articles-Info | IA et big data |
IA et big data : L’intelligence artificielle transforme le stockage de données
Tweeter |
Le volume de données générées de par le monde est en pleine explosion. Selon une étude menée par Domo, en 2020, chaque être humain générera en moyenne 1,7 MB de données par seconde.
Face à ce bouleversement, les méthodes de stockage de données traditionnelles ne paraissent plus adaptées.
Il est nécessaire d’utiliser de nouvelles techniques pour gérer et stocker les données.
Aussi, l’intelligence artificielle pourrait jouer un rôle majeur pour le futur du «Data Management ».
Pour s’adapter aux énormes volumes de données, qui peuvent atteindre un pod* de plusieurs exabytes**, il est nécessaire que les Data Pipelines reliant le Edge au Cloud *** se mettent à l’échelle.
Or, l’intelligence artificielle peut faciliter cette transition en permettant cette nouvelle mise à l’échelle.
De plus, la robotique combinée à l’IA pourrait permettre d’automatiser la maintenance et les réparations du matériel.
L’IA augmente les performances du Data Storage
Pour qu’un système puisse traiter plusieurs petabytes de données, il est nécessaire que les appareils input/output (I/O) soient capables de transmettre de larges volumes de données.
Or, l’IA peut permettre d’augmenter considérablement les performances de ces appareils.
De plus, l’automatisation via l’intelligence artificielle peut aider à mettre en place un modèle self-service pour augmenter l’espace de stockage.
L’IA permet également un environnement dans lequel le logiciel pourrait potentiellement s’écrire ou se réécrire afin d’éviter les pannes et d’assurer une disponibilité maximale.
L’intelligence artificielle conduit à un changement d’architecture
Si une entreprise décide d’utiliser une infrastructure logicielle d’intelligence artificielle, il est important qu’elle s’assure que son infrastructure réponde aux exigences nouvelles.
L’architecture informatique doit non seulement pouvoir faire tourner le logiciel IA, mais doit aussi permettre un passage de l’étape pilote jusqu’à la phase de production.
Du Edge vers le Cloud
Les données sont générées et résident à de multiples endroits. Aussi, il est de plus en plus difficile de les transporter vers le Cloud ou vers le cœur du réseau.
Ainsi, à mesure que le volume de données augmente, la tâche se complique.
Les capteurs situés aux end points, tels que ceux des voitures autonomes par exemple, permettent par ailleurs de prendre des décisions directement aux end points. De fait, transporter les données vers le cœur ou le Cloud représente une perte de temps.
Dans ces conditions, l’IA peut aider à collecter et à traiter les données dans des environnements hors ligne pour ensuite les transférer de façon fluide vers un Data Center sur site ou vers le Cloud.
L’IA permet la prise en charge de différentes sources de données
À mesure que la diversité des sources de données augmente, il est nécessaire que l’infrastructure de stockage permette de prendre en charge une large variété de charges de travail.
Par exemple, un système de stockage peut devoir fonctionner avec différents workloads**** comme SAP, Oracle, Hadoop, DB2, MongoDB ou encore avec des données non structurées.
L’intelligence artificielle peut permettre d’entraîner un système sur un large ensemble de sources de données.
Même si les entreprises peuvent continuer à gérer leurs besoins en stockage de données sans utiliser l’IA, le manque de vitesse et de transfert se feront sentir.
Aussi, les entreprises qui refusent d’adopter l’IA risquent fort de se faire dépasser par leurs concurrents.
D’après Le Big Data
*Le Pod (Performance Optimized Datacenter) est un container conçu pour l’expansion des centres de traitements.
**L’exabyte est un multiple de l’octet d’unité pour les informations numériques. Dans le Système international d'unités (SI), le préfixe exa indique une multiplication par la sixième puissance de 1000 (10 puissance 18 ).
***Les géants du Cloud computing s’orientent tous vers l’Edge computing, avec l’objectif d’avoir des services sans couture, depuis le traitement local des données dans les systèmes embarqués jusqu’au traitement centralisé dans leurs datacenters.
Après le big data, l’Internet des objets ou l’intelligence artificielle, ce nouveau paradigme devient un nouvel enjeu.
**** En informatique, la charge de travail est la quantité de traitement que l’ordinateur doit produire à un moment donné. La charge de travail est composé d’une certaine quantité de code applicatif s’exécutant sur l’ordinateur et généralement un certain nombre d’utilisateurs connectés et interagissant avec les applications de l’ordinateur. En fait, il s’agit d’un code applicatif en interaction avec des utilisateurs.
IA et big data : L’intelligence artificielle transforme le stockage de données - News - publié le 17/06/2019
Le volume de données générées de par le monde est en pleine explosion. Selon une étude menée par Domo, en 2020, chaque être humain générera en moyenne 1,7 MB de données par seconde. |
Les Européens se détournent de l'iPhone et rechignent à changer leur smartphone. - News - publié le 14/06/2019
Dans la région EMEA (Europe Moyen-Orient et Afrique), les smartphones font apparaitre un recul des livraisons de 3,3%. Apple plonge de 22% au premier trimestre, alors que Huawei et Xiomi bondissent. |