L’impact des IA génératives dans l’infrastructure IT
« l’IA générative et ses possibilités » (4/5) . l’Intelligence Artificielle a apporté des changements considérable à l’infrastructure informatique, transformant la manière dont nous stockons, traitons et utilisons les données et à nécessitant de manager de nouveaux artefacts : les modèles en eux même et tout ce qui gravite autour. Dans cet article, nous allons explorer les principales évolutions que l’IA a introduites dans le domaine de l’infrastructure IT.
La révolution du stockage de données à l’ère post Big Data
L’IA a engendré un besoin massif de stockage de données. Les modèles d’IA préentraînés, comme les fameux GPT (Generative Pre-trained Transformers), nécessitent des quantités colossales de données pour leur formation. Ce qui a poussé à l’adoption de solutions de stockage en nuage, de bases de données distribuées et de systèmes de stockage rapide pour répondre à cette demande croissante.
Quel impact cela a eu sur les architectures Big Data ? La nature des données à stocker et leur indexation. En effet, comme nous vous l’avons expliqué dans notre précédent article (IA Générative : attention à ne pas lui donner n’importe quoi !), on vise dans la plupart des cas à produire / prédire l’élément suivant dans une suite d’éléments : mot, pixel, son, etc. Pour prédire le suivant il est nécessaire de pouvoir comparer mathématiquement un élément vis-à-vis d’un autre.
La synthèse mathématique de chaque élément est un simple vecteur qui intègre toutes les statistiques descriptives de l’élément. A titre d’exemple le vecteur d’un mot serait une liste de probabilité d’occurrence de ce même mot comparé à tous les autres. Ainsi chaque mot à son vecteur de probabilité par rapport à tous les autres. La nature même d’un vecteur qui n’est ni un simple INT ni un CHAR :
Et à entrainer ainsi le besoin de stocker et d’indexer spécifiquement ce nouveau type de donnée. Ainsi ont émergé les bases de données vectorielles. Elles ont les particularités d’être très flexibles, d’implémenter des fonctions de calculs de distances spécifiques aux vecteurs (distances cosinus, euclidiennes etc.) et de nécessiter un peu plus de CPU que les bases de données classiques.
La puissance de calcul et les unités de traitement spécialisées
L’une des évolutions les plus notables est l’augmentation exponentielle de la puissance de calcul requise. Les algorithmes d’IA, tels que ceux utilisés dans l’apprentissage profond, exigent des capacités de traitement considérables pour entraîner et déployer des modèles performants. Pour répondre à cette demande, les entreprises ont investi dans des processeurs graphiques (GPU) et des unités de traitement de tenseur (TPU) spécialement conçus pour accélérer les calculs liés à l’IA. Ainsi des sociétés productrices de cette puissance de calcul ont vu leur chiffre d’affaires doublé de 2022 à 2023 (117% pour NVIDIA). L’émergence de nouvelles unités de calcul encore plus spécialisé, optimisé selon les algorithmes d’apprentissage est en cours de test. Nul doute qu’au vu des montants et de la vitesse d’obsolescence il est préférable de se tourner vers du cloud AI Computing plutôt que de porter toutes ces évolutions matériels.
Ainsi le cloud computing est devenu un pilier de l’infrastructure IT dans le contexte de l’IA. Les fournisseurs de cloud proposent désormais des services spécifiques à l’IA, offrant des ressources informatiques évolutives pour l’entraînement et le déploiement de modèles. Cette approche a permis aux entreprises de réduire les coûts et de gagner en flexibilité.
Au-delà de la puissance de calcul, la gestion et l’indexation des nouveaux artefacts liés à l’IA a entrainé l’apparition de nouveaux services parmi les acteurs déjà dominants sur le marché. Le cas de Gitlab est très intéressant car il est un des leaders en termes d’outils de versioning et de CI/CD. Gitlab a du faire évoluer sa technologie d’indexation et son principe de fonctionnement pour pouvoir associer à chaque version la notion d’experiment qui est inhérent à l’étape d’exploration dans un projet de Data Science. Gitlab a également intégré une logique de gestion des modèles validés suite aux experiments dans un espace dédié, le model registry qui facilite et sécurise toute la démarche de mise en production de ces modèles, la démarche ML OPS.
En somme, l’intelligence artificielle a apporté des changements radicaux à l’infrastructure IT. Les besoins en puissance de calcul, en stockage de données, l’adoption du cloud computing et le changement des principes de fonctionnement d’outils majeurs sont autant de révolutions qui ont redéfini la manière dont les entreprises gèrent leurs ressources informatiques.
Pour rester compétitives dans ce nouvel écosystème technologique, les organisations doivent continuer à s’adapter et à investir dans des infrastructures IT évolutives et flexibles, tout en exploitant pleinement le potentiel de l’IA pour stimuler l’innovation et la croissance.
Yasser Antonio LEOTE CHERRADI – Practice Manager JEMS