L’IA générative fait désormais partie intégrante de l’offre des grands cloud providers : AWS, GCP et d’autres accélèrent le rythme avec des nouveautés chaque mois, voire semaine. Assistants conversationnels, génération de code, analyse multimodale… Découvrez dans cet article les toutes dernières fonctionnalités à ne pas manquer pour rester compétitif et les évolutions à venir !
Les dernières nouveautés GenAI d’Amazon Web Services
AWS continue d’enrichir son offre en matière de services liés à l’IA générative, l’un des sujets prépondérants de l’AWS Summit d’avril dernier.
Bedrock : service managé de LLM avec de nouveaux modèles
Avec Bedrock, Amazon nous propulse au cœur de l’IA générative dernière génération. Via ce service clé-en-main, vous aurez un accès direct aux modèles les plus puissants du moment : Claude (versions 2, 3, 3.5 en fonction des régions), Mistral (Large, Mistral), sans oublier Llama, Titan et Stable Diffusion. Et ce n’est là qu’un aperçu, car la liste s’allonge à une vitesse fulgurante ! Nul doute qu’à la publication de cet article, de nouvelles pépites auront déjà vu le jour.
Maintenant que les présentations sont faites : quel est l’intérêt de Bedrock ? Qu’est-ce qui en fait un incontournable chez AWS ?
Tout d’abord, son modèle de consommation au token vous affranchit de l’hébergement d’instances. Fini les déploiements complexes sur SageMaker ! Ici, vous interagissez directement avec l’API Bedrock, elle-même connectée aux modèles. Et le must ? AWS garantit la confidentialité de vos données ! Vous bénéficiez ainsi du meilleur des deux mondes : une consommation à l’usage, tout en conservant la sécurité de votre infrastructure cloud.
Mais ce n’est pas tout ! Bedrock vous ouvre également les portes du service Knowledge Base. Plus besoin de mettre en place une base de données vectorielle en amont pour le Retrieval Augmented Generation (« Génération augmentée de récupération », ou RAG pour les intimes). Knowledge Base l’intègre nativement via l’API « Retrieve and Generate ». Une nouvelle fois, AWS vous offre une solution clé-en-main : concentrez-vous sur la plus-value de leurs solutions, sans vous soucier des architectures complexes à déployer et maintenir. La cerise sur le gâteau ? Le très récent support du « function calling » (ou « tools » dans le service). Grâce à lui, Bedrock s’impose désormais comme une alternative complète face aux géantes OpenAI et Azure !
SageMaker, quant à lui, n’est pas en reste ! Cette plateforme phare continue de s’enrichir sans cesse pour répondre aux besoins les plus pointus. Du fine-tuning à l’hébergement de modèles sur-mesure, elle reste la référence absolue dans l’arsenal AWS.
CodeWhisperer : aide au codage et pull requests automatisés
Côté « code », AWS n’a pas abandonné les développeurs (loin de là) ! Face à GitHub Copilot, AWS riposte en effet avec CodeWhisperer, un service d’aide au codage intégré aux IDE. CodeWhisperer va jusqu’à pouvoir générer automatiquement des pull requests documentées via CodeDeploy, pour un pipeline entièrement hébergé sur AWS. Cependant, cette fonctionnalité prometteuse mérite encore d’être évaluée en conditions réelles.
Toujours dans cette approche, AWS propose un outil dédié à la migration automatisée de code Java 6 legacy vers des versions plus récentes. Celui-ci gère les tests unitaires et dépendances Maven au passage. Avec cette solution, AWS aurait migré plus de 200 applications internes en seulement 2 jours, un résultat impressionnant même s’il s’agit d’un cas d’usage très spécifique.
Dans l’univers bouillonnant du cloud AWS, les nouveautés s’enchaînent à un rythme effréné. D’ici quelques semaines, les informations précédentes risquent même d’être déjà dépassées ! Sans plus attendre, attaquons-nous donc à la dernière pépite d’AWS en matière d’IA générative : Bedrock.
Amazon Q : assistant conversationnel et service de chatbots privés
Parmi les services managés du cloud d’Amazon, nous retrouvons Amazon Q, disponible sous plusieurs formes.
La première (et la plus visible) : un assistant conversationnel. Directement intégré dans la console AWS, cet agent est capable de répondre à des questions techniques sur votre compte, d’aider à identifier des problèmes, voire d’en résoudre certains. Amazon Q est un service gratuit si vous possédez un compte AWS (un vrai + par rapport à l’offre de GCP !), même s’il n’offre pas toutes les fonctionnalités de la version complète.
Il existe également sous la forme d’un service managé qui permet, en deux clics, de déployer votre propre chatbot privé. C’est pas beau ça ? Le seul bémol : ce n’est pour l’instant disponible qu’en anglais.
Les innovations côté IA générative ne s’arrêtent cependant pas aux portes d’AWS. Direction Google Cloud, où d’autres nouveautés IA se révèlent tout aussi prometteuses !
Les dernières nouveautés GenAI de Google Cloud
Vertex AI et le modèle multimodal Gemini pour images et vidéos
Chez Google, l’IA générative gagne en puissance avec deux services phares !
Le premier, Vertex, est la plateforme d’IA et de machine learning innovante. Son offre multimodale vous donne les clés pour exploiter les modèles Google, avec en tête de file Gemini.
Et celui-ci n’a pas volé sa réputation ! Outre ses désormais légendaires recommandations sur comment faire tenir du fromage ou de l’ananas sur les pizzas (avec de la colle, paraît-il…), ce modèle excelle dans l’analyse d’images, une compétence qu’il maîtrise depuis des mois, bien avant les géants OpenAI et Claude. Gemini repousse encore les limites avec ses capacités d’analyse vidéo, ouvrant la voie à des usages inédits.
Ce modèle a définitivement fait ses preuves et s’inscrit dans la durée, stable sur ses appuis, avec des évolutions régulières qui lui permettent de rester en bonne position dans les classements de modèles. On pourrait épiloguer des heures sur les forces de chaque modèle, leur créativité ou leur style mais le fait est là : aujourd’hui, les cloud providers offrent tous une alternative solide à OpenAI qu’il est possible d’exploiter facilement dans leur écosystème.
Assistant Gemini intégré à la console GCP
Gemini fait également son entrée dans la console GCP, avec un assistant directement intégré à l’interface. Une intégration qui ouvre la voie à des usages bluffants, comme l’accompagnement par l’IA pour la migration de bases de données. Je suis prêt à parier que Google garde encore certaines de ses innovations les plus prometteuses sous le coude pour une annonce ultérieure, en particulier côté analyse et (surtout) génération vidéo.
Parallèlement, Vertex vous offre aussi la possibilité de déployer vos propres modèles sur-mesure ou d’exploiter des modèles open source. Une flexibilité bienvenue pour répondre à tous les cas d’usage !
Nouvelles clés API et modèles open source de Google
Grâce aux récentes clés API dévoilées par Google, vous pouvez désormais tirer parti de toute la puissance de Gemini. Fini les barrières, exploitez dès maintenant les capacités multimodales de cette pépite d’intelligence artificielle. Google poursuit également activement le développement et la maintenance de ses propres modèles open-source, une opportunité en or pour les esprits innovants de faire du fine-tuning eux-mêmes.
Dans toute cette effervescence de nouveautés, n’oublions pas non plus Mistral, le modèle montant qui a récemment dévoilé une nouvelle version de Mistral Large durant l’été. Un poids lourd de l’IA générative qui semble avoir plus d’un atout dans sa manche pour se démarquer.
Avec tant d’options à disposition, comment s’y retrouver ? Pas de panique, de nombreux classements en ligne comme celui de LMArena.ai vous permettent de comparer les performances des différents modèles et de choisir celui qui correspondra parfaitement à vos besoin (vous pouvez aussi en chercher d’autres, ce n’est pas ce qui manque sur le web de nos jours !).
L’approche innovante de Daveo en IA générative
Et Daveo dans tout ça ? De notre côté, nous embrassons une approche multicloud, exploitant à la fois AWS et GCP. Cette stratégie répond aux besoins de nos clients qui travaillent sur ces deux cloud providers. Au-delà de ça, nous restons convaincus que le multicloud constitue une solution viable et pérenne, même si suivre le rythme effréné des innovations représente un défi de taille.
Notre vision de l’IA générative s’articule autour de deux axes primordiaux : son apport pour nos consultants et son apport pour nos clients. La première étape cruciale consiste à bien cerner les opportunités offertes par l’IA générative, tout en identifiant clairement ses limites actuelles. Certes, cette technologie ouvre de vastes possibilités, mais elle n’est pas encore parfaite ni totalement exacte. Chez Daveo, notre mot d’ordre est « accélération » : nous ne cherchons pas à remplacer les personnes, mais à « augmenter » leurs performances. Et sur ce point, l’IA générative apporte une réponse pertinente.
Prenons un exemple concret : proposer des recommandations de produits n’est pas nécessairement le meilleur usage de l’IA générative. Dans ce cas précis, le machine learning plus classique sera beaucoup plus performant, économe et léger en ressources. En revanche, classifier des données produits issues de différents formats, puis les faire valider par un utilisateur, représente un cas d’usage beaucoup plus pertinent pour l’IA gen.
dIAne : notre IA gen privée multimodale
Forts de cette vision, nous développons une gamme d’outils innovants à offrir à nos consultants. Parmi ceux-ci, citons l’analyse d’images pour classifier et retranscrire les ateliers de brainstorming, la rédaction automatisée d’user stories à partir de comptes-rendus de réunions ou encore la validation de contrats grâce à l’identification des clauses à risque. Notre fer de lance reste néanmoins notre chatbot privé multimodèle, qui offre un environnement sécurisé aux utilisateurs quotidiens de l’IA générative, une alternative bien plus fiable que le ChatGPT public.
L’ensemble de ces outils est accessible à nos consultants au sein de notre application dIAne (« Daveo Intelligence Artificielle et Nouvelles Expériences », oui oui). Cette plateforme centralisée propose de multiples cas d’usage, dont des chatbots basés sur les modèles Claude et Gemini. Et dIAne va même plus loin : c’est un projet inner source ! Ainsi, chacun peut comprendre les rouages de l’IA en pratique, dans un esprit de montée en compétences collective et de collaboration, notre marque de fabrique.
Une plateforme IA sur-mesure, compatible avec AWS et GCP
En ce qui concerne nos clients, nous collaborons étroitement avec eux pour concevoir des solutions personnalisées répondant à leurs besoins spécifiques. Daveo a développé en interne une plateforme IA capable de s’intégrer à GCP et AWS. Plus encore, nous proposons une plateforme de prototypage rapide permettant à nos clients de tester des solutions en quelques jours seulement. Cette agilité leur offre un avantage concurrentiel en accélérant considérablement leurs cycles d’innovation.
Avec cette vague de nouveautés perpétuelles des géants du cloud, le paysage de l’IA générative évolue à un rythme vertigineux. Derrière cette effervescence technologique se cache cependant un enjeu plus profond : repenser nos usages en synergie avec l’intelligence artificielle, sans s’y substituer aveuglément. C’est cette vision d’une IA « augmentant » l’humain que nous cultivons chez Daveo et le Groupe Magellan Partners, au travers de solutions sur mesure et sécurisées. Si le présent de l’IA générative captive déjà les esprits, nul doute que son avenir, riche en opportunités insoupçonnées, réserve encore bien des surprises !