MedtechIntelligence artificielle

Communiqué de presse

Databricks investit dans Mistral AI et intègre les modèles de Mistral AI dans la Data Intelligence Plateform

Partager sur facebook
Partager sur twitter
Partager sur linkedin
Partager sur google
Partager sur reddit
Partager sur tumblr
Partager sur pinterest

 

Convaincu que les solutions open source favorisent l’innovation et la transparence dans le développement de l’IA générative, Databricks annonce un partenariat et une participation au financement de série A de Mistral AI, l’un des principaux fournisseurs européens de solutions d’IA générative.

 

Fort de ce partenariat, Databricks et Mistral proposent désormais les modèles ouverts de Mistral intégrés nativement au sein de la « Data Intelligence Platform » de Databricks. Les clients de Databricks peuvent désormais accéder aux modèles de Mistral AI sur la Marketplace de Databricks, interagir avec ces modèles dans le Mosaic AI Playground, les utiliser comme endpoints de modèles optimisés grâce à Mosaic AI Model Serving, et les personnaliser sur leurs propres données grâce à l’adaptation.

 

Avec cette intégration sur la Marketplace Databricks, les clients de Databricks pourront utiliser et adapter les modèles de Mistral en utilisant leurs propres données pour développer une application.

 

Grâce à ces intégrations clés en main, les entreprises peuvent rapidement exploiter les modèles de Mistral pour leurs applications d’IA générative, sans compromettre la sécurité, la confidentialité des données et la gouvernance qui sont au cœur de la plateforme Databricks.

 

Arthur Mensch, fondateur et CEO de Mistral AI, a déclaré : “Nous sommes ravis de nouer cette alliance stratégique avec Databricks, qui réaffirme notre engagement commun en faveur de la portabilité, de l’ouverture et de l’accessibilité de l’intelligence artificielle générative pour tous. En intégrant de manière transparente nos modèles dans la plateforme de data intelligence de Databricks, nous faisons progresser notre mission commune de démocratisation de l’IA. Cette intégration marque une étape importante dans l’extension de nos solutions innovantes à la vaste base de clients de Databricks et continue à stimuler l’innovation et les avancées significatives dans le domaine de l’IA. Ensemble, nous nous engageons à fournir des solutions d’IA accessibles et transformatrices aux utilisateurs du monde entier.

 

Présentation des modèles ouverts de Mistral AI : Mistral 7B et Mixtral 8x7B

 

Les modèles ouverts de Mistral AI sont entièrement intégrés dans la plateforme Databricks.

 

  • Mistral 7B est un modèle de transformer dense, petit mais puissant, conçu avec une longueur de fenêtre contextuelle de 8k. Ilest très efficace en raison de sa taille relativement petite de 7 milliards de paramètres et de son architecture de modèle qui tire parti de l’Attention aux requêtes groupées (GQA) et de l’Attention à fenêtre coulissante (SWA). Pour en savoir plus sur Mistral 7B, consultez l’article de blog de Mistral.

 

  • Mixtral 8x7B est un modèle de SMoE (Sparse Mixture of Experts), prenant en charge une longueur de fenêtre contextuelle de 32k et capable de traiter l’anglais, le français, l’italien, l’allemand et l’espagnol. Il surpasse Llama 2 70B sur la plupart des benchmarks, tout en offrant une inférence 6x plus rapide grâce à son architecture SMoE qui n’active que 12 milliards de paramètres pendant l’inférence, sur un total de 45 milliards de paramètres entraînés. Pour en savoir plus sur Mixtral 8x7B, vous pouvez consulter notre précédent article de blog.

 

Les clients constatent déjà les avantages de l’exploitation des modèles de Mistral AI :

 

Chez Experian, nous développons des modèles Gen AI avec les taux d’hallucinations les plus bas tout en préservant les fonctionnalités de base. L’utilisation du modèle Mixtral 8x7b sur Databricks a facilité le prototypage rapide, révélant des performances supérieures et des temps de réponse rapides“, a déclaré James Lin, Head of AI/ML Innovation chez Experian.

 

Databricks favorise l’innovation et l’adoption de l’IA générative au sein de l’entreprise. Le partenariat entre Mistral et Databricks a permis d’obtenir des résultats impressionnants pour le chatbot destiné aux consommateurs et basé sur RAG, qui répond aux questions des utilisateurs concernant les banques. Auparavant, le système était basé sur une FAQ, ce qui ne permettait pas de gérer la diversité des demandes des utilisateurs. Le chatbot basé sur Mistral est capable de traiter les questions des utilisateurs de manière appropriée et a augmenté la précision du système de 80 % à 95 %”, a déclaré Luv Luhadia, Global Alliance chez Celebal Technologies. “Leur technologie de pointe et leur expertise ont permis d’augmenter les performances pour nos clients et nous sommes ravis de continuer à collaborer avec Mistral et Databricks pour repousser les limites du possible avec les données et l’intelligence artificielle.”

 

 

Utiliser les modèles de Mistral AI dans la Data Intelligence Platform de Databricks

 

Découvrez les modèles Mistral sur la Marketplace Databricks

 

Databricks Marketplace est une marketplace ouverte pour les données, l’analytique et l’IA, alimentée par le standard open source Delta Sharing . Grâce à cette Marketplace, les clients peuvent découvrir les modèles de Mistral AI et ses fonctionnalités, mais aussi consulter des projets d’utilisation des modèles sur la plateforme Databricks :  déploiement de modèles avec Mosaic AI Model Serving, l’inférence par lots avec Spark et l’inférence de modèles en SQL à l’aide de AI Functions. Pour en savoir plus sur la Marketplace Databricks et l’AI Model Sharing, vous pouvez consulter notre article de blog.

 

Inférence de modèle Mistral avec Mosaic AI Model Serving

Mosaic AI Foundation Model APIs est une fonctionnalité de diffusion de modèles (Model Serving) qui permet aux clients d’accéder à Mixtral 8x7B (ainsi qu’à d’autres modèles de pointe) et de lancer des requêtes, en tirant parti de déploiements de modèles hautement optimisés et sans avoir à créer et à maintenir des déploiements et des endpoints. Consultez la documentation Foundation Model APIs pour en savoir plus.

 

Avec Databricks Mosaic AI Model Serving, les clients peuvent accéder aux modèles de Mistral AI à l’aide des mêmes API que celles utilisées pour les autres modèles de fondation (Foundation Models).  Cela permet aux clients de déployer, gouverner, interroger et surveiller n’importe quel modèle de fondation à travers les clouds et les prestataires, ce qui permet l’expérimentation et la mise en production de grands modèles de langage.

 

Les clients peuvent également faire appel à l’inférence de modèle directement à partir de Databricks SQL en utilisant la fonction SQL `ai_query`. Pour en savoir plus, consultez le code SQL et la documentation ai_query.

 

Adaptation du modèle Mistral avec Mosaic AI

 

Mosaic AI offre aux clients un moyen simple et économique de créer leurs propres modèles personnalisés. Les clients peuvent adapter les modèles de Mistral AI, ainsi que d’autres modèles de fondation, en s’appuyant sur leurs propres jeux de données (datasets). L’objectif de l’adaptation d’un modèle est d’accroître sa compréhension d’un domaine ou d’un cas d’utilisation particulier, de renforcer sa connaissance de la terminologie de l’entreprise et, au final, d’améliorer ses performances pour accomplir une tâche spécifique.  Une fois le modèle ajusté ou adapté, l’utilisateur peut rapidement déployer ces endpoints personnalisés dans Mosaic AI Model Serving et bénéficier d’un service rentable, tout en acquérant la propriété intellectuelle d’un modèle différencié.

 

Inférence interactive dans le Mosaic AI Playground

 

Pour expérimenter rapidement les modèles Mistral pré-entraînés et affinés, les clients peuvent accéder au Mosaic AI Playground disponible dans la fenêtre Databricks. L’AI Playground permet des conversations interactives multi-tours, l’expérimentation des paramètres d’échantillonnage de l’inférence de modèle tels que la température et max_tokens, et l’inférence côte à côte de différents modèles pour observer la qualité de la réponse du modèle et les caractéristiques de performance.

 

 

Databricks + Mistral AI

 

Nous sommes heureux d’accueillir Mistral en tant que société de notre portefeuille et partenaire de Databricks Ventures. Les modèles d’IA de Mistral peuvent désormais être utilisés et personnalisés de diverses manières sur Databricks, qui offre l’ensemble d’outils le plus complet pour construire, tester et déployer des applications d’IA générative de bout en bout. Qu’il s’agisse de commencer par une comparaison côte à côte de modèles pré-entraînés ou de consommer des modèles par le biais de pay-per-tokens, il existe plusieurs options pour démarrer rapidement.  Pour les utilisateurs qui ont besoin d’une précision accrue pour des cas d’utilisation spécifiques, la personnalisation des modèles Mistral sur des données propriétaires grâce à Mosaic AI Foundation Model Adaptation est économique et facile à utiliser. Enfin, l’inférence efficace et sécurisée sans serveur repose sur notre approche unifiée de la gouvernance et de la sécurité. Les entreprises peuvent avoir confiance dans les solutions d’IA construites avec les modèles Mistral sur Databricks – une approche qui combine certains des meilleurs modèles de référence au monde avec la position intransigeante de Databricks en matière de confidentialité, de transparence et de contrôle des données.

 

Pour en savoir plus sur la création d’applications GenAI avec Databricks, participez au prochain webinaire : Les bénéfices de la GenAI en 2024.

 

À propos de Databricks

Databricks est une société de données et d’IA. Plus de 10 000 organisations dans le monde – dont Comcast, Condé Nast, Grammarly et plus de 50 % des entreprises du Fortune 500 – s’appuient sur la plateforme de Data Intelligence de Databricks pour unifier et démocratiser les données, l’analytique et l’IA. Databricks a son siège à San Francisco, avec des bureaux dans le monde entier, et a été fondée par les créateurs originaux de Lakehouse, Apache Spark™, Delta Lake et MLflow. Pour en savoir plus, suivez Databricks sur LinkedIn, X et Facebook.