Le Blog

Articles & Actualités

Databricks Summit 2025 : Ce qu’il faut retenir

Du 9 au 12  juin 2025, à San Francisco, le Data + AI Summit 2025 de Databricks a livré une série d’annonces majeures qui confirment une ambition claire : unifier données, Intelligence Artificielle et applications métier au sein d’une même plateforme, à la fois performante, gouvernée et accessible par tous les profils utilisateurs.

 

Aubay Data & AI décrypte pour vous les annonces clés à retenir du Databricks Summit 2025 !

 

Vers une IA générative opérationnelle et gouvernée

 

L’annonce majeure de cette édition 2025 est sans doute Agent Bricks. Cette nouvelle brique de la plateforme permet de construire, tester, monitorer et déployer des agents IA (sous la forme de copilotes ou d’assistants métiers) en s’appuyant sur Mosaic AI Agent Framework. Ce framework apporte les briques techniques pour industrialiser la conception d’agents basés sur des LLM : gestion des prompts, traces, juges automatiques, A/B testing, …

 

Afin de soutenir techniquement Agent Bricks, Databricks annonce la disponibilité de MLflow 3.0, une évolution de son célèbre outil de MLOps. Désormais orienté agents IA, MLflow permet notamment de versionner des prompts, suivre les performances de réponses et garantir la traçabilité des interactions.

 

Sur le plan de l’infrastructure, Databricks introduit également un mode GPU serverless pour les workloads IA. Il permet d’allouer dynamiquement des ressources GPU pour entraîner ou servir des modèles, sans gestion manuelle de l’infrastructure.

 

Autre nouveauté clé à base d’Intelligence Artificielle : Databricks One, une interface unifiée pensée pour les utilisateurs métiers intégrant l’agent IA Databricks Genie. Databricks One permet de générer des visualisations, de poser des questions sur les données ou encore d’explorer un catalogue de dashboards, en langage naturel.

 

Une plateforme de données plus unifiée et plus ouverte

 

Côté socle technologique, Databricks introduit Lakebase, une base de données transactionnelle (OLTP) intégrée au Lakehouse et compatible PostgreSQL. Basée sur la technologie de Neon (société acquise par Databricks en mai 2025), Lakebase permet aux équipes de développer des applications à partir des mêmes données que celles utilisées pour les analyses et les modèles d’Intelligence Artificielle.

 

L’approche Lakehouse combinant OLAP et OLTP est renforcée par les évolutions du Unity Catalog qui supporte désormais les formats ouverts comme Apache Iceberg mais aussi les catalogues fédérés et les objets métiers. L’objectif : Gouverner l’ensemble des actifs de données et d’IA dans un même cadre, quels que soient les moteurs ou sources utilisées.

 

De nouveaux outils pour les Data Engineers

 

Databricks annonce également la généralisation de Lakeflow, son orchestrateur de pipelines de données. Il est désormais disponible en GA avec un moteur Spark natif, des connecteurs enrichis et un monitoring centralisé.

 

Pour démocratiser encore davantage les cas d’usage, Databricks dévoile Lakeflow Designer, un outil visuel no-code propulsé par l’IA générative. Il permet à des profils non techniques (Data Analysts, métiers, …) de créer des pipelines complexes en mode « drag & drop » ou via des requêtes en langage naturel. A noter que Lakeflow Designer n’est pas encore disponible et sa disponibilité en Private Preview est prévue dans les prochaines semaines.

 

Enfin, avec Lakebridge, Databricks facilite les migrations depuis d’autres entrepôts de données (Oracle, Teradata, Microsoft SQL Server, Snowflake, …). Basé sur la technologie de BladeBridge (société acquise par Databricks en février 2025), l’outil prend en charge l’analyse du code SQL, la conversion automatique, le refactoring et les tests de non-régression. Dans les mois à venir, Lakebridge sera mis à jour avec un module de conversion de code alimenté par l’IA utilisant l’apprentissage par renforcement pour une meilleure précision de la traduction. Un module dédié à la migration des données et une interface graphique utilisateur sont également prévus.

 

Sans oublier la communauté

 

En remplacement de son offre Community Edition, Databricks annonce Databricks Free Edition, une offre gratuite proposant une quasi-parité fonctionnelle avec l’offre payante. Soutenue par un investissement de 100 M$, l’offre propose notamment l’accès à Lakeflow (ETL/ELT), à MosaicML (MLOps) et à Databricks Assistant (IA de codage). L’offre Databricks Free Edition s’adresse à toutes les personnes souhaitant découvrir Databricks (principalement les étudiants mais pas que) mais bien évidemment sans être à vocation commerciale ou dans une démarche de production.

 

Pour plus d’informations sur Databricks Free Edition : https://www.databricks.com/learn/free-edition

 

Autre geste fort envers la communauté : Databricks donne l’API Declarative Pipelines au projet Open Source Apache Spark. Anciennement connu sous le nom de Databricks DLT, cette API éprouvée permet de simplifier drastiquement la création de pipelines robustes.

 

Ce que cela signifie pour les clients et utilisateurs de Databricks

 

Avec l’édition 2025 de son Summit, Databricks confirme toujours plus sa stratégie : une plateforme unifiée pour traiter toute la chaîne de valeur Data + IA au service des cas d’usage opérationnels. Toutes ces innovations ont pour objectif de faciliter l’adoption par les métiers, accélérer les projets IA et réduire les challenges et difficultés liées à l’intégration et à la migration de données.

 

Bibliographie :

Image de Nicolas

Nicolas

Directeur Data & AI

Partager l'article :

Nos autres articles qui pourraient vous intéresser

form-field-email