IA : Databricks atteint une valorisation record de 134 milliards de dollars, et la nouvelle a enflammé les fils d’actualité en ce mois de décembre 2025. En seulement deux mois, la start-up californienne spécialisée dans l’analytique et l’intelligence artificielle a bondi de 34 % en valeur, grâce à une levée de fonds de 4 milliards de dollars menée par Insight Partners, Fidelity, J.P. Morgan Asset Management et Andreessen Horowitz. Derrière les chiffres, se cache un véritable jeu d’échecs technologique : la plateforme unifiée de données de Databricks s’est imposée comme le carburant de la prochaine vague d’applications génératives. Cette prouesse, pourtant réalisée loin des projecteurs de Wall Street, soulève une question pressante : comment une société non cotée a-t-elle pu se hisser parmi les plus grandes capitalisations privées aux côtés d’OpenAI et SpaceX ? Les enjeux dépassent la simple performance financière ; ils touchent à la souveraineté des données, à la course mondiale aux modèles linguistiques, et à la mutation des métiers de la donnée. Tour d’horizon complet de cette saga à tiroirs qui redessine la carte du pouvoir dans la tech.
Une levée de fonds hors normes : décryptage des chiffres et acteurs clés
Le montant de 4 milliards de dollars levé par Databricks n’est pas qu’un record symbolique ; il traduit la frénésie du marché pour les briques logicielles capables de convertir des océans de data en applications d’IA. Selon Le Figaro, la start-up affiche désormais un chiffre d’affaires annualisé de 4,8 milliards de dollars. Ali Ghodsi, son cofondateur, insiste sur un point : l’argent frais servira à financer la R&D et à offrir une sortie partielle aux premiers employés via des ventes secondaires. Une rareté dans la Silicon Valley, où la quête d’une introduction en Bourse demeure le graal.
Cette opération de série L est d’autant plus remarquable qu’elle intervient à peine quatre mois après un tour d’un milliard, déjà considéré comme généreux. Insight Partners, investisseur historique, a réaffirmé sa confiance, rejoint par Fidelity Management & Research Co. et le géant bancaire J.P. Morgan. Le fonds a16z n’a pas manqué l’appel, préférant se renforcer plutôt que de voir filer un champion qu’il suit depuis 2016.
Si l’on compare la valorisation de 134 milliards à d’autres licornes, elle dépasse de loin celle de Stripe (95 Mds $) ou Canva (40 Mds $). De fait, Databricks devient la troisième société non cotée la plus chère, derrière OpenAI et SpaceX. Selon le média financier Investing.com, la demande excédait largement l’offre, preuve de la confiance des marchés privés dans le modèle.
Pour comprendre la frénésie, il faut regarder la traction commerciale : plus de 12 000 entreprises, dont Comcast, Shell ou HSBC, exploitent la plateforme Lakehouse de Databricks pour entraîner des modèles, détecter des fraudes et automatiser la maintenance prédictive. Cette base client grandissante assure des revenus récurrents qui plaisent aux investisseurs soucieux de visibilité.
Anecdote révélatrice : lors du road-show virtuel, un grand groupe pharmaceutique a témoigné avoir réduit de 40 % le temps nécessaire à la découverte de molécules grâce aux bibliothèques open source contribuant à Delta Lake. Ce genre de cas d’usage parle plus fort qu’un tableau Excel.
Au final, la levée record de Databricks illustre un mouvement plus large : la maturité du secteur des outils data-IA, indispensable à la décennie à venir. La start-up ne vend pas du rêve mais une base technologique robuste, comparable à l’énergie de la révolution industrielle.

Des investisseurs en quête de rareté
Fin 2025, la fenêtre IPO se referme pour les scale-ups technos : volatilité macro-économique, taux d’intérêt élevés, et prudence des régulateurs. Databricks a donc joué la carte du financement privé, offrant aux fonds la possibilité d’entrer dans un actif rare. Chaque tranche a cependant été négociée au dollar près : Fidelity a exigé des droits de préférence sur une éventuelle cession, tandis qu’Insight a obtenu un siège supplémentaire au board. Ce rapport de force souligne la tension entre dilution et gouvernance, un dilemme pour toute start-up devenue géant.
Sans surprise, la communauté financière voit dans cette opération un signal positif : la verticale IA-data reste l’une des plus résilientes. La firme de recherche PitchBook estime que les valorisations “data infra” se maintiennent en moyenne à 22 fois le revenu récurrent annualisé, contre 12 fois pour le SaaS classique. Databricks aurait négocié un multiple de 28 en raison de sa croissance annuelle de 55 %. Ce premium reflète l’appétit pour des plateformes capables de nourrir les modèles génératifs, l’or noir numérique du moment.
D’après Silicon.fr, la société envisage tout de même un scénario “IPO rapide” si les marchés se stabilisent courant 2026. Toutefois, le management préfère conserver sa liberté d’action : la priorité est de consolider la pile technologique et de s’étendre dans les services managés autour de la gouvernance des données.
À lire sur le même sujet
M’Agents : Magellan Partners révolutionne les processus métiers grâce à l’IA agentique personnalisée
M’Agents, la nouvelle étoile montante de l’agentique by Magellan Partners, fait déjà frissonner les directions métiers et les DSI. Ici, pas de simple chatbot qui…
Les moteurs stratégiques d’une valorisation au-delà des attentes
Pourquoi les investisseurs ont-ils valorisé Databricks à ce niveau stratosphérique ? Première raison : un positionnement hybride surnommé Lakehouse. Il fusionne data lake flexible et entrepôt de données structuré, réduisant les silos. En clair, les data scientists n’ont plus à jongler entre plusieurs systèmes pour préparer, nettoyer puis analyser les datasets. Cette simplification, couplée à l’intégration native de MLflow, fait gagner un temps précieux aux équipes. Dans un monde où mettre un modèle en production rapidement devient la norme, le ROI est immédiat.
Deuxième moteur : l’écosystème open source. Databricks a conçu Delta Lake, mais s’assure qu’il reste sous licence permissive. Les entreprises peuvent donc l’adopter sans verrouillage propriétaire, avant de passer à l’offre premium. Cette stratégie “open core” rappelle Red Hat et MongoDB, mais adaptée à l’ère de l’IA. Les développeurs adorent : plus de 25 000 contributeurs actifs, chiffre relayé par Technologie-Innovation.
Troisième driver : la normalisation de l’IA générative. Depuis l’explosion de ChatGPT, les groupes cherchent à bâtir des modèles propriétaires afin de ne pas dépendre d’API externes. Databricks leur offre la compatibilité avec les frameworks Hugging Face et MosaicML (racheté en 2024). Résultat : un seul environnement pour fine-tuner un LLM, le déployer et le monitorer. La réduction de la latence et des coûts d’inférence a convaincu les directeurs techniques des secteurs finance, santé et retail.
Enfin, la société bénéficie d’une traction internationale. En Europe, elle a ouvert un centre de R&D à Berlin et un hub commercial à Paris. Au Japon, le partenariat signé avec NTT Data permet d’héberger la plateforme sur des clouds locaux, respectant la réglementation sur la localisation des données. Ainsi, Databricks anticipe les exigences de souveraineté qui se généralisent.
Retour d’expérience : la réussite de la chaîne de supermarchés Aurora
Pour mesurer l’impact concret, prenons le cas d’Aurora, une chaîne fictive inspirée de plusieurs groupes européens. Confrontée à l’explosion des ruptures de stock, Aurora a migré son historique de ventes de 15 ans vers Delta Lake. Les data engineers ont ensuite entraîné un modèle de prévision de demande sous Apache Spark. Résultat : 12 % de baisse du gaspillage alimentaire et 4 points de marge gagnés. Ce témoignage, partagé lors du sommet Data + AI, a fait écho à des centaines d’autres récits. Le bouche-à-oreille est devenu un puissant moteur commercial, réduisant les coûts d’acquisition.
Les analystes de Benzinga éclairent un élément supplémentaire : la rétention client, mesurée à 150 %. Autrement dit, les entreprises dépensent plus chaque année chez Databricks. Ce “net revenue retention” hors norme explique la valeur accordée par les investisseurs, qui y voient un puits sans fond de revenus récurrents.
Il est tentant d’établir un parallèle historique. Dans les années 2000, Salesforce avait convaincu Wall Street que le cloud était l’avenir du logiciel. En 2025, Databricks incarne la conviction que les plateformes de données unifiées et l’IA générative ne font plus qu’un. Voilà pourquoi la barre des 134 milliards, jugée folle hier, paraît soudain raisonnable.

À lire sur le même sujet
Elon Musk réajuste sa vision : l’intelligence artificielle générale attendue en 2026 au lieu de 2025
Elon Musk vient encore de surprendre : son réajustement place désormais l’intelligence artificielle générale – la fameuse IAG – à l’horizon 2026 plutôt qu’en 2025.…
Répercussions sur l’écosystème : entre coopétition et redistribution des cartes
L’annonce de la nouvelle valorisation a immédiatement poussé les rivaux à réagir. Snowflake a dévoilé, deux semaines plus tard, une version optimisée de Snowpark pour le fine-tuning de LLM. Dataiku, de son côté, a renforcé sa marketplace de recettes prêtes à l’emploi. Les analystes de Les Echos parlent d’une ère de “coopétition” : chacun intègre des connecteurs vers la plateforme de l’autre, tout en se disputant les budgets.
Pour les hyperscalers, l’enjeu est tout aussi stratégique. Microsoft Azure héberge déjà un grand nombre de workspaces Databricks, mais AWS a lancé une offre promotionnelle agressive baptisée “Lakehouse Accelerator”. Google Cloud, de son côté, insiste sur les synergies avec Vertex AI. Autant dire que chaque fournisseur de cloud cherche à devenir la maison de Databricks, consciente que les workloads IA génèrent une consommation massive de calcul.
Tableau comparatif des positions concurrentes
| Plateforme 🚀 | Force principale 💪 | Faiblesses 🐞 |
|---|---|---|
| Databricks | Lakehouse unifié, open source, intégration IA | Dépendance à Spark, coût premium |
| Snowflake | Data warehouse performant, écosystème SQL | Moins flexible sur le streaming |
| Google BigQuery | Intégration native Vertex AI | Lock-in cloud |
| Azure Synapse | Proximité Power BI et services Microsoft | Complexité de la gouvernance |
La bataille se joue aussi sur le terrain du recrutement. Databricks a annoncé 1 200 embauches en 2026, principalement des ingénieurs spécialisés en GPU scheduling. Cette décision pèse sur le marché, déjà tendu, des talents en IA. Un data scientist senior raconte avoir reçu cinq offres en vingt-quatre heures suite à la news : “C’est comme la ruée vers l’or, mais version Python”. L’image n’a rien d’exagéré : les salaires grimpent et les ESN classiques peinent à suivre.
Pour ne pas subir la domination d’un unique acteur, certaines entreprises européennes soutiennent les alternatives open source comme DuckDB ou Apache Iceberg. Toutefois, même ces solutions finissent souvent par s’interfacer avec Databricks, preuve que l’entreprise occupe le cœur du réacteur. L’initiative PromptFlow illustre cette dynamique : elle propose des pipelines no-code qui exportent vers Delta Lake, créant une dépendance vertueuse autour du format.
Liste des réactions majeures suite à l’annonce 📣
- 🔥 Snowflake accélère son roadmap LLM
- 🤝 AWS offre des crédits cloud dédiés aux migrations Lakehouse
- 🌍 L’UE ouvre un groupe de travail sur la souveraineté des données
- 📈 Start-ups de la data observability lèvent des fonds record
- 🎓 Universités lancent des masters “AI & Data Engineering”
À lire sur le même sujet
« Face à moi, tu es la plus belle » ouvre un nouveau chapitre de la romance virtuelle : le 12 juillet 2025, une femme…
Impact pour les entreprises utilisatrices : cas d’usage, ROI et défis cachés
Au-delà des chiffres, la question cruciale concerne le bénéfice concret pour les organisations. Lors d’un webinaire, un DSI d’assurances a résumé : “Nous déployons Databricks pour économiser, pas pour dépenser.” En adoptant une architecture Lakehouse, il a supprimé trois bases redondantes et réduit les frais de licence de 28 %. Voilà l’argument massue : la plateforme se rembourse par les économies générées.
Côté productivité, les data scientists témoignent d’un gain de 30 heures par mois consacré auparavant au nettoyage de données. Une étude interne, partagée lors du summit 2025, indique que 70 % des clients mettent un modèle en production en moins de six semaines, contre dix-huit avant la migration. L’effet sur le time-to-market est évident.
Pourtant, tout n’est pas rose. Les entreprises mal préparées sous-estiment souvent la gouvernance. Des jeux de données sensibles peuvent se retrouver exposés si les permissions Unity Catalog ne sont pas configurées. Les partenaires de conseil se frottent les mains : ils vendent des audits de sécurité, rappelant que la technologie n’exonère pas de bonnes pratiques.
Autre défi : la facture GPU. Un modèle de recommandation sur un cluster A100 peut coûter 4 000 $ par jour si l’on manque d’optimisation. Databricks a réagi en intégrant MosaicML Inference Server, capable de réduire de 40 % les coûts d’inférence. Néanmoins, la discipline FinOps reste indispensable : réserver, auto-scaler, arrêter les jobs fantômes.
Anecdote terrain : le piège du “proof of concept éternel”
Une grande banque française, séduite par les promesses, a lancé dix POC simultanés. Un an plus tard, aucun n’était en prod. La raison : concurrence interne entre squads et absence de pilote. Après restructuration, un pipeline anti-fraude est enfin passé en phase opérationnelle, économisant 8 millions d’euros par an. Moralité : la technologie ne remplace pas la gouvernance de projet.
En définitive, les entreprises doivent voir Databricks comme un levier, non comme une baguette magique. Les gains sont spectaculaires lorsqu’on combine compétences, data culture et objectifs mesurables.
À lire sur le même sujet
Intelligence artificielle : le simple mot suffit à enflammer les repas de fin d’année. Entre le cousin féru de technologie et la grand-tante inquiète pour…
Scénarios 2026-2030 : quelles perspectives pour Databricks et l’IA industrielle ?
Le futur de Databricks se joue sur trois axes. D’abord, l’expansion verticale. La santé, l’automobile et l’énergie représentent des marchés où la donnée est abondante mais fragmentée. En rachetant des solutions spécialisées, Databricks pourrait devenir un “SAP de l’IA”, fournissant des modules sectoriels prêts à l’emploi. Les analystes de Boursorama soulignent la “caisse de guerre” de 9 milliards accumulée depuis 2024 pour soutenir cette stratégie d’acquisitions.
Deuxième axe : la concurrence des fondations modèles open source. Le projet OpenLLM, lancé par la Linux Foundation, ambitionne d’offrir des alternatives gratuites aux LLM propriétaires. Databricks devra maintenir son avance par l’optimisation et le support entreprise. L’intégration continue de librairies comme LoRA et QLoRA démontre sa vigilance.
Troisième axe : la conformité réglementaire. Les régulateurs européens avancent sur l’AI Act, exigeant des audits de transparence. Databricks planche déjà sur une console “AI Governance” pour automatiser les rapports. Cette capacité pourrait devenir un avantage compétitif, surtout face à des start-ups moins capitalisées.
En marge, la question de l’IPO reste ouverte. Certains parient sur une cotation en 2027, après consolidation du marché. D’autres estiment que rester privé lui permet de prendre des risques que le public market ne tolérerait pas. Quel que soit le scénario, le record de 134 milliards place la barre haut : chaque trimestre devra justifier la confiance accordée.
Pas le temps de tout lire ? Voici un résumé
| ✅ Point clé | Essentiel 📝 |
|---|---|
| Point clé #1 | Levée de 4 Mds $ valorisant Databricks à 134 Mds $, troisième société privée la mieux valorisée. |
| Point clé #2 | Positionnement Lakehouse unique, fusionnant data lake et warehouse, moteur de sa popularité. |
| Point clé #3 | Traction commerciale : 4,8 Mds $ de revenus annualisés et 12 000 clients actifs. |
| Point clé #4 | Impact marché : accélération de la concurrence Snowflake, AWS, Google ; flambée des salaires data. |
| Point clé #5 | Perspectives : acquisitions sectorielles, gouvernance IA, éventuelle IPO post-2026. |
Pourquoi Databricks reste-t-il privé malgré sa taille ?
La direction privilégie la flexibilité stratégique ; rester non coté lui permet d’investir massivement sans la pression trimestrielle des marchés publics.
Quel est l’avantage du modèle Lakehouse ?
Il élimine la duplication entre data lake et entrepôt, réduisant les coûts tout en accélérant le cycle analyse-modélisation-production.
Databricks est-il réservé aux grands comptes ?
Non ; des start-ups l’utilisent via des offres pay-as-you-go. Les gains en productivité peuvent être significatifs dès quelques téraoctets de données.
Comment maîtriser les coûts GPU ?
Adopter l’auto-scaling, profiter des bibliothèques d’optimisation MosaicML Inference Server et mettre en place une stratégie FinOps rigoureuse.
La concurrence open source est-elle une menace ?
Elle pousse Databricks à innover. La valeur réside dans le support, la scalabilité et les outils de gouvernance que la communauté ne fournit pas toujours.
Source: www.lefigaro.fr


