Databricks et Visual Studio Code
Publiée le janvier 20, 2026
Publiée le janvier 20, 2026
Au‑delà des interfaces web, les développeurs apprécient souvent de travailler dans un environnement de développement local. C’est pourquoi Databricks a lancé une extension pour Visual Studio Code (VS Code). Cette extension permet d’exploiter le Lakehouse depuis un IDE populaire, d’écrire du code localement, de le déboguer et de le déployer sur des clusters distants. Un tel outil améliore la productivité des développeurs et apporte les bonnes pratiques du génie logiciel à l’analytique.
Selon la documentation officielle, l’extension VS Code pour Databricks permet de :
Définir, déployer et exécuter des Databricks Asset Bundles afin d’appliquer des schémas CI/CD aux jobs Lakeflow et Delta Live Tables. Ces bundles facilitent la gestion d’ensembles de notebooks, de configurations et de scripts en un seul paquet réutilisable.
Exécuter du code Python local sur des clusters Databricks. Vous pouvez développer et tester vos scripts sur votre machine, puis les envoyer vers un cluster pour bénéficier de la puissance de calcul du Lakehouse.
Lancer des notebooks ou des fichiers Python, R, Scala ou SQL en tant que jobs Databricks à partir de VS Code.
Configurer et déboguer l’environnement en utilisant Databricks Connect pour exécuter et déboguer des cellules de notebook directement depuis l’IDE.
Synchroniser le code local avec le code stocké dans les workspaces Databricks, permettant ainsi de versionner et de partager facilement les projets.
Cette extension est disponible gratuitement sur la marketplace VS Code et recueille des commentaires positifs pour la productivité qu’elle apporte aux développeurs.
L’extension VS Code réduit le contexte de changement : les développeurs n’ont plus besoin de passer de l’IDE à l’interface web de Databricks. Ils peuvent appliquer les bonnes pratiques de développement logiciel (contrôle de version Git, revues de code, intégration continue) directement dans leur environnement familier. La possibilité de déboguer les notebooks cellule par cellule simplifie le diagnostic des problèmes. Enfin, l’extension facilite la collaboration entre équipes en synchronisant le code local et les workspaces.
Pour commencer :
Installez l’extension depuis la marketplace VS Code.
Ouvrez un dossier ou créez un nouveau projet en utilisant l’option Create a new Databricks project disponible via l’icône Databricks dans la barre latérale.
Sélectionnez un hôte (Azure, AWS ou GCP) et un mode d’authentification (profil Databricks, PAT, etc.).
Choisissez un modèle de projet et configurez les fichiers de bundle.
Rédigez votre code, exécutez‑le sur un cluster distant via le menu contextuel et synchronisez les changements.
Bien que l’extension prenne en charge l’exécution de notebooks en Python, R, Scala et SQL en tant que jobs, elle n’offre pas encore d’autocomplétion avancée pour ces langages ; les fonctionnalités de développement se concentrent surtout sur Python. De plus, l’extension collecte des données télé‑métriques anonymisées pour améliorer le produit, mais cela peut être désactivé dans les paramètres. Enfin, certains utilisateurs notent que l’extension est encore jeune et que des améliorations sont attendues, notamment l’intégration plus profonde avec Unity Catalog et le support d’autres environnements IDE.
Quel est l’intérêt de l’extension VS Code pour Databricks ? Elle permet aux développeurs d’écrire, de déboguer et de déployer du code localement en se connectant aux clusters Databricks via leur IDE préféré, intégrant ainsi les bonnes pratiques du génie logiciel.
Quelles tâches puis‑je accomplir avec l’extension ? Vous pouvez créer des projets Databricks, définir des Asset Bundles, exécuter des scripts Python ou des notebooks, les transformer en jobs et déboguer les cellules avec Databricks Connect.
Cette extension est‑elle gratuite ? Oui. L’extension est disponible sans frais sur la marketplace VS Code et s’installe en quelques clics.
Existe‑t‑il des limitations ? Elle se concentre principalement sur Python, tandis que le support complet de R, Scala et SQL reste limité pour les fonctionnalités avancées. L’extension collecte des données de télé‑métrie anonymisées par défaut, mais vous pouvez désactiver cette option dans les paramètres