Notre expertise open source au service de vos projets Data
L’équipe Data d’Atol CD accompagne depuis plus de 15 ans ses clients sur des problématiques d’intégration, de migration et de gouvernance des données. Forts de cette expérience, notamment sur les ETL Pentaho Data Integration et Talend, nous avons développé une expertise approfondie sur Apache Hop, son écosystème et ses cas d’usage concrets.
Ainsi, nous vous proposons de découvrir Apache HOP dans une série de trois articles à venir :
- Apache Hop : l'évolution d'un ETL open source moderne et agile.
Un tour d’horizon de la solution, de ses atouts, de ses innovations et aussi ce qui la distingue de Pentaho Data Integration. - Réussir sa migration PDI vers Apache Hop
Un guide méthodologique décrivant les étapes pour réaliser sa migration en minimisant les risques et en capitalisant sur les acquis. - Atol CD : une implication concrète au sein de la communauté Apache HOP
Présentation de l’approche d’Atol CD vis-à-vis de la communauté : correction de bugs, ajout de nouvelles fonctionnalités,... et des news sur les plugins GIS !
Ces articles ont un double objectif :
- donner aux décideurs IT une vision claire des opportunités offertes par Apache Hop,
- fournir aux équipes data un cadre opérationnel pour envisager une mise en œuvre et/ou une migration en toute sérénité.
Nos références Apache HOP :
- en tant que brique ETL de nos projets Data :
- CHU de Dijon - Projet EREBIA
- Ministère de la Transition Écologique - DHUP - Projet Plat’AU
- Ministère des Finances - Prométhée
- CIVIPOL - Plateforme suivi financière
- Chambres d’Agriculture France - Echange de données et décisionnel
- Formations Apache HOP, et migrations PDI vers HOP :
- Agglomération de Bourges
- Angers Loire Métropole
- Département du Cher
- SDIS du Doubs
- SDIS du Jura
- SDIS de Vendée
- SDIS du Tarn
Vous avez un projet Data ? Pour toute question ou demande : contact(at)atolcd.com
*Un “ETL”, en deux mots :
Un ETL (Extract, Transform, Load) est un processus informatique qui permet de collecter des données depuis différentes sources (Extract), de les nettoyer et structurer pour les rendre exploitables (Transform), puis de les charger dans un système cible (Load), comme une base de données ou un entrepôt de données. C’est une étape clé pour analyser et utiliser efficacement les données dans les entreprises.