Modernisation et migration de la plateforme data : le parcours move-to-cloud accéléré de la MACIF
talk-data.com
Topic
Cloud Computing
4055
tagged
Activity Trend
Top Events
Un témoignage inspirant pour les entreprises souhaitant moderniser leur stack ETL et exploiter pleinement les avantages du cloud.
MACIF partage son retour d'expérience sur la migration de plus de 400 workflows Informatica vers BigQuery et la plateforme dbt, en utilisant les accélérateurs développés par Infinite Lambda, dans le cadre de son projet de modernisation data "Move to Cloud".
Aux côtés de Laurent, découvrez comment la MACIF a tiré parti du cloud pour accélérer la livraison de ses data products, réduire les risques techniques et améliorer la gouvernance des données.
Vos données ne valent rien si on ne sait pas où les trouver ni si on peut leur faire confiance. En 30 minutes, découvrez comment Qlik Talend Cloud – Data Products Catalog transforme un dataset brut en data product réutilisable : glossaire métier, métadonnées, profiling, lineage, règles d’accès et certification avant publication dans un catalogue simple à adopter par les équipes data, BI et IA. Démo end-to-end : créer → valider→ publier → suivre l’adoption - sans lourdeur ni copier-coller. Résultat : des data products identifés, fiables et auditables qui accélèrent vos cas d’usage et instaurent une gouvernance de qualité.
Unlock the full potential of your data. Discover how the Zero Copy integration between Salesforce Data Cloud and Snowflake creates a unified, trusted data foundation to power your AI strategy—without moving your data. We'll demonstrate how secure, governed bi-directional Zero Copy access enables real-time customer interactions and provides AI agents with the reliable context they need to succeed. Join an expert from our Munich Engineering team for an inside look at what makes Zero Copy possible: Hyper, Data Cloud's high-performance query engine, envisioned and built right here in Munich.
Présentation d’un projet de migration d’une stack data On Prem vers une architecture cloud (Databricks + Power BI)
Abstract : À l’ère de la dépendance croissante aux géants technologiques, les organisations doivent repenser leur stratégie pour allier indépendance numérique et compétitivité. Cette intervention explore comment maîtriser ses infrastructures, sécuriser ses données et innover sans compromis, tout en restant agile face aux défis économiques et réglementaires.
À travers un retour d’expérience concret de Entrepreneurs.com et des solutions éprouvées (cloud souverain, résilience des données, écosystèmes locaux), nous montrerons que la souveraineté n’est pas un frein, mais un levier de différenciation et de croissance. Un focus sera fait sur les bonnes pratiques pour initier cette transition, en s’appuyant sur des partenariats stratégiques et des technologies de confiance.
Allianz replaced its legacy campaign system with a cloud-native Campaign Data Hub (CDH) powered by Snowflake, unifying data from three core business lines onto a single, real-time platform. This modern architecture reduces costs and frees up IT resources, while empowering over 8,000 agents with on-demand customer insights and the ability to pivot campaign messaging in minutes. The result is a strategic shift from legacy complexity to data-driven growth, enabling Allianz to launch hyper-personalized campaigns at scale and drive a sharp increase in agent productivity and conversion rates.
FFT, a global leader in innovative manufacturing systems, has developed a solution to the persistent challenge of bridging IT and OT data. In just six months, FFT launched the FFT DataBridge, which resides on shopfloor edge devices and seamlessly integrates production data into the Snowflake AI Data Cloud. This solution unlocks critical shopfloor analytics, AI-based forecasting, and predictive maintenance. By leveraging the power of Snowflake, FFT is helping manufacturing companies transform their operations and is continuing their journey by building a suite of IT/OT-centric applications for the Snowflake Marketplace.
Dans un monde où les volumes de données explosent et où les attentes en matière de performance analytique ne cessent de croître, construire une base de données réellement adaptée aux workloads modernes est un défi technique de taille. ClickHouse est une base de données open source orientée colonnes, conçue pour exécuter des requêtes analytiques en temps réel sur des milliards de lignes — avec une latence de l’ordre de la milliseconde.
Dans cette session technique, nous explorerons les choix architecturaux qui rendent cela possible : exécution vectorisée, stockage optimisé, traitement distribué, vues matérialisées et plus encore. Nous détaillerons aussi comment nous faisons évoluer ClickHouse au cœur de l’écosystème moderne de la donnée (cloud, IA, iceberg, observabilité) tout en restant fidèle à ses principes de performance et de simplicité.
Une plongée dans les coulisses d’un moteur analytique open source — pour répondre aux besoins d’aujourd’hui, et anticiper ceux de demain.
Siemens has developed two pilots for customer-facing industrial applications on Snowflake that bring the power of OT/IT integration to life: An OEE app enabling Siemens customers to talk to their machine data and gain insights and create customised insights in a self-service manner within seconds. And a logistics insights application enabling customers to optimise the continuous reorganisation of the warehouses close to their production. Both applications use shop floor data collected through Siemens' Industrial Edge solution that can now be integrated seamlessly into the customer's Snowflake data cloud with our native connector
Processing documents with LLMs comes with unexpected challenges: handling long inputs, enforcing structured outputs, catching hallucinations, and recovering from partial failures. In this talk, we’ll cover why large context windows are not a silver bullet, why chunking is deceptively hard and how to design input and output that allow for intelligent retrial. We'll also share practical prompting strategies, discuss OCR and parsing tools, compare different LLMs (and their cloud APIs) and highlight real-world insights from our experience developing production GenAI applications with multiple document processing scenarios.
Construisez des agents business avec une vrai logique métier dans l'écosysteme Google Cloud. On vous montrera comment un agent peut se déployer à l'échelle et peut interagir avec des progiciels des bases de données, voir même data lake de votre SI !
Join us on our journey as we set out to transform a vast archive of 35,000 reports into structured, actionable data. Guided by the power of Snowflake Data Cloud and Document AI, we trained intelligent models to extract and organize critical information. Our adventure concludes with a seamless interface, where business users can easily access and leverage these insights. Discover how our team’s innovative path turned complexity into clarity, unlocking new value for the organization.
Découvrez comment Qlik Cloud révolutionne la manière dont les utilisateurs trouvent, comprennent et exploitent leurs données en toute confiance. De l’analyse intuitive de Qlik Cloud Analytics à la gouvernance complète des pipelines de données avec Qlik Talend Cloud, explorez une plateforme unifiée pour producteurs et consommateurs de données. Plongez dans l’univers du Data Products Catalog, du Trust Score et de l’IA générative avec Qlik Answers. Une session inspirante pour voir vos données s’animer, de la source à l’action. Ne manquez pas cette immersion dans l’avenir des données !
Le processus d’allocation des coûts dans Alteryx s’appuie sur des workflows automatisés pour répartir avec précision les coûts des ETP entre les centres d’activités, selon des critères prédéfinis tels que les effectifs ou les volumes, en respectant des règles spécifiques d’allocation des coûts et de calcul des KPI.
1. Ingestion et préparation des données
Alteryx se connecte à plusieurs sources (par exemple, ERP, CRM, stockage cloud) pour extraire les données liées aux ETP, aux coûts et aux volumes. Le processus agrège, prépare et aligne ces ensembles de données disparates afin de créer une base de coûts unifiée.
2.Amélioration de la qualité des données
Des règles de transformation dynamiques sont appliquées pour garantir la cohérence, supprimer les doublons, gérer les valeurs manquantes et standardiser les types de données. Des outils de profilage des données offrent une visibilité sur les anomalies et valeurs aberrantes susceptibles d’impacter la logique d’allocation.
3. Logique d’allocation des coûts
Cela permet de définir des règles d’allocation flexibles et des étapes de validation — allant de ratios simples à des règles dynamiques dictées par les besoins métiers — en fonction des moteurs de coûts, ETP et volumes, pour garantir l’exactitude des calculs de KPI.
4. Intégration de l’IA générative
Les fonctions d’IA générative (par exemple via OpenAI ou les outils Gen AI d’Alteryx) renforcent le workflow en permettant :
La génération automatique de schémas de données adaptés à un format cible.
L’assistance via un outil Copilot pour créer des transformations à partir d’instructions en langage naturel.
La création de règles d’allocation dynamiques.
5. Sortie et visualisation
Les allocations finales peuvent être exportées vers des outils de reporting, des tableaux de bord ou des data lakes. Les utilisateurs peuvent consulter des synthèses d’allocation, des écarts et des vues détaillées pour appuyer la prise de décision via des applications analytiques personnalisées.
Dans cette session Bertrand NEGRELLO abordera la question du déploiement à l’échelle de solutions data ou IA dans un environnement hautement critique et hautement souverain. Il abordera notamment les questions suivantes :
- quelles sont les spécificités d’une industrie critique
- que peut-on mettre sur le cloud ou pas ? que faire pour le reste ?
- comment prendre en compte la souveraineté
AI Edge Computing : de l'analyse Data, à l'inférence jusqu’ au Machine learning sur HP Z workstation et ZGX Nano – tout en local
• Comment optimiser votre infrastructure de calcul et d'inférence IA en équilibrant la puissance de calcul entre cloud et edge.
• Découvrez le nouveau ZGX Nano, basé sur la dernière technologie Nvidia Grace Blackwell – 1000 TOPS votre meilleur compagnon ML.
• Cas d'utilisation dans la navigation, la défense, la vente au détail et la fabrication.
Every dataset has a story — and when it comes to geospatial data, it’s a story deeply rooted in space and scale. But working with geospatial information is often a hidden challenge: massive file sizes, strange formats, projections, and pipelines that don't scale easily.
In this talk, we'll follow the life of a real-world geospatial dataset, from its raw collection in the field to its transformation into meaningful insights. Along the way, we’ll uncover the key steps of building a robust, scalable open-source geospatial pipeline.
Drawing on years of experience at Camptocamp, we’ll explore:
- How raw spatial data is ingested and cleaned
- How vector and raster data are efficiently stored and indexed (PostGIS, Cloud Optimized GeoTIFFs, Zarr)
- How modern tools like Dask, GeoServer, and STAC (SpatioTemporal Asset Catalogs) help process and serve geospatial data
- How to design pipelines that handle both "small data" (local shapefiles) and "big data" (terabytes of satellite imagery)
- Common pitfalls and how to avoid them when moving from prototypes to production
This journey will show how the open-source ecosystem has matured to make geospatial big data accessible — and how spatial thinking can enrich almost any data project, whether you are building dashboards, doing analytics, or setting the stage for machine learning later on.
Evgenii, platform engineer at a global pharmaceutical company invites you to explore the journey in building a cloud-native Federated Data Platform powered by dbt Cloud, Snowflake, and Data Mesh principles. Learn how we defined foundational tools and standards, and how we enabled automation and self-service to empower teams across the organization.
With Snowflake's integration service, Snowflake is providing enterprises with open, extensible and secure data integration capabilities that enable real-time, scalable and bi-directional data movement. Powered by Apache NiFi, this service offers customers the option to use a self-contained data plane in Snowpark Container Services, as well as the ability to run BYOC data planes in the customer’s cloud VPC. We will dive into the platform architecture in this technical session.