talk-data.com talk-data.com

Topic

DataViz

Data Visualization

bi charts dashboards

6

tagged

Activity Trend

43 peak/qtr
2020-Q1 2026-Q1

Activities

Showing filtered results

Filtering by: Big Data & AI Paris 2025 ×

Le groupe Egis conçoit et exploite des infrastructures complexes à l’échelle mondiale : autoroutes, aéroports, ferroviaire, bâtiments, services de mobilité, énergie, aménagement urbain et environnement. La diversité et le volume des données générées posent des défis majeurs en matière de gouvernance, d’industrialisation et de scalabilité.

Pour y répondre, Egis a déployé une infrastructure Data Mesh sur Azure, mise en place et opérée par une équipe dédiée. Cette équipe assure la conception, la gouvernance et la mise à disposition de l’architecture pour l’ensemble des Business Lines. L’infrastructure s’appuie sur :

• Stockage distribué avec ADLS Gen2,

• ETL et traitements big data avec Azure Data Factory et Databricks,

• Visualisation et partage sécurisé via Power BI Service et Delta Sharing,

• Des mécanismes de gouvernance avancés pour garantir interopérabilité et fiabilité.

Cette session présentera :

• Les choix d’architecture et patterns techniques pour mettre en place un Data Mesh distribué à l’échelle d’un grand groupe international

• Le rôle et l’organisation de l’équipe dédiée dans la mise à disposition et l’accompagnement des projets métiers

• Les enseignements pratiques tirés de cas d’usage concrets déjà en production

 

Une immersion au cœur de la mise en œuvre réelle du Data Mesh, pensée pour transformer la donnée en un actif accessible, fiable et exploitable à grande échelle par les équipes métiers et techniques.

• Les bases de données nationales de santé, telles que le SNDS, offrent une richesse unique au monde pour l’analyse et la compréhension des parcours de soins. La visualisation et l’exploration de ces données offrent des opportunités concrètes pour améliorer les soins.

• Ces approches posent des questions de recherche notamment pour le passage à l’échelle. Nous présentons le nouveau paradigme de visualisation progressive.

• Enfin, nous abordons les défis et opportunités de l’utilisation de l’intelligence artificielle pour ce type d’applications.

Découvrez comment GLS suit, analyse et optimise plus d’1 million de colis chaque jour grâce à une Modern Data Stack performante et une BI pensée pour l’efficacité.

Vous verrez concrètement comment transformer des flux complexes en décisions claires et rapides, au service de la performance opérationnelle.

Repartez avec des insights concrets sur :

- Les outils et méthodes pour fiabiliser vos données en temps réel

- Les bonnes pratiques de data visualisation pour piloter à grande échelle

- L’impact business d’une gouvernance data efficace

Une session inspirante et à ne pas manquer si vous voulez booster votre pilotage grâce à la data.

Toucan est la solution d’Embedded Analytics qui simplifie l’accès à la donnée et aide les entreprises à prendre de meilleures décisions grâce à des dashboards clairs, rapides à déployer et accessibles à tous.

GLS, acteur majeur du transport de colis en Europe, s’appuie sur la data pour garantir chaque jour fiabilité, performance et qualité de service à ses millions de clients.

Plongez dans l'univers DIGDASH, une entreprise 100 % française, et explorez les usages concrets de sa solution à travers plusieurs cas d’application :

- Le pilotage de votre activité au travers des tableaux de bord,

- L'exploration et la manipulation de données,

- La communication autour de ces données.

Multi-sectorielle, découvrez comment la plateforme DigDash Enterprise permet aux organisations d’améliorer significativement la visibilité et la maîtrise de leurs données.

Le processus d’allocation des coûts dans Alteryx s’appuie sur des workflows automatisés pour répartir avec précision les coûts des ETP entre les centres d’activités, selon des critères prédéfinis tels que les effectifs ou les volumes, en respectant des règles spécifiques d’allocation des coûts et de calcul des KPI.

1. Ingestion et préparation des données

Alteryx se connecte à plusieurs sources (par exemple, ERP, CRM, stockage cloud) pour extraire les données liées aux ETP, aux coûts et aux volumes. Le processus agrège, prépare et aligne ces ensembles de données disparates afin de créer une base de coûts unifiée.

2.Amélioration de la qualité des données

Des règles de transformation dynamiques sont appliquées pour garantir la cohérence, supprimer les doublons, gérer les valeurs manquantes et standardiser les types de données. Des outils de profilage des données offrent une visibilité sur les anomalies et valeurs aberrantes susceptibles d’impacter la logique d’allocation.

3. Logique d’allocation des coûts

Cela permet de définir des règles d’allocation flexibles et des étapes de validation — allant de ratios simples à des règles dynamiques dictées par les besoins métiers — en fonction des moteurs de coûts, ETP et volumes, pour garantir l’exactitude des calculs de KPI.

4. Intégration de l’IA générative

Les fonctions d’IA générative (par exemple via OpenAI ou les outils Gen AI d’Alteryx) renforcent le workflow en permettant :

La génération automatique de schémas de données adaptés à un format cible.

L’assistance via un outil Copilot pour créer des transformations à partir d’instructions en langage naturel.

La création de règles d’allocation dynamiques.

5. Sortie et visualisation

Les allocations finales peuvent être exportées vers des outils de reporting, des tableaux de bord ou des data lakes. Les utilisateurs peuvent consulter des synthèses d’allocation, des écarts et des vues détaillées pour appuyer la prise de décision via des applications analytiques personnalisées.