L’IA n’est plus un concept futuriste : elle est déjà déployée dans de nombreuses PME, avec des résultats concrets et mesurables. Automatisation des processus, optimisation de la relation client, maintenance prédictive, pilotage des ventes ou encore analyse de données en temps réel… les usages se multiplient et transforment le quotidien des entreprises. Cette table ronde donne la parole à des dirigeants et partenaires qui partageront leurs expériences, leurs succès mais aussi leurs défis, pour montrer comment l’IA devient un levier opérationnel et accessible aux petites et moyennes entreprises
talk-data.com
Topic
AI/ML
Artificial Intelligence/Machine Learning
9014
tagged
Activity Trend
Top Events
L’analyse de plans techniques de bâtiments, notamment dans le cadre de la conformité réglementaire, reste aujourd’hui un processus largement manuel, mobilisant des experts pour interpréter des documents complexes. Cette conférence propose un retour d’expérience sur un hackathon qui a exploré une nouvelle voie : combiner les forces de l’intelligence artificielle traditionnelle (machine learning) et des architectures multi-agents basées sur des modèles IA multi-modaux pour automatiser ce processus.
Alors qu’une grande partie des investissements dans les données et l’IA échouent ou conduisent à des produits inutilisés, le principal défi n’est pas la technologie, mais les complexités organisationnelles et humaines.
L’adoption d’une approche centrée sur le produit est fondamentale pour réussir, mais elle s’accompagne également de nombreux défis à grande échelle.
Comment obtenir une approche cohérente et systématique sur des dizaines et parfois des
centaines de produits Data & IA ? Comment favoriser l’adoption ? Comment piloter les risques et assurer la conformité ? Comment démontrer la valeur tangible ?
Dans cette session, nous partagerons les principes, cadres méthodologiques et leviers organisationnels qui permettent de concevoir, déployer et faire évoluer des produits Data & IA scalables, fiables et orientés impact. De la stratégie à l’exécution, nous verrons comment aligner tech, produit et métier autour d’un langage commun de valeur.
Découvrez l'approche StratOps et faite la différence avec une gouvernance pilotée par le valeur !
Dans un contexte où la qualité et la rapidité des décisions d’assurance sont déterminantes, nous avons accompagné MSIG dans un projet ambitieux : AIRA.
Chaque rapport de risk engineering est une mine d’informations, mais leur diversité (formats, langues, pratiques) rend leur exploitation lente et complexe. Avec AIRA, nous permettons que ces rapports soient lus, structurés et scorés automatiquement grâce à l’IA.
L’application accélère l’alimentation du fichier RAUM, standardise les pratiques entre trois pays et trois langues, et réduit de 80 % le temps de préparation.
Mais l’IA n’agit jamais seule : chaque score et chaque synthèse reste validé par les risk engineers et soumis à relecture humaine. Ce workflow collaboratif garantit des décisions plus rapides, plus fiables et mieux documentées, tout en renforçant le rôle central des experts.
AIRA illustre concrètement comment l’IA peut amplifier l’expertise humaine sans jamais la remplacer, et constitue un cas d’usage transposable pour tout assureur confronté à la diversité des pratiques et au multilingue.
Découvrez comment l’observabilité des données renforce une approche moderne de la gouvernance des données en garantissant des Data Products fiables et des Data Contracts respectés. Avec la plateforme Actian Data Intelligence – qui réunit un catalogue de données, une observabilité en temps réel pilotée par l’IA et une gouvernance fédérée – les organisations peuvent définir des Data Products enrichis de métriques de qualité, de règles intégrées et d’une traçabilité complète. La surveillance continue permet de s’assurer du respect des Data Contracts, offrant ainsi aux équipes métiers et techniques la confiance nécessaire pour partager et réutiliser les données en toute sécurité. Une démonstration en direct montrera comment Actian fait de l’observabilité le socle de Data Products de qualité, favorisant adoption, conformité et innovation à l’échelle de l’entreprise.
"L’intelligence artificielle promettait de révolutionner la manière dont les entreprises innovent, produisent et prennent des décisions. Mais la réalité s’impose : les projets d’IA, notamment ceux liés aux agents autonomes, ne tiennent pas toujours leurs promesses. Selon les dernières prévisions du cabinet Gartner, plus de 40 % des initiatives d’IA agentique seront annulées d’ici fin 2027.
Les raisons sont claires : des coûts qui s’envolent, une valeur métier difficile à démontrer, et une gestion des risques encore trop immature.
Résultat, selon IBM, seulement 25% des projets d’IA délivrent le ROI attendu.
Face à cet essoufflement progressif, il devient urgent de repositionner l’IA, non plus comme un rêve technologique, mais comme un investissement qui doit être rigoureusement maîtrisé.
Cette présentation propose une approche pragmatique : comment garder le contrôle économique et opérationnel de ses projets IA, en particulier dans un contexte d’innovation rapide et parfois instable.
Cette session décrypte comment il est possible de reprendre le contrôle sur les coûts des projets IA, en mettant en lumière des problématiques clés souvent sous-estimées :
•Des coûts IA fragmentés et sous-évalués
•Une consommation d’IA rapide, difficile à anticiper
•Des difficultés à adopter et à mesurer l’usage."
nAIxt = plateforme de dév. et d'orchestration d'Agents IA d'ILLUIN, pour concevoir, déployer et surveiller des Agents IA, du POC à la Prod.
nAIxt est la plateforme de développement et d'orchestration d'Agents IA d'ILLUIN Technology : un environnement unifié pour concevoir, déployer et surveiller des Agents IA, du POC à la production, nativement intégré à AWS. En 20min Aurèle Dalibot et Bastien Sivera aborderont les sujets suivants :
- Création d’un Agent IA en quelques minutes, du design à l’exécution
- Orchestration multi-agents : planifier, collaborer, se répartir les tâches
- Intégration native de nAIxt à votre environnement AWS pour créer des agents intelligents longue durée, en capitalisant sur vos données et services actuels en toute sécurité
- AWS Bedrock pour sélectionner / combiner les modèles d'IA adaptés aux cas d’usage
Pourquoi venir ?
Pour découvrir un outil de conception et d'orchestration d'IA Agentique qui permet d'automatiser vos processus métiers, d'accélérer votre time-to-market tout en garantissant la sécurité, la scalabilité, l'observabilité et le pilotage des systèmes agentiques.
Le processus d’allocation des coûts dans Alteryx s’appuie sur des workflows automatisés pour répartir avec précision les coûts des ETP entre les centres d’activités, selon des critères prédéfinis tels que les effectifs ou les volumes, en respectant des règles spécifiques d’allocation des coûts et de calcul des KPI.
1. Ingestion et préparation des données
Alteryx se connecte à plusieurs sources (par exemple, ERP, CRM, stockage cloud) pour extraire les données liées aux ETP, aux coûts et aux volumes. Le processus agrège, prépare et aligne ces ensembles de données disparates afin de créer une base de coûts unifiée.
2.Amélioration de la qualité des données
Des règles de transformation dynamiques sont appliquées pour garantir la cohérence, supprimer les doublons, gérer les valeurs manquantes et standardiser les types de données. Des outils de profilage des données offrent une visibilité sur les anomalies et valeurs aberrantes susceptibles d’impacter la logique d’allocation.
3. Logique d’allocation des coûts
Cela permet de définir des règles d’allocation flexibles et des étapes de validation — allant de ratios simples à des règles dynamiques dictées par les besoins métiers — en fonction des moteurs de coûts, ETP et volumes, pour garantir l’exactitude des calculs de KPI.
4. Intégration de l’IA générative
Les fonctions d’IA générative (par exemple via OpenAI ou les outils Gen AI d’Alteryx) renforcent le workflow en permettant :
La génération automatique de schémas de données adaptés à un format cible.
L’assistance via un outil Copilot pour créer des transformations à partir d’instructions en langage naturel.
La création de règles d’allocation dynamiques.
5. Sortie et visualisation
Les allocations finales peuvent être exportées vers des outils de reporting, des tableaux de bord ou des data lakes. Les utilisateurs peuvent consulter des synthèses d’allocation, des écarts et des vues détaillées pour appuyer la prise de décision via des applications analytiques personnalisées.
Despite major investments, many organizations still struggle to scale AI. Pilots remain isolated, data readiness lags, trust is fragile, and transformation efforts feel disconnected. At Inetum, we believe AI should work in your day-to-day reality. That’s why we’ve developed a pragmatic methodology to start small then scale without massive investment. Coborg™ is our breakthrough framework: a proprietary system that acts as your intelligent nervous system, seamlessly connects data, workflows, people, and AI, scalable, trusted, and human-centered. Join us for an exclusive demo session where Hemant Lamba, CEO Inetum Solutions, and Bippin Makoond, Global Practice Manager Data & AI, will showcase how Coborg™ goes beyond dashboards to deliver real, scalable impact through concrete use cases. Come see how Coborg™ turns AI into action.
L’architecture data lakehouse est devenue la référence pour passer d’une BI “classique” centrée sur des bases analytiques à une plateforme de données unifiée, ouverte et évolutive, capable de supporter à la fois l’analytique moderne et l’IA/ML. Mais sa mise en œuvre reste exigeante (ingestion, optimisation, gouvernance).
Cette session montre comment Qlik Open Lakehouse intègre Apache Iceberg dans votre infrastructure pour bâtir un lakehouse gouverné, opérationnel, sans complexité.
À la clé : time-to-value accéléré, TCO réduit, interopérabilité ouverte sans vendor lock-in.
Un socle fiable qui aligne IT & métiers et propulse analytique et IA à l’échelle.
Vous souhaitez en savoir plus ? Toute l'équipe Qlik vous donne rendez-vous sur le stand D38 pour des démos live, des cas d'usage et des conseils d'experts.
Dans cette session Bertrand NEGRELLO abordera la question du déploiement à l’échelle de solutions data ou IA dans un environnement hautement critique et hautement souverain. Il abordera notamment les questions suivantes :
- quelles sont les spécificités d’une industrie critique
- que peut-on mettre sur le cloud ou pas ? que faire pour le reste ?
- comment prendre en compte la souveraineté
AI Edge Computing : de l'analyse Data, à l'inférence jusqu’ au Machine learning sur HP Z workstation et ZGX Nano – tout en local
• Comment optimiser votre infrastructure de calcul et d'inférence IA en équilibrant la puissance de calcul entre cloud et edge.
• Découvrez le nouveau ZGX Nano, basé sur la dernière technologie Nvidia Grace Blackwell – 1000 TOPS votre meilleur compagnon ML.
• Cas d'utilisation dans la navigation, la défense, la vente au détail et la fabrication.
Every dataset has a story — and when it comes to geospatial data, it’s a story deeply rooted in space and scale. But working with geospatial information is often a hidden challenge: massive file sizes, strange formats, projections, and pipelines that don't scale easily.
In this talk, we'll follow the life of a real-world geospatial dataset, from its raw collection in the field to its transformation into meaningful insights. Along the way, we’ll uncover the key steps of building a robust, scalable open-source geospatial pipeline.
Drawing on years of experience at Camptocamp, we’ll explore:
- How raw spatial data is ingested and cleaned
- How vector and raster data are efficiently stored and indexed (PostGIS, Cloud Optimized GeoTIFFs, Zarr)
- How modern tools like Dask, GeoServer, and STAC (SpatioTemporal Asset Catalogs) help process and serve geospatial data
- How to design pipelines that handle both "small data" (local shapefiles) and "big data" (terabytes of satellite imagery)
- Common pitfalls and how to avoid them when moving from prototypes to production
This journey will show how the open-source ecosystem has matured to make geospatial big data accessible — and how spatial thinking can enrich almost any data project, whether you are building dashboards, doing analytics, or setting the stage for machine learning later on.
Portée par l’élan suscité dès la précédente édition du salon, cette table ronde propose une nouvelle lecture des enjeux liés aux IA génératives. Si leur potentiel technologique est largement reconnu, leur montée en puissance redessine profondément les dynamiques économiques : reconfiguration des modèles économiques traditionnels, croissance, transformation des filières industrielles, mais aussi questions de souveraineté stratégique et de dépendance, notamment autour des semi-conducteurs et des ressources critiques. Dans ce contexte, les discussions autour de l’AI Act (notamment en matière de propriété intellectuelle) des questions éthiques (comme les biais algorithmiques) et du respect de la vie privée et des données personnelles continuent aussi d’évoluer, en vue de l’entrée en vigueur complète du cadre réglementaire prévue pour 2026. Aussi, quels sont les nouveaux paradigmes économiques et législatifs à attendre ?
Comment les IA génératives réorientent les discussions économiques et législatives en Europe