talk-data.com talk-data.com

Topic

AI/ML

Artificial Intelligence/Machine Learning

data_science algorithms predictive_analytics

9014

tagged

Activity Trend

1532 peak/qtr
2020-Q1 2026-Q1

Activities

9014 activities · Newest first

Comment exploiter tout le potentiel de la GenAI tout en protégeant un corpus documentaire sensible et critique.

Avec Infogreffe et le Conseil National des Greffiers, nous avons développé une solution de Retrieval Augmented Generation (RAG) sur AI Foundry, spécifiquement architecturée pour répondre de manière optimale aux exigences des tribunaux de commerce.

Dans cet atelier, nous montrerons comment des documents juridiques complexes peuvent être indexés et interrogés de manière sécurisée, afin de fournir aux greffiers des réponses fiables, contextualisées et vérifiables.

Les principaux objectifs visés étant de valider la conformité d’un document, d’accélérer la recherche d’informations réglementaires et d’améliorer l’accès à des références métiers critiques.

Nous partagerons également les choix technologiques et les mesures de sécurité mises en œuvre pour garantir confidentialité, traçabilité et souveraineté de la donnée.

Un retour d’expérience pragmatique qui illustre comment la GenAI peut transformer un métier dont la donnée est un actif stratégique.

Evgenii, platform engineer at a global pharmaceutical company invites you to explore the journey in building a cloud-native Federated Data Platform powered by dbt Cloud, Snowflake, and Data Mesh principles. Learn how we defined foundational tools and standards, and how we enabled automation and self-service to empower teams across the organization.

Dans un contexte où 50 % des véhicules sur les routes en 2040 seront encore thermiques ou hybrides, la robustesse des systèmes reste une exigence clé.

La complexité des groupes motopropulseurs hybrides multiplie les modes de défaillance potentiels. Pour garantir un bon niveau de qualité, une solution IA développée avec Altair accélère l’analyse des problèmes et permet de doubler le nombre de cas traités. Elle classe automatiquement les défaillances connues et assiste les experts via un LLM pour les cas complexes : les données proviennent des garages (pièces, ressentis client, diagnostics). Grâce à la solution low-no code Altair RapidMiner, les experts qualité peuvent adapter l’algorithme sans programmation.

Horse Technologies est une entreprise née de Renault, avec plus de 125 ans d’expertise dans les systèmes de groupes motopropulseurs. Elle fait désormais partie de Horse Powertrain, la JV créée par Renault, Geely et Aramco.

As Germany's largest insurance groups embrace AI transformation, the challenge isn't just implementing large language models—it's building scalable, compliant infrastructure for enterprise-grade AI workflows. This session explores how Inverso, as a specialized Snowflake MSP, is revolutionizing insurance operations by combining Snowflake's data platform with cutting-edge AI to create production-ready solutions for automated claims processing and policy interpretation.

Dans cette conférence, nous présentons l’IA générative et son impact sur les métiers et les organisations. Nous aborderons les opportunités et les risques, ainsi que le cadre réglementaire (comme l’AI Act). L'accent sera mis sur le développement de projets avec l'IA générative : les questions à se poser, les choix d'architectures, de modèles, de technologies et de méthodes pour mettre en place ces projets en entreprise.Dans cette conférence, nous présentons l’IA générative et son impact sur les métiers et les organisations. Nous aborderons les opportunités et les risques, ainsi que le cadre réglementaire (comme l’AI Act). L'accent sera mis sur le développement de projets avec l'IA générative : les questions à se poser, les choix d'architectures, de modèles, de technologies et de méthodes pour mettre en place ces projets en entreprise.

Les entreprises font face à une explosion des données, dispersées dans des systèmes cloisonnés qui

freinent l’efficacité et l’innovation. La centralisation des données change la donne : en créant une source

unique de vérité, elle permet d’exploiter tout le potentiel des données, de générer des insights

actionnables et de soutenir l’IA et la prise de décision stratégique.

Dans cette session, vous découvrirez :

● Les défis des données fragmentées et verrouillées

● Comment la centralisation accélère l’efficacité opérationnelle et l’innovation

● Une démonstration live intégrant Fivetran, dbt et Census pour illustrer la synchronisation des

données et le lead scoring dans Salesforce, le tout en moins de dix minutes

L'intelligence artificielle révolutionne déjà le secteur de la santé mais comment assurer une gouvernance efficace, sécurisée et responsable ? L'entrée en vigueur de l'AI Act, l'émergence de la norme ISO 42001, ainsi que les nouvelles normes harmonisées changent profondément le paysage réglementaire. 

Quels impacts concrets pour les professionnels de la santé, les industriels et les décideurs ? Cette intervention décryptera les liens entre obligations réglementaires, exigences de certification et bonnes pratiques.

Most common machine learning models (linear, tree-based or neural network-based), optimize for the least squares loss when trained for regression tasks. As a result, they output a point estimate of the conditional expected value of the target: E[y|X].

In this presentation, we will explore several ways to train and evaluate probabilistic regression models as a richer alternative to point estimates. Those models predict a richer description of the full distribution of y|X and allow us to quantify the predictive uncertainty for individual predictions.

On the model training part, we will introduce the following options:

  • ensemble of quantile regressors for a grid of quantile levels (using linear models or gradient boosted trees in scikit-learn, XGBoost and PyTorch),
  • how to reduce probabilistic regression to multi-class classification + a cumulative sum of the predict_proba output to recover a continuous conditional CDF.
  • how to implement this approach as a generic scikit-learn meta-estimator;
  • how this approach is used to pretrain foundational tabular models (e.g. TabPFNv2).
  • simple Bayesian models (e.g. Bayesian Ridge and Gaussian Processes);
  • more specialized approaches as implemented in XGBoostLSS.

We will also discuss how to evaluate probabilistic predictions via:

  • the pinball loss of quantile regressors,
  • other strictly proper scoring rules such as Continuous Ranked Probability Score (CRPS),
  • coverage measures and width of prediction intervals,
  • reliability diagrams for different quantile levels.

We will illustrate of those concepts with concrete examples and running code.

Finally, we will illustrate why some applications need such calibrated probabilistic predictions:

  • estimating uncertainty in trip times depending on traffic conditions to help a human decision make choose among various travel plan options.
  • modeling value at risk for investment decisions,
  • assessing the impact of missing variables for an ML model trained to work in degraded mode,
  • Bayesian optimization for operational parameters of industrial machines from little/costly observations.

If time allows, will also discuss usage and limitations of Conformal Quantile Regressors as implemented in MAPIE and contrast aleatoric vs epistemic uncertainty captured by those models.

Dans un contexte de forte pression opérationnelle, l’administration française a su innover pour améliorer la qualité de service tout en optimisant ses ressources. Grâce à la plateforme d’IA développée par ATHENA Decision Systems – combinant LLM, moteur de règles et orchestration intelligente – le projet DELPHES permet de traiter plus rapidement et équitablement les demandes des usagers étrangers en préfecture.

Cette solution, fondée sur l’IA de confiance d’IBM, démontre comment l’automatisation responsable, sous supervision humaine, peut transformer des processus complexes, réduire les délais, améliorer la satisfaction client et limiter les coûts.

Un retour d’expérience concret, inspirant pour les organisations publiques comme privées, confrontées à des enjeux similaires de volume, de qualité de service et de conformité. Venez découvrir comment cette approche peut s’adapter à vos propres défis métiers.

In this talk, we present our Proof of Concept (PoC) for Cortex Analyst on Snowflake, enabling interactive queries on complex geospatial data enriched with sociodemographic, market, and infrastructure information. An AI-powered text-to-SQL interface translates natural language queries into SQL in real time, with results shown in tables and visualizations. All of this leverages Snowflake’s built-in security and governance features.

Rethink how you build open, connected, and governed data lakehouses: integrate any Iceberg REST compatible catalog to Snowflake to securely read from and write to any Iceberg table with Catalog Linked Databases. Unlock insights and AI from semi-structured data with support for VARIANT data types. And enjoy enterprise-grade security with Snowflake's managed service for Apache Polaris™, Snowflake Open Catalog.

Comment exploiter la gestion de la data pour transformer vos masses de données en décisions rapides et efficaces, et piloter une supply chain plus visible, plus réactive et parfaitement maîtrisée ? Cette session vous plonge au cœur de la révolution des supply chains pilotées par la data et l’IA, où la visibilité en temps réel et la réactivité immédiate deviennent les leviers essentiels de performance. Apprenez à analyser instantanément des volumes colossaux d’informations, détecter les inefficiences, anticiper les risques, et agir avec agilité pour garantir une supply chain fluide, résiliente et optimisée.

Au programme : des cas concrets issus de grands groupes, une vision puissante du pilotage intelligent de la supply chain à l’ère du Big Data, et une démonstration live impressionnante révélant tout le potentiel de la data combinée à l’IA au service de votre chaîne logistique.

La souveraineté des données et des intelligences artificielles est un enjeu stratégique majeur pour les entreprises et les institutions. Dans cette keynote, nous explorerons comment développer des services innovants basés sur le cloud et l'IA tout en gardant le contrôle total de vos systèmes d'information et de vos applications data. Nous mettrons en lumière les défis et les opportunités associés à la gestion sécurisée des données, à la protection de la vie privée et à l'autonomie technologique des organisations. En abordant des thèmes comme le cloud souverain, les modèles d'IA responsables, la réversibilité des solutions et l'open-source, cette présentation offrira un aperçu essentiel des solutions permettant aux acteurs du numérique de maîtriser leur avenir tout en respectant les valeurs de liberté de choix et de sécurité.

Les agents basés sur les modèles standards d'IA générative simplement contextualisés via un RAG ne peuvent relever de manière pleinement efficace les enjeux d'automatisation des tâches spécifiques dans les processus coeur de métiers. 

CGI DeepContext est une solution accélératrice pour générer rapidement des agents "business" spécialisés. Découvrez lors de cette session notre approche pour accélérer la génération de valeur et accélérer leur insertion efficiente dans les chaines de valeur métier.

CodeCommons: Towards transparent, richer and sustainable datasets for code generation model training

Built on top of Software Heritage - the largest public archive of source code - the CodeCommons collaboration is building a large-scale, meta-data rich source code dataset designed to make training AI models on code more transparent, sustainable, and fair. Code will be enriched with contextual information such as issues, pull request discussions, licensing data, and provenance. In this presentation, we will present the goals and structure of both Software Heritage and CodeCommons projects, and discuss our particular contribution to CodeCommon's big data infrastructure.