Extracting information from documents with specialized LLMs
Création de LLMs et d'extraction d'information et de documents
Event
Activities tracked
19
Sessions & talks
Showing 1–19 of 19 · Newest first
Création de LLMs et d'extraction d'information et de documents
Et si votre stratégie IA apportait enfin des résultats concrets?
À la croisée du GraphRAG, de l’IA agentique et des graphes de connaissances, Graphwise aide les entreprises à mettre en place des systèmes performants, pilotés par les données et orientés métier.
Du support client intelligent dans l’industrie et le logiciel, à l’aide à la décision en production pharmaceutique, en passant par le contrôle automatisé de la conformité : nous partagerons des cas d’usage concrets, alignés sur des indicateurs métier clairs et basés sur une structuration fine de l'information.
Vous découvrirez une approche complète qui associe la création de graphes assistée par LLM, leur exploitation par le GraphRAG et des méthodes de mesure rigoureuses - pour bâtir une IA plus fiable, plus utile et plus évolutive.
Participez à notre démonstration live de Build Your Graph et voyez comment automatisation, sémantique et impact métier s’alignent dans une solution unifiée.
Avec Starburst, découvrez comment transformer vos architectures data et exploiter pleinement le potentiel de vos données grâce aux data products et aux agents IA.
Dans cette session, vous découvrez comment :
*Partager et interroger vos données entre environnements on-premises, hybrides ou multi-clouds, en langage naturel via des agents IA et avec vos propres modèles LLM.
*Transformer des données brutes et inaccessibles en données exploitables, gouvernées et prêtes à l’emploi, enrichies et accessibles grâce aux data products et aux agents IA.
*Accélérer l’innovation et la prise de décision, et instaurer une culture de démocratisation de la donnée où chacun peut en extraire plus de valeur.
Le résultat : plus d’agilité et une organisation où la donnée devient un véritable levier d’innovation.
Starburst est une plateforme de données qui permet de construire un data lakehouse moderne (au format Iceberg par exemple), gouverner vos données et vos modèles LLM, et accéder ou fédérer toutes les sources de données, où qu’elles se trouvent.
• TotalEnergies et Mistral AI se sont associés en juin 2025 pour étendre l’utilisation de l’IA afin d’améliorer la performance des activités de TotalEnergies, notamment dans le domaine des énergies bas carbone
• Les partenaires ont créent un laboratoire d’innovation commun centré sur l’intelligence artificielle, dans lequel Mistral AI met à disposition ses technologies d’IA et TotalEnergies apporte son expertise et son savoir-faire dans la production d’énergies, notamment renouvelable et bas carbone, afin de tester et concevoir des solutions digitales avancées.
• Les premiers cas d’usage visent à :
o concevoir un assistant pour les 1000 chercheurs de TotalEnergies, afin de les accompagner dans leur mission de développement des nouvelles énergies et de baisse de l’empreinte environnementale de la Compagnie ;
o développer des solutions d'aide à la décision pour améliorer la performance de ses actifs industriels et réduire ses émissions de CO2
o mettre en place des solutions d’assistance destinées à améliorer l’expérience de ses clients et à les accompagner dans la réduction de leur consommation énergétique.
• Face aux enjeux européens de souveraineté numérique, TotalEnergies et Mistral AI étudient aussi les opportunités d’intégration d’infrastructure IA pour TotalEnergies, afin de contribuer au développement d’un écosystème technologique européen.
Déployer des agents IA en production pose trois défis : la sécurité des données, la souveraineté de l’infrastructure et la fiabilité des résultats.
Avec le AI Model Hub de IONOS, vous accédez à des modèles open source via une API OpenAI-compatible, stateless et opérée en Europe, garantissant conformité et souveraineté.
Découvrez un exemple concret de système multi-agents qui combine LLMs, accès à des sources variées, utilisation d'outils, étapes de processing et mécanismes de sélection pour fournir des réponses fiables et contextualisées.
La plateforme NORMA, disponible en version open source, vient évaluer chaque étape (extraction, classification, génération) pour détecter faiblesses ou régressions, et garantir un comportement sûr.
Ses capacités de batch testing et d'intégration continue permettent de comparer vos versions, suivre la qualité dans le temps et bloquer toute régression avant mise en production.
En combinant l'infrastructure souveraine de IONOS et l’évaluation continue de NORMA, vous obtenez un pipeline robuste pour transformer vos PoC en solutions IA fiables et sécurisées!
Prevent hallucinations and vulnerabilities in LLM agents Learn how continuous Red Teaming can protect your LLM agents from emerging threats like hallucinations and data leakage. We'll present how enterprises can automate security evaluation, detect vulnerabilities before they become incidents, and ensure continuous protection of AI agents.
ILLUIN Technology accompagne AXA Health dans le développement d’un outil innovant de détection des signaux faibles d’inflation médicale, basé sur l’analyse et la synthèse automatique d’articles de presse.
En quelques mois, un MVP a été co-construit pour identifier les événements susceptibles de générer des hausses inattendues des dépenses de santé dans le futur avec une architecture GraphRAG. Une évaluation hybride (feedback métier & LLM-as-a-judge) a été mise en place pour intégrer les retours métiers efficacement.
En 20 minutes, seront présentés :
- Les apports du GraphRAG pour la détection d’événements complexes
- Les méthodes d’évaluation combinant expertise métier et intelligence artificielle
- Les perspectives d’extension : intégration de nouvelles sources (Twitter/X, tendances Google, données quantitatives) et connexion aux données de portefeuille
Pourquoi venir ?
Pour découvrir comment une approche IA générative et co-construite permet à un acteur majeur de l’assurance de :
- Anticiper les risques liés à l’inflation médicale
- Améliorer l’efficacité opérationnelle de ses analystes
- Poser les bases d’une industrialisation sécurisée et souveraine
Découvrez comment Bouygues Telecom réinvente le parcours de vente grâce à l'IA. En intégrant les technologies Gemini et Agent Builder au cœur de leur SI, ByTel offre une expérience client enrichie et personnalisée à grande échelle pour l'ensemle des profils clients.
Découvrez comment la collaboration entre les équipes métiers et IT devient un levier d’innovation puissant, tout en respectant les obligations de gouvernance et sécurité. À travers des cas concrets, nous montrerons comment les business users peuvent intégrer sans code de la GenAI dans leurs processus d’analyse de donnée pour gagner en efficacité et aborder des use cases innovants. Tout cela ponctué par une vue pour l’IT qui doit s’assurer d’une utilisation responsable des modèles LLM.
Une session inspirante pour vos futurs projets data & IA!
Mettre en place un RAG (Retrieval-Augmented Generation) semble simple : connecter un LLM à une base documentaire et obtenir des réponses enrichies. Mais lorsqu’il s’agit de gérer des millions de documents, comme le font certains clients de Hymalaia comme Zenchef, la réalité est tout autre : un RAG qui fonctionne vraiment demande une ingénierie avancée et une architecture robuste. Le RAG avancé couple la puissance des LLM à des moteurs de recherche intelligents pour offrir pertinence, traçabilité et fiabilité. Dans ce talk, Cédric Carbone expliquera les fondements clés : multipass d’indexation, hybridation des algorithmes, reranking et stratégies anti-biais. Il illustrera ensuite ces principes avec un cas concret : Hymalaia, la solution SaaS de création et de déploiement d’agents IA conversationnels augmentés. Vous verrez comment un RAG bien conçu transforme un LLM en véritable outil de confiance pour la décision et l’action, capable de passer à l’échelle de vos données.
A l’occasion de cette démo, en partant d’une page blanche et de différentes sources de données, nous irons jusqu’à déployer une application Data Analytics augmentée par des LMM en utilisant ces deux produits lancés par OVHcloud en 2025.
OVHcloud DataPlatform : une solution unifiée et permettant vos équipes de gérer en self-service de bout en bout vos projets Data & Analytics : de la collecte de tous types de données, leur exploration, leur stockage, leurs transformations, jusqu’à la construction de tableaux de bords partagés via des applications dédiées. Une service pay-as-you-go pour accélérer de déploiement et simplifier la gestion des projets Data.
AI Endpoints : une solution serverless qui permet aux développeurs d’intégrer facilement des fonctionnalités d'IA avancées à leurs applications. Grâce à plus de 40 modèles open-source de pointe incluant LLM et IA générative – pour des usages comme les agents conversationnels, modèles vocaux, assistants de code, etc. - AI Endpoints démocratise l’utilisation de l'IA, indépendamment de la taille ou du secteur de l'organisation.
Et cela en s’appuyant sur les meilleurs standards Data open-source (Apache Iceberg, Spark, SuperSet, Trino, Jupyter Notebooks…) dans des environnements respectueux de votre souveraineté technologique.
L’objectif de cet atelier sera de présenter un outil, basé sur un LLM, développé conjointement entre l'Unédic et Artik Consulting, qui permet d'évaluer la conformité d'une application d'IA à l'AI Act. Les concepteurs de cette solution vous en présenteront les enjeux, les solutions technologiques retenues et les raison de ces choix, ainsi que les résultats obtenus, notamment le formulaire d'évaluation.
Et si nous parlions qualités - et non pas qualité - de la donnée ?
Et si vos données devenaient vraiment intelligentes ?
Au croisement de l’IA générative, des agents autonomes et des graphes de connaissances, Neo4j révèle une nouvelle dimension de performance en assurant des réponses précises et contextualisées. En structurant les relations entre vos données et en intégrant RAG (Retrieval-Augmented Generation), Neo4j réduit les hallucinations des LLM, renforce la pertinence des réponses et décuple vos capacités de décision.
Venez découvrir comment cette alliance révolutionne les workflows IA, et pourquoi Neo4j devrait être le socle de votre stratégie IA.
Le processus d’allocation des coûts dans Alteryx s’appuie sur des workflows automatisés pour répartir avec précision les coûts des ETP entre les centres d’activités, selon des critères prédéfinis tels que les effectifs ou les volumes, en respectant des règles spécifiques d’allocation des coûts et de calcul des KPI.
1. Ingestion et préparation des données
Alteryx se connecte à plusieurs sources (par exemple, ERP, CRM, stockage cloud) pour extraire les données liées aux ETP, aux coûts et aux volumes. Le processus agrège, prépare et aligne ces ensembles de données disparates afin de créer une base de coûts unifiée.
2.Amélioration de la qualité des données
Des règles de transformation dynamiques sont appliquées pour garantir la cohérence, supprimer les doublons, gérer les valeurs manquantes et standardiser les types de données. Des outils de profilage des données offrent une visibilité sur les anomalies et valeurs aberrantes susceptibles d’impacter la logique d’allocation.
3. Logique d’allocation des coûts
Cela permet de définir des règles d’allocation flexibles et des étapes de validation — allant de ratios simples à des règles dynamiques dictées par les besoins métiers — en fonction des moteurs de coûts, ETP et volumes, pour garantir l’exactitude des calculs de KPI.
4. Intégration de l’IA générative
Les fonctions d’IA générative (par exemple via OpenAI ou les outils Gen AI d’Alteryx) renforcent le workflow en permettant :
La génération automatique de schémas de données adaptés à un format cible.
L’assistance via un outil Copilot pour créer des transformations à partir d’instructions en langage naturel.
La création de règles d’allocation dynamiques.
5. Sortie et visualisation
Les allocations finales peuvent être exportées vers des outils de reporting, des tableaux de bord ou des data lakes. Les utilisateurs peuvent consulter des synthèses d’allocation, des écarts et des vues détaillées pour appuyer la prise de décision via des applications analytiques personnalisées.
Dans un contexte où 50 % des véhicules sur les routes en 2040 seront encore thermiques ou hybrides, la robustesse des systèmes reste une exigence clé.
La complexité des groupes motopropulseurs hybrides multiplie les modes de défaillance potentiels. Pour garantir un bon niveau de qualité, une solution IA développée avec Altair accélère l’analyse des problèmes et permet de doubler le nombre de cas traités. Elle classe automatiquement les défaillances connues et assiste les experts via un LLM pour les cas complexes : les données proviennent des garages (pièces, ressentis client, diagnostics). Grâce à la solution low-no code Altair RapidMiner, les experts qualité peuvent adapter l’algorithme sans programmation.
Horse Technologies est une entreprise née de Renault, avec plus de 125 ans d’expertise dans les systèmes de groupes motopropulseurs. Elle fait désormais partie de Horse Powertrain, la JV créée par Renault, Geely et Aramco.
Dans un contexte de forte pression opérationnelle, l’administration française a su innover pour améliorer la qualité de service tout en optimisant ses ressources. Grâce à la plateforme d’IA développée par ATHENA Decision Systems – combinant LLM, moteur de règles et orchestration intelligente – le projet DELPHES permet de traiter plus rapidement et équitablement les demandes des usagers étrangers en préfecture.
Cette solution, fondée sur l’IA de confiance d’IBM, démontre comment l’automatisation responsable, sous supervision humaine, peut transformer des processus complexes, réduire les délais, améliorer la satisfaction client et limiter les coûts.
Un retour d’expérience concret, inspirant pour les organisations publiques comme privées, confrontées à des enjeux similaires de volume, de qualité de service et de conformité. Venez découvrir comment cette approche peut s’adapter à vos propres défis métiers.