ClickHouse est conçu pour l’analytique à très grande échelle — qu’il s’agisse d’observabilité, de data warehousing ou de traitements en temps réel — tout en garantissant une latence ultra-faible. Dans cette démo, nous construirons un pipeline complet capable d’ingérer des millions d’événements par seconde — logs, métriques ou données applicatives — et de les stocker efficacement dans ClickHouse. Vous découvrirez comment modéliser des données massives, utiliser des vues matérialisées pour accélérer les agrégations, appliquer des filtres complexes à la volée, ainsi que définir des index pour optimiser les performances de vos requêtes.
talk-data.com
Topic
ClickHouse
3
tagged
Activity Trend
Top Events
Dans un monde où les volumes de données explosent et où les attentes en matière de performance analytique ne cessent de croître, construire une base de données réellement adaptée aux workloads modernes est un défi technique de taille. ClickHouse est une base de données open source orientée colonnes, conçue pour exécuter des requêtes analytiques en temps réel sur des milliards de lignes — avec une latence de l’ordre de la milliseconde.
Dans cette session technique, nous explorerons les choix architecturaux qui rendent cela possible : exécution vectorisée, stockage optimisé, traitement distribué, vues matérialisées et plus encore. Nous détaillerons aussi comment nous faisons évoluer ClickHouse au cœur de l’écosystème moderne de la donnée (cloud, IA, iceberg, observabilité) tout en restant fidèle à ses principes de performance et de simplicité.
Une plongée dans les coulisses d’un moteur analytique open source — pour répondre aux besoins d’aujourd’hui, et anticiper ceux de demain.
L’intelligence artificielle transforme la façon dont nous concevons et utilisons les plateformes de données — et les données, à leur tour, transforment l’IA.
Au croisement de ces deux mondes se trouve une synergie puissante qui redéfinit l’échelle, la performance et l’accessibilité.
Dans cette session, nous explorerons où et comment cette rencontre se produit, pourquoi elle est essentielle aujourd’hui, et quelles nouvelles possibilités elle ouvre pour l’avenir des données et de l’intelligence.