talk-data.com talk-data.com

Topic

Iceberg

Apache Iceberg

table_format data_lake schema_evolution file_format storage open_table_format

206

tagged

Activity Trend

39 peak/qtr
2020-Q1 2026-Q1

Activities

206 activities · Newest first

dbt Mesh allowed for monolithic dbt projects to be broken down into more consumable and governed smaller projects. Now, learn how cross-platform mesh will allow you to take this one step further with development across data platforms using Iceberg tables. After this course you will be able to: Identify ideal use cases dbt Mesh Configure cross-project references between data platforms Navigate dbt Catalog Prerequisites for this course include: dbt Fundamentals, specifically data models and building model dependencies dbt Model governance Various data platforms What to bring: You will need to bring your own laptop to complete the hands-on exercises. We will provide all the other sandbox environments for dbt and data platform. Duration: 2 hours Fee: $200 Trainings and certifications are not offered separately and must be purchased with a Coalesce pass Trainings and certifications are not available for Coalesce Online passes

Excited to try out cutting-edge Snowflake features, but don’t have the time to do it? Join us to learn how you can create and automate anything in Snowflake with just a few clicks – no coding required.

Find out how you can take advantage of your favorite capabilities like Snowflake Cortex, Iceberg Tables and more in your next data project, while creating more time in your day for innovation. This lab offers a crash course in how to build data pipelines in minutes with Coalesce’s data transformation platform.

You’ll learn how to:

•Speed up development by 10x with ready-made templates for common data transformations •Accelerate AI- and ML-focused innovation by operationalizing Snowflake Cortex in your data pipelines •Simplify the process of using Dynamic Tables, Streams & Tasks, Materialized Views, Snowflake external data loading with Snowpark, and more For the best experience, please sign up for a Snowflake trial account before the event. Once you’ve activated your Snowflake account, create a Coalesce trial account via Snowflake’s Partner Connect portal. 

Join our exclusive Community Session with Daniel Myers! In this 30-minute talk, Daniel will walk you through Apache Iceberg v3 and the key features every practitioner should know. He’ll break down the latest updates in the spec, explain what they mean for real-world workloads, and highlight how they open up new opportunities for data teams. Whether you’re just starting with Iceberg or already deep in production, this session will give you practical insights you can take straight back to your projects.

Explore how Snowflake and Microsoft collaborate to transform data and AI workflows. Learn to operate on a single data copy between Microsoft Fabric OneLake and Snowflake via Apache Iceberg, eliminating duplication. Discover Real-Time RAG AI Agents that integrate Snowflake's trusted data and enterprise systems for instant Microsoft Copilot responses, without copying data. Unlock Real-Time Actions using PowerApps with live query and writeback to Snowflake, all with no code. Simplify and innovate with these powerful tools.

Apache Iceberg™ fournit une norme de stockage ouverte qui peut démocratiser vos données stockées dans des data lakes distincts en offrant la liberté et l'interopérabilité d'utiliser divers moteurs de traitement de données. Rejoignez cette session pour explorer les dernières avancées de Snowflake pour le data engineering sur les tables Iceberg de Snowflake. Nous plongerons dans les fonctionnalités récemment lancées qui améliorent l'interopérabilité et apportent la facilité d'utilisation de Snowflake à vos data lakes Iceberg.

Apprenez à stimuler la collaboration au sein de votre écosystème grâce aux dernières nouveautés de Snowflake Horizon Catalog, y compris External Data Discovery, pour trouver en quelques clics des données à la fois dans Snowflake et à partir de systèmes externes. Découvrez des démonstrations des dernières mises à jour de la Marketplace Interne, y compris Organization Profiles and Request for Access, pour rationaliser et accélérer le partage de données, d'applications et d'IA. Enfin, découvrez comment Iceberg Data Sharing et l'Egress Cost Optimizer peuvent augmenter l'interopérabilité et la disponibilité des données tout en réduisant vos coûts de partage de données.

Avec Starburst, découvrez comment transformer vos architectures data et exploiter pleinement le potentiel de vos données grâce aux data products et aux agents IA.

Dans cette session, vous découvrez comment :

*Partager et interroger vos données entre environnements on-premises, hybrides ou multi-clouds, en langage naturel via des agents IA et avec vos propres modèles LLM.

*Transformer des données brutes et inaccessibles en données exploitables, gouvernées et prêtes à l’emploi, enrichies et accessibles grâce aux data products et aux agents IA.

*Accélérer l’innovation et la prise de décision, et instaurer une culture de démocratisation de la donnée où chacun peut en extraire plus de valeur.

Le résultat : plus d’agilité et une organisation où la donnée devient un véritable levier d’innovation.

Starburst est une plateforme de données qui permet de construire un data lakehouse moderne (au format Iceberg par exemple), gouverner vos données et vos modèles LLM, et accéder ou fédérer toutes les sources de données, où qu’elles se trouvent.

Advanced Snowflake

As Snowflake's capabilities expand, staying updated with its latest features and functionalities can be overwhelming. The platform's rapid development gave rise to advanced tools like Snowpark and the Native App Framework, which are crucial for optimizing data operations but may seem complex to navigate. In this essential book, author Muhammad Fasih Ullah offers a detailed guide to understanding these sophisticated tools, ensuring you can leverage the full potential of Snowflake for data processing, application development, and deploying machine learning models at scale. You'll gain actionable insights and structured examples to transform your understanding and skills in handling advanced data scenarios within Snowflake. By the end of this book, you will: Grasp advanced features such as Snowpark, Snowflake Native App Framework, and Iceberg tables Enhance your projects with geospatial functions for comprehensive geospatial analytics Interact with Snowflake using a variety of programming languages through Snowpark Implement and manage machine learning models effectively using Snowpark ML Develop and deploy applications within the Snowflake environment

Learn how Trade Republic builds its analytical data stack as a modern, real-time Lakehouse with ACID guarantees. Using Debezium for change data capture, we stream database changes and events into our data lake. We leverage Apache Iceberg to ensure interoperability across our analytics platform, powering operational reporting, data science, and executive dashboards.

Dans un paysage des données en constante évolution, les organisations sont de plus en plus contraintes de maintenir le contrôle et la souveraineté de leurs données. Après une brève introduction à Apache Iceberg et Apache Polaris (Incubation), cette session explorera un cas d'utilisation concret démontrant comment ces technologies peuvent alimenter une plateforme de données robuste et axée sur la gouvernance. Nous explorerons des stratégies pour sécuriser l'accès aux données, discuterons des prochaines fonctionnalités de la feuille de route, telles que RBAC, FGAC et ABAC, et montrerons comment créer des extensions personnalisées pour adapter la gouvernance aux besoins de votre organisation.

A l’occasion de cette démo, en partant d’une page blanche et de différentes sources de données, nous irons jusqu’à déployer une application Data Analytics augmentée par des LMM en utilisant ces deux produits lancés par OVHcloud en 2025.

OVHcloud DataPlatform : une solution unifiée et permettant vos équipes de gérer en self-service de bout en bout vos projets Data & Analytics : de la collecte de tous types de données, leur exploration, leur stockage, leurs transformations, jusqu’à la construction de tableaux de bords partagés via des applications dédiées. Une service pay-as-you-go pour accélérer de déploiement et simplifier la gestion des projets Data.

AI Endpoints : une solution serverless qui permet aux développeurs d’intégrer facilement des fonctionnalités d'IA avancées à leurs applications. Grâce à plus de 40 modèles open-source de pointe incluant LLM et IA générative – pour des usages comme les agents conversationnels, modèles vocaux, assistants de code, etc. - AI Endpoints démocratise l’utilisation de l'IA, indépendamment de la taille ou du secteur de l'organisation.

Et cela en s’appuyant sur les meilleurs standards Data open-source (Apache Iceberg, Spark, SuperSet, Trino, Jupyter Notebooks…) dans des environnements respectueux de votre souveraineté technologique.

Dans un monde où les volumes de données explosent et où les attentes en matière de performance analytique ne cessent de croître, construire une base de données réellement adaptée aux workloads modernes est un défi technique de taille. ClickHouse est une base de données open source orientée colonnes, conçue pour exécuter des requêtes analytiques en temps réel sur des milliards de lignes — avec une latence de l’ordre de la milliseconde.

Dans cette session technique, nous explorerons les choix architecturaux qui rendent cela possible : exécution vectorisée, stockage optimisé, traitement distribué, vues matérialisées et plus encore. Nous détaillerons aussi comment nous faisons évoluer ClickHouse au cœur de l’écosystème moderne de la donnée (cloud, IA, iceberg, observabilité) tout en restant fidèle à ses principes de performance et de simplicité.

Une plongée dans les coulisses d’un moteur analytique open source — pour répondre aux besoins d’aujourd’hui, et anticiper ceux de demain.

L’architecture data lakehouse est devenue la référence pour passer d’une BI “classique” centrée sur des bases analytiques à une plateforme de données unifiée, ouverte et évolutive, capable de supporter à la fois l’analytique moderne et l’IA/ML. Mais sa mise en œuvre reste exigeante (ingestion, optimisation, gouvernance).

Cette session montre comment Qlik Open Lakehouse intègre Apache Iceberg dans votre infrastructure pour bâtir un lakehouse gouverné, opérationnel, sans complexité.

À la clé : time-to-value accéléré, TCO réduit, interopérabilité ouverte sans vendor lock-in.

Un socle fiable qui aligne IT & métiers et propulse analytique et IA à l’échelle.

Vous souhaitez en savoir plus ? Toute l'équipe Qlik vous donne rendez-vous sur le stand D38 pour des démos live, des cas d'usage et des conseils d'experts.

Rethink how you build open, connected, and governed data lakehouses: integrate any Iceberg REST compatible catalog to Snowflake to securely read from and write to any Iceberg table with Catalog Linked Databases. Unlock insights and AI from semi-structured data with support for VARIANT data types. And enjoy enterprise-grade security with Snowflake's managed service for Apache Polaris™, Snowflake Open Catalog.

Apache Iceberg provides an open storage standard that can democratize your data stored in disparate data lakes by providing freedom and interoperability to use various data processing engines. Join this session to explore Snowflake’s latest advancements for data engineering on Snowflake Iceberg Tables. We’ll dive into newly launched features that enhance interoperability as well as bring Snowflake’s ease of use to your Iceberg data lakes.

Explore how Snowflake and Microsoft collaborate to transform data and AI workflows. Learn to operate on a single data copy between Microsoft Fabric OneLake and Snowflake via Apache Iceberg, eliminating duplication. Discover Real-Time RAG AI Agents that integrate Snowflake's trusted data and enterprise systems for instant Microsoft Copilot responses, without copying data. Unlock Real-Time Actions using PowerApps with live query and writeback to Snowflake, all with no code. Simplify and innovate with these powerful tools.

Data leaders today face a familiar challenge: complex pipelines, duplicated systems, and spiraling infrastructure costs. Standardizing around Kafka for real-time and Iceberg for large-scale analytics has gone some way towards addressing this but still requires separate stacks, leaving teams to stitch them together at high expense and risk.

This talk will explore how Kafka and Iceberg together form a new foundation for data infrastructure. One that unifies streaming and analytics into a single, cost-efficient layer. By standardizing on these open technologies, organizations can reduce data duplication, simplify governance, and unlock both instant insights and long-term value from the same platform.

You will come away with a clear understanding of why this convergence is reshaping the industry, how it lowers operational risk, and advantages it offers for building durable, future-proof data capabilities.