talk-data.com talk-data.com

Topic

retrieval augmented generation

1

tagged

Activity Trend

1 peak/qtr
2020-Q1 2026-Q1

Activities

Showing filtered results

Filtering by: Laurent Picard ×

Les grands modèles de langage (LLM) ont révolutionné la résolution de problèmes en langue naturelle, mais connaissez-vous leurs limites ? Les LLM ont des tailles de contexte variant considérablement, allant de quelques milliers à plusieurs millions de tokens, mais que cela implique-t-il concrètement ?

Dans cette session, nous aborderons les points suivants via exemples illustrés et démos :

Qu’est-ce que la fenêtre de contexte d’un LLM ?

Quelle est la relation entre données, tokens, performances et coûts ?

En pratique, comment peut-on pousser les LLM dans leurs limites ?

Quels sont les cas d’usage uniquement résolus grâce à un long contexte ?

Quelles sont les différences avec une approche RAG (Retrieval Augmented Generation) ?