Workshop

Ricerca nell'era degli agenti AI: strumenti locali per privacy, didattica (e divertimento)

Saturday, May 30

11:05 - 13:05
RoomTigelle
LanguageItalian
Audience levelIntermediate
Elevator pitch

La ricerca non è più solo una questione di keyword, precisione e trasparenza delle fonti. Perché ci vengono mostrati certi risultati e non altri? Esploriamo insieme il funzionamento della ricerca, implementandola in pratica su una KB personale, sperimentando diversi pattern in un server MCP.

Abstract

Oggi deleghiamo la ricerca e l’organizzazione dei nostri dati al cloud, spesso sacrificando la privacy in favore dell’utilità. Questo compromesso non riguarda solo la riservatezza: i sistemi proprietari tendono a essere opachi. Come lavorano gli algoritmi che decidono cosa è “rilevante” per noi? Quali logiche seguono e perché? Quali informazioni hanno a disposizione e quali no?

In questo workshop metteremo “le mani in pasta” nella ricerca moderna per riappropriarci dei nostri dati. Partendo da una Knowledge Base locale in Markdown, costruiremo un sistema di ricerca trasparente, modulare e local-first, creando tool MCP con Python.

Cosa faremo Esploreremo diversi approcci alla ricerca (keyword, BM25, embeddings) valutando pro e contro di ciascuno in base al caso d’uso. Implementeremo un endpoint MCP, scelto per la sua capacità di interfacciarsi in modo standardizzato con qualsiasi sistema (LLM locali, agenti o client personalizzati), raffinando via via l’intelligenza del recupero informazioni.

Programma dettagliato (120 minuti)

  • [30m] Setup e “Hello MCP”: Configurazione dell’ambiente e creazione del primo endpoint di ricerca. Partiamo da subito con una interfaccia standard :)
  • [20m]. Approcci alla ricerca: Panoramica su ricerca lessicale (BM25), metadati ed embeddings. Come scegliere l’approccio più promettente?
  • [40m] Implementazione e Refining: Creazione di nuovi endpoint, abilitando ricerca via via più “intelligente”
  • [30m] Trasparenza e “Bring Your Own LLM”: Collegamento degli endpoint a un client esterno, analisi dei risultati e cenni a tracciamento delle fonti e

Requisiti per i partecipanti Per trarre il massimo dal workshop, è richiesta una buona conoscenza di Python e familiarità con Git e Docker.

Tool necessari:

  • Python 3.11+, Git e Docker installati.
  • Un editor di testo (VS Code consigliato).
  • (Opzionale) Una cartella di file Markdown personali (appunti, documentazione). Molto meglio conoscerla bene, sarà più facile valutare i risultati :)
  • (Opzionale) Ollama installato per chi desidera usare LLM completamente in locale.
TagsEducation, Algorithms and Data Structures, Applications and Libraries
Participant

Ruggerini

I work on changing the way people find and organize suppliers at soource.com. I bridge the gap between ‘old school’ Data Science techniques and the new world of Retrieval and LLMs.

Beyond the screen, I’m a reader and outdoor enthusiast, though these days most of my steps are earned chasing after my two toddlers.