Pensi che la robotica sia solo per specialisti? Scopri come addestrare il robot SO-101 con HIL-SERL e LoRA. Usando LeRobot di Hugging Face, portiamo l’AI fisica dai pixel alla realtà su GPU consumer. È il “momento Stable Diffusion” della robotica: non mancare! Avremo il robot sul palco con noi!
Costruire un robot autonomo richiede solitamente un dottorato in teoria del controllo o un budget enorme per l’acquisto di hardware industriale. Ma cosa succederebbe se potessi addestrare un braccio robotico stampabile in 3D usando la stessa logica interattiva che usiamo per insegnare agli esseri umani?
Questo talk porta un SO-101 sul palco per mostrare i risultati dei nostri esperimenti con la “Physical AI” utilizzando l’ecosistema LeRobot di Hugging Face e il robot SO-101. Supereremo l’apprendimento per imitazione statico per entrare nel mondo del Human-In-the-Loop Reinforcement Learning (HIL-SERL). A differenza del Reinforcement Learning (RL) tradizionale, che si basa su funzioni di ricompensa difficili da programmare, l’HIL-SERL permette a un operatore umano di intervenire durante la simulazione, “correggendo” gli errori del robot e addestrando un classificatore di ricompensa in tempo reale.
Percorreremo l’intero viaggio dello sviluppatore:
Che tu sia uno sviluppatore Python curioso di hardware o un appassionato di AI alla ricerca del “momento Stable Diffusion” per la robotica, questo talk fornisce una tabella di marcia per costruire agenti intelligenti e interattivi con strumenti open-source.
Cosa imparerai:
With over 25 years of experience in enterprise software development and AI engineering, I explore how artificial intelligence is transforming the way we build, learn, and live with technology. I have an old passion for Open Source and more recent one for AI Engineering.
✍️ I write two newsletters (Italian and English). 🎧 I co-host a podcast (Italian only) about AI, agents, and the future. 💻 Mantainer of the official A2A specification implementation and TCK under the Linux Foundation.