2026년 4월 27일VLA[실습] VLA 이전의 시간 — Self-Attention·ViT·CLIP을 직접 굴려보기1편에서 다룬 Transformer·ViT·CLIP을 PyTorch와 HuggingFace로 직접 실행해 봅니다. 모델 다운로드부터 결과 해석까지.
2026년 4월 27일VLAVLA 이전의 시간 — Transformer·ViT·CLIP·Decision TransformerVLA가 등장하기 전, 비전·언어·강화학습이 어떻게 트랜스포머라는 한 무대로 모이게 됐는지 4편의 논문을 일상 비유와 함께 천천히 풀어봅니다.
2026년 4월 27일VLA모방학습의 시작 — BC-Z, Gato, RT-1사람의 시연을 따라하는 로봇 정책이 어떻게 트랜스포머와 결합해 점점 더 일반화 가능한 정책으로 자라났는지를 세 편의 논문으로 따라갑니다.
2026년 4월 27일VLA[실습] 정밀 모방학습 — ACT·Diffusion Policy를 LeRobot으로3편의 ACT와 Diffusion Policy를 LeRobot으로 직접 굴려봅니다. PushT·ALOHA 시뮬레이션에서 사전학습 모델로 행동을 생성하고 결과를 영상으로 저장합니다.
2026년 4월 27일VLA정밀 모방학습의 두 길 — ACT, Diffusion Policy, Mobile ALOHART-1 시기까지의 모방학습이 풀지 못한 정밀한 양손 작업과 행동 다양성 문제를, ACT와 Diffusion Policy가 어떻게 푸는지 살펴봅니다.
2026년 4월 27일VLAVLA가 정식으로 등장하다 — PaLM-E, RT-2, RoboCat거대 VLM의 인터넷 지식이 로봇 정책에 흘러들어오면서 VLA라는 이름이 자리잡는 순간을, 세 편의 2023년 논문으로 짚어봅니다.
2026년 4월 27일VLA[실습] OpenVLA로 VLA 직접 만져보기5편의 OpenVLA를 SimplerEnv 시뮬레이터에서 추론하고, LoRA로 finetune까지 해봅니다. RTX 4090 한 장 기준 가이드.
2026년 4월 27일VLA오픈소스가 따라잡다 — Open X-Embodiment, Octo, OpenVLA, RDT-1B비공개로 시작한 VLA를 학계와 오픈소스 커뮤니티가 어떻게 따라잡으며 모두의 것으로 만들었는지를 데이터·모델·코드 세 축에서 살펴봅니다.
2026년 4월 27일VLA[실습] π₀ 행동 생성을 LeRobot으로6편의 π₀를 LeRobot으로 직접 굴려봅니다. PaliGemma 백본 위 flow matching action expert가 만드는 행동을 시뮬레이션에서 확인하고, 노이즈에서 행동이 만들어지는 과정을 시각화합니다.