
목적: 적은 수의 학습 sample 만 사용해도 새로운 learning task를 해결하는 것
ML 모델을 실제로 적용하는 과정
→ 좋은 모델을 사용해도 학습이 잘 이뤄지지 않는 경우가 많음
초기 parameter를 몇 번의 update 만으로 max performance를 발휘할 수 있도록 한다.
다른 task를 위해 학습된 AI 모델을 이용해서, 적은 dataset을 갖는 다른 Task도 잘 수행할 수 있도록 학습 시키는 방식
Task function T = {L(x₁; a₁; ... ; xH; aH); q(x₁); q(xₜ₊₁|xₜ; aₜ); H}
<aside> 💬 L: loss function
q(x₁): initial distribution
q(xₜ₊₁|xₜ; aₜ): transition distribution
H: episode leangth (i.i.d & H = 1 → supervised learning)
</aside>


<aside> 💡 key idea 어떠한 internal representaions 보다 더 빨리 adapt할 수 있는 representation이 존재할 것이다.
</aside>