LLM
Autoregressive Model
GPT는 대표적인 Autoregressive Model
입니다.
예를들어,
- '나는 학교에' -> GPT [다음 단어 예측]
'가방을'(70%), '밥을(30%)'
- '나는 학교에 가방을' -> GPT [다음 단어 예측]
'가지러(70%)', '매고(30%)' ...
이런 식으로 진행되는 모델이 `Autoregressive Model`입니다.
Scaling Laws
언어 모델을 키웠더니 모델에 따로 추가 학습을 하지 않아도 번역
, 감정 분류
등의 기술들이 알아서 생김 -> 점점 더 큰 모델을 생성
Instruction tuning
지시된 텍스트를 이해하여 지시한 작업을 수행 -> 그냥 다음 단어의 무작위로 연결하여 예측(생성)이 아닌 지시한 작업을 수행
RLHF(Reinforce Learning from Human Feedback)
GPT_A, GPT_B를 사람의 평가를 통해 조금 더 사람이 보기 좋는 텍스트에 좋은 점수를 줘서 보다 나은 글이 생성됨.
중요 나중에 자세하게 추가 예정
- 언어 모델이 자가 학습의 기반이 되는 기술(언어를 생성하고 그것을 모델이 평가함)