<aside>
📌 이번 차수 계획
일시: 2023년 10~12월 매주 화요일 6시
장소: 한양대학교 IT/BT관 510-1호
발표자: (김강산, 차지이, 윤예진, 강덕영, 서동건, 이강민, 이정연, 김창현) X 2회
발표 방법: 자료는 영어로 작성, 발표는 한국어/영어 자유
발표 주제: 자유 발제
</aside>
향후 참고할만한 논문 정리
Fundation Models
Instruction Fine-Tuning (with Open LLMs)
- Alpaca
- Vicuna (trained on ShareGPT, Vicuna testset)
- WizardLM: Empowering Large Language Models to Follow Complex Instructions
- Instruction tuning dataset: Evol-Instruct
- Model: WizardLM
- Testset: Evol-Instruct testset
- Orca, Orca 2
Prompt Optimization, Chain-of-Thought-like
- Automatic Prompt Optimization with “Gradient Descent” and Beam Search (APO)
- Large Language Models Understand and Can Be Enhanced by Emotional Stimuli
Multilingualism
Schedule