icon | description | cover | coverY |
---|---|---|---|
2 |
다양한 LLM에 대한 자료를 수집합니다. |
0 |
다양한 LLM 관련 레퍼런스를 소개합니다.
- 모델학습시 GPU 사용량 계산하는 사이트
- Open Ai : Transformer Debugger
- Langchain Visualizer
- RingAttention
- Awesome LLM Tabular
- Awesome LLM
- Awesome Korean LLM
- MiniGPT-4 (opensource)
- transformer library tutorial
- Py2Mojo
- Awesome Korean speech recognition
- Open Korean instructions
- Practical MLOps
- Embedding (ratsgo 한국어 임베딩 도서 코드)
LLM 학습에 대한 레퍼런스를 소개합니다.
- WhatsApp : Finetune a LLM to speak like you based on your WhatsApp Conversations
- KB-ALBERT : KB국민은행에서 제공하는 경제/금융 도메인에 특화된 한국어 ALBERT 언어모델
- 딥러닝 파이토치 교과서 - 입문부터 파인튜닝까지 wikidocs
- 전이학습 기반 NLP
- 자연어처리 : 토큰화
- 딥러닝을 위한 자연어 처리 입문
- SentencePiece를 이용한 효과적인 한국어 토크나이저 만들기 (예제)
- 언어모델의 말솜씨? NEFTune 한 스푼으로 업그레이드 (예제)
다양한 학습 방법론에 대한 레퍼런스를 소개합니다. (Pre-Training / Fine-Tuning)
- PPO
- RLHF (Human Feedback)
- TransformersData Augementation
- Domain Adaptation : Generative Pseudo Labeling(GPL)
- X Algorithm
- MergeKit
LLM 경량화에 대한 레퍼런스를 소개합니다.
- PEFT
- LoRA
- QLoRA
- Knwoledge Distillation
LLM Alignment에 대한 레퍼런스를 소개합니다.
- DPO
- Instruct Following
- OpenAi Alignment handbook
- LoRA Instruct
- FlashAttention : Fast and memory-efficient exact attention