요새 랭체인을 공부중이다. 근데 저에겐 3090 only one,, 당연히 그래서 원랜 서버 대여할랬는데 생각해보니모델이 하도 크니까 quantization 모델들이 많이 나오지 않을까 싶어 찾아봤더니 역시나bitsandbytes도 물론이지만 여러모로 방법이 있는듯했다 각설하고 우선 제가 지나친 과정을 설명해보도록 하겠습니당 !! 1. Dependency 부터 설치!pip install -q -U bitsandbytes!pip install -q -U git+https://github.com/huggingface/transformers.git!pip install -q -U git+https://github.com/huggingface/peft.git!pip install -q ..