반응형
DeepSeek-R1을 PC에 설치하고 실행하는 방법을 단계별로 설명해 드리겠습니다.
1. DeepSeek-R1 설치를 위한 사전 준비
필수 사항
- 운영체제: Windows (WSL2 필요), Linux, macOS
- Python: 3.8 이상
- CUDA (NVIDIA GPU 사용 시): 11.8 이상
- PyTorch: 최신 버전 (GPU 사용 시 CUDA 버전과 호환 확인 필요)
2. DeepSeek-R1 저장소 클론 및 환경 설정
① GitHub에서 DeepSeek-R1 코드 다운로드
터미널 또는 명령 프롬프트에서 아래 명령어를 실행합니다.
git clone https://github.com/deepseek-ai/DeepSeek-R1.git
cd DeepSeek-R1
② 가상 환경 생성 및 활성화 (선택 사항)
Python 가상 환경을 사용하여 설치하는 것이 좋습니다.
python -m venv venv
source venv/bin/activate # (Windows에서는 venv\Scripts\activate)
③ 필수 패키지 설치
pip install -r requirements.txt
3. 모델 다운로드
① DeepSeek-R1 모델 파일 다운로드
DeepSeek의 공식 Hugging Face 저장소에서 모델을 다운로드합니다.
pip install huggingface_hub
huggingface-cli download deepseek-ai/deepseek-r1-7b
만약 다운로드 속도가 느리다면, VPN을 사용하거나, 직접 Hugging Face에서 수동 다운로드 후 models 폴더에 넣을 수 있습니다.
4. DeepSeek-R1 실행
① 기본 실행
아래 명령어를 실행하면 DeepSeek-R1을 기본 환경에서 실행할 수 있습니다.
python run.py --model deepseek-ai/deepseek-r1-7b
② 로컬 API 서버로 실행
FastAPI를 사용하여 API 서버로 실행할 수도 있습니다.
uvicorn api:app --host 0.0.0.0 --port 8000
웹 브라우저에서 http://localhost:8000/docs에 접속하여 API를 테스트할 수 있습니다.
5. GPU 사용 설정
만약 NVIDIA GPU를 사용한다면 PyTorch가 CUDA를 사용할 수 있도록 설정해야 합니다.
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
그 후, run.py 실행 시 --device cuda 옵션을 추가합니다.
python run.py --model deepseek-ai/deepseek-r1-7b --device cuda
6. 테스트 및 활용
DeepSeek-R1이 정상적으로 설치되었다면 터미널에서 직접 질의할 수 있습니다.
from deepseek import DeepSeekModel
model = DeepSeekModel("deepseek-ai/deepseek-r1-7b")
response = model.generate("What is the capital of France?")
print(response)
출력 예시: "The capital of France is Paris."
이제 DeepSeek-R1이 PC에서 실행되도록 설정되었습니다!
추가적인 커스텀 모델 적용이나, 웹 인터페이스 개발 등도 가능합니다.
설치 중 오류가 발생하면 로그를 확인해 주세요! 🚀
반응형
'데이터 > IT 조금 전문적으로' 카테고리의 다른 글
LLM (Large Language Model, 대규모 언어 모델) 이란 무엇인가? (0) | 2025.02.20 |
---|---|
DeepSeek 사용 가능 환경표 (0) | 2025.02.20 |
홈페이지에 게시판 기능 추가하기 (2) | 2025.02.07 |
유튜브 알고리즘 초기화(청소) 방법: 원하지 않는 추천 영상 없애기 (0) | 2025.02.05 |
그래픽 카드 구매 시 반드시 고려해야 할 요소들 (0) | 2025.02.04 |