쪼꼬만 지식 가게

Tiny Wisdom Saves You!

Tiny Wisdom saves You!

데이터/IT 조금 전문적으로

DeepSeek-R1 개인 PC에 설치하여 사용하기

쪼꼬만 아저씨 2025. 2. 20. 16:42
반응형

DeepSeek-R1을 PC에 설치하고 실행하는 방법을 단계별로 설명해 드리겠습니다.


1. DeepSeek-R1 설치를 위한 사전 준비

필수 사항

  • 운영체제: Windows (WSL2 필요), Linux, macOS
  • Python: 3.8 이상
  • CUDA (NVIDIA GPU 사용 시): 11.8 이상
  • PyTorch: 최신 버전 (GPU 사용 시 CUDA 버전과 호환 확인 필요)

2. DeepSeek-R1 저장소 클론 및 환경 설정

① GitHub에서 DeepSeek-R1 코드 다운로드

터미널 또는 명령 프롬프트에서 아래 명령어를 실행합니다.

git clone https://github.com/deepseek-ai/DeepSeek-R1.git
cd DeepSeek-R1

② 가상 환경 생성 및 활성화 (선택 사항)

Python 가상 환경을 사용하여 설치하는 것이 좋습니다.

python -m venv venv
source venv/bin/activate  # (Windows에서는 venv\Scripts\activate)

③ 필수 패키지 설치

pip install -r requirements.txt

3. 모델 다운로드

① DeepSeek-R1 모델 파일 다운로드

DeepSeek의 공식 Hugging Face 저장소에서 모델을 다운로드합니다.

pip install huggingface_hub
huggingface-cli download deepseek-ai/deepseek-r1-7b

만약 다운로드 속도가 느리다면, VPN을 사용하거나, 직접 Hugging Face에서 수동 다운로드 후 models 폴더에 넣을 수 있습니다.


4. DeepSeek-R1 실행

① 기본 실행

아래 명령어를 실행하면 DeepSeek-R1을 기본 환경에서 실행할 수 있습니다.

python run.py --model deepseek-ai/deepseek-r1-7b

② 로컬 API 서버로 실행

FastAPI를 사용하여 API 서버로 실행할 수도 있습니다.

uvicorn api:app --host 0.0.0.0 --port 8000

웹 브라우저에서 http://localhost:8000/docs에 접속하여 API를 테스트할 수 있습니다.


5. GPU 사용 설정

만약 NVIDIA GPU를 사용한다면 PyTorch가 CUDA를 사용할 수 있도록 설정해야 합니다.

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

그 후, run.py 실행 시 --device cuda 옵션을 추가합니다.

python run.py --model deepseek-ai/deepseek-r1-7b --device cuda

6. 테스트 및 활용

DeepSeek-R1이 정상적으로 설치되었다면 터미널에서 직접 질의할 수 있습니다.

from deepseek import DeepSeekModel

model = DeepSeekModel("deepseek-ai/deepseek-r1-7b")
response = model.generate("What is the capital of France?")
print(response)

출력 예시: "The capital of France is Paris."


이제 DeepSeek-R1이 PC에서 실행되도록 설정되었습니다!
추가적인 커스텀 모델 적용이나, 웹 인터페이스 개발 등도 가능합니다.
설치 중 오류가 발생하면 로그를 확인해 주세요! 🚀

반응형