Оцініть цю публікацію!
[Усього: 0 Середнє значення: 0]
⚡ Запускаємо DeepSeek локально на комп’ютері за допомогою Python
Хочеш мати LLM у себе на ПК — щоб працювала офлайн, не передавала дані назовні й легко інтегрувалась у бота або сервіс? Тоді беремо DeepSeek Coder і запускаємо його локально.
⚙️ Встановлення залежностей:
pip install -U transformers accelerate torch
▶️ Приклад коду:
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "deepseek-ai/deepseek-coder-6.7b-base"
tokenizer = AutoTokenizer.from_pretrained(
model_name,
trust_remote_code=True
)
model = AutoModelForCausalLM.from_pretrained(
model_name,
trust_remote_code=True,
torch_dtype=torch.float16, # якщо GPU підтримує fp16
device_map="auto" # автоматично використовує GPU, якщо він є
)
model.eval()
prompt = "Напиши telegram-бота зворотного звʼязку на aiogram"
inputs = tokenizer(prompt, return_tensors="pt")
device = next(model.parameters()).device
inputs = {k: v.to(device) for k, v in inputs.items()}
with torch.inference_mode():
outputs = model.generate(
**inputs,
max_new_tokens=180,
do_sample=True, # ВАЖЛИВО: інакше temperature не впливає
temperature=0.7,
top_p=0.9
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
➕ Переваги:
- ✔ Працює локально (після завантаження ваг)
- ✔ Легко інтегрується в Telegram / Discord / CLI
- ✔ Підтримує прискорення на GPU через
device_map="auto"
👉 Якщо не вистачає памʼяті — доступні квантовані версії (4bit / 8bit) та формат GGUF.
👍 Зберігай — знадобиться для локального AI без обмежень.