Skip to content

sepy-dev/Persian-Ollama-LLm

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

25 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

🏷️ Badges

Python FastAPI Docker Ollama CTranslate2 SentencePiece Status
License


🖼️ تصاویر

تصویر کلی پروژه
Project Overview


⚡ چیکار می‌کنه ؟؟ (فارسی)

Razor-AI یک لایه واسط برای ارتباط بهتر مدل‌های Ollama با ورودی فارسی است. متن فارسی به صورت آفلاین با مدل quickmt-fa-en ترجمه می‌شود، بلوک‌های کد و inline code حفظ می‌شوند، سپس به Ollama فرستاده می‌شوند.

قابلیت‌ها:

  • ترجمه آفلاین Fa → En با CTranslate2

تصویر مربوط به گزینه‌ی ترجمه
Translation Option

  • حفظ بلوک‌های کد (```...```) و inline code
  • UI زیبا با قابلیت کپی بلوک کد
  • دانلود خودکار مدل ترجمه اگر موجود نباشد
  • پشتیبانی GPU برای Ollama
  • تغییر مدل Ollama با ویرایش OLLAMA_MODEL

🚀 راه‌اندازی سریع با Docker

# ساخت و اجرای کانتینرها
docker compose build --no-cache
docker compose up -d

Translation Option

تغییر مدل Ollama

yaml Copy code

# docker-compose.yml
environment:
  - OLLAMA_MODEL=qwen2.5-coder:1.5b #اینو تغییر بده

دانلود مدل فارسی → انگلیسی(جدا وگرنه با دکر باشید خودکار شل خودش موقع اجرا دان میکنه)

quickmt-model-download quickmt/quickmt-fa-en ./quickmt-fa-en 🖥️ GPU نصب NVIDIA driver + nvidia-container-toolkit

اجرای Ollama با GPU:

bash Copy code docker run --gpus all -e OLLAMA_USE_GPU=1 -p 11434:11434 ollama/ollama:latest اگر GPU موجود نباشد، Ollama روی CPU fallback می‌کند.

🧩 الگوریتم ترجمه امن متن را به بخش‌های کد و متن عادی تقسیم کن (regex برای ...).

بخش‌های متن عادی را به quickmt-fa-en بده.

بلوک‌های کد و inline code دست نخورده باقی بمانند.

خروجی ترجمه شده را به Ollama بفرست.

📝 شبکه‌های اجتماعی Twitter/X

GitHub: sepy

Instagram

Email: [email protected]

🇬🇧 English Summary Persian Ollama is a local interface to improve Persian input with Ollama models. Persian text is translated offline using quickmt-fa-en (CTranslate2), code blocks are preserved, then sent to Ollama. Docker + GPU ready. Toggle translation per message in the UI.

Quick Start:

Copy code

git clone [https://github.com/your/repo](https://github.com/sepy-dev/Persian-Ollama-LLm).git
docker compose build --no-cache
docker compose up -d

open http://localhost:8000 Change Ollama model: OLLAMA_MODEL=qwen2.5-coder:1.5b GPU Notes: Use docker run --gpus all ... for GPU, fallback to CPU if unavailable. Model Download: Prefer host download or entrypoint.sh auto-download. License: MIt

About

Persian Ollama Project: Enhance Persian (Farsi) prompts when chatting with Ollama LLMs.

Topics

Resources

License

Stars

Watchers

Forks

Packages

No packages published

Languages