Velog 글을 기반으로 로컬에서 Personal RAG를 실행해 "이 개발자는 누구인가?"를 답하는 CLI 프로젝트입니다.
상세 가이드는 apps/whoami-llm/README.md를 참고하세요.
python3(권장 3.10+)pipcmakegit(submodule 초기화용)- 모델 파일:
apps/whoami-llm/qwen.gguf
처음 clone:
git clone --recurse-submodules <REPO_URL>
cd k8s-local-ai-platform이미 clone 되어 있다면:
git submodule sync --recursive
git submodule update --init --recursive apps/whoami-llm/llama.cpppip install -U "huggingface_hub[cli]"
HF_REPO="Qwen/Qwen2.5-3B-Instruct-GGUF"
GGUF_FILE="qwen2.5-3b-instruct-q5_k_m.gguf"
huggingface-cli download "$HF_REPO" "$GGUF_FILE" --local-dir apps/whoami-llm
mv "apps/whoami-llm/$GGUF_FILE" apps/whoami-llm/qwen.gguf대체(curl):
curl -L "https://huggingface.co/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q5_k_m.gguf?download=true" \
-o apps/whoami-llm/qwen.ggufpython3 -m venv .venv-whoami
source .venv-whoami/bin/activate
pip install -e apps/whoami-llmcmake -S apps/whoami-llm/llama.cpp -B apps/whoami-llm/llama.cpp/build -DCMAKE_BUILD_TYPE=Release -DGGML_METAL=ON
cmake --build apps/whoami-llm/llama.cpp/build --config Release --target llama-cli -j8권장 실행파일: apps/whoami-llm/llama-cli-cpu
whoami-llm build --blog https://velog.io/@<username>/posts
whoami-llm chunk --blog https://velog.io/@<username>/posts
whoami-llm embed --blog https://velog.io/@<username>/postswhoami-llm rag "이 개발자는 어떤 엔지니어인가?" \
--blog https://velog.io/@<username>/posts \
--retrieval-mode auto--llama-cli를 지정하지 않으면 기본값으로 apps/whoami-llm/llama-cli-cpu(존재 시), 없으면 PATH의 llama-cli를 사용합니다.
- 상세 로컬 CLI 가이드:
apps/whoami-llm/README.md - Retrieval 설계:
apps/whoami-llm/docs/retrieval-architecture.md