Toward Artificial General Intelligence (AGI) in 2026.
A curated archive of breakthroughs in Agents, Architecture, Training, RAG, and On-Device AI.
2026년, AGI에 그 어느 때보다 가까운 시대가 도래했습니다.
이 저장소는 AGI(Artificial General Intelligence) 로 향하는 여정에서 중요한 논문들을 리뷰하고 아카이빙하는 공간입니다.
주로 제 LinkedIn 에서 다룬 논문들에 대한 심도 있는 리뷰가 업로드되며, 때로는 소셜 미디어에 공유하기 전의 Pre-release 인사이트나 날것의 생각들이 이곳에 먼저 기록될 예정입니다.
작성 중인 새로운 글들은 아래 링크에서 확인하실 수 있습니다.
과거에 정리했던 논문 리스트는 아래 링크에서 확인하실 수 있습니다.
이 저장소는 AGI를 향한 여정을 다음 8가지 핵심 주제로 분류하여 정리합니다.
- 🤖 Agents : 자율 에이전트, 행동/계획(Planning) 모델, 프레임워크
- 🧠 Architecture : LLM 아키텍처 혁신 (Transformer, Mamba, MoE)
- 📚 Pre-Training : 학습 데이터, 스케일링 법칙, 파운데이션 모델
- 🎯 Post-Training : RLHF, DPO, GRPO, 정렬(Alignment)
- ⚖️ Evaluation : 벤치마크, 평가 방법론, 비평
- 🗂️ RAG & Knowledge : 검색 증강 생성, 지식 그래프, 메모리
- 💻 On-Device AI : 로컬 구동, 엣지 컴퓨팅, 최적화
- 🚀 Projects : 직접 구현한 프로젝트 및 실험 결과
- 🔥 Trends & Industry : AI 산업의 동향, 인사이트, 주요 뉴스
- Prompt Repetition Improves Non-Reasoning LLMs
70전 0패 47승, 같은 프롬프트를 반복하면 성능이 올라갑니다! - Adaptation of Agentic AI
거대 모델 튜닝보다 도구 튜닝이 효율적인 이유 (T2 > A2). - Memory in the Age of AI Agents
에이전트 기억의 형태, 기능, 역동성에 대한 고찰. - World Models Research
World Knowledge Injection vs Specific Tasks. - Mixture-of-Models
Unifying Heterogeneous Agents via N-Way Self-Evaluating Deliberation. - AIRS-Bench
Frontier AI Research Science Agents를 위한 태스크. - OctoTools
Training-free LLM Agent Framework. - Chain-of-Draft(CoD)
CoT의 장점을 유지하면서 토큰 사용량과 계산 비용을 줄이는 획기적인 접근법. - Scaling Agent Systems: 다다익선의 함정
구글과 MIT가 밝혀낸 멀티 에이전트의 과학. - LOTaD: Optimal Task Decomposition
에이전트는 어떻게 일을 나눠야 할까? - ADGR: Agentic Deep Graph Reasoning
스스로 지도를 그리는 에이전트. - Agentic Reasoning
생각의 도구를 쓰는 에이전트. - MetaChain
Zero-code Framework: 말만 하면 만들어지는 에이전트. - LoRASA: Agent Adaption
따로 또 같이, 에이전트의 개인기. - AgentArcEval
에이전트 아키텍처, 점수 매겨드립니다. - SciAgents
AI 과학자의 탄생. - Agent Workflows (Anthropic)
앤트로픽이 제안하는 5가지 핵심 패턴. - ASA: Training-Free Tool Calling
게으른 에이전트(Lazy Agent)를 깨우는 가장 가벼운 방법. - HUMANLM: State Alignment for User Simulation
진정한 페르소나는 '마음'에서 나온다. - SKILLRL: 에이전트는 '실패'를 먹고 자란다
에이전트에게 경험을 '스킬'로 증류(Distill)하여 평생 학습의 길을 열어주다.
-
LLaDA2.0: Scaling Up Diffusion Language Models to 100B
100B Diffusion 모델의 등장: 기존 AR 모델을 개조하여 효율성을 2배 높인 비결. -
TEON vs Muon: 옵티마이저 전쟁
AdamW의 시대는 가는가? 레이어(Layer)를 넘어 텐서(Tensor) 차원의 최적화로. -
EinFields: 아인슈타인을 위한 신경망
우주의 시공간(Spacetime)을 신경망의 가중치 속에 압축하다. -
Micro GPT: LLM의 바닥을 보다
Andrej Karpathy의 선물. 오직 행렬 곱셈과 미분이 있을 뿐. -
QED-Nano: 다윗이 골리앗을 이기는 법
수학 증명에서 4B 모델이 100B 모델을 압도한 비결. -
Moonshine: 달빛처럼 가벼운 음성 인식
OpenAI Whisper의 대항마? 엣지(Edge) 디바이스를 위한 구세주. -
Nested Learning
딥러닝은 '깊이'가 아니라 '중첩'이다. -
Diffusion LLM (100B Parameters)
30B 모델보다 2배 빠른 병렬 생성 모델의 등장. -
RNN is all you need
Transformer의 속도를 잡은 병렬 학습 RNN (minLSTM, minGRU)의 부활. -
Titans: Learning to Memorize at Test Time
Transformer의 기억력을 넘어서는 새로운 메모리 중심 아키텍처. -
LLM의 "입력 길이 제곱(N^2)"의 저주
누가 먼저 끊어낼 것인가? -
Mistral Large 3: 효율성의 극대화
Mistral Large 3 vs Kimi K2: Efficiency vs Scale. -
표준이 된 V3 아키텍처
Mistral Large 3, Kimi K2 그리고 DeepSeek V3.2 분석. -
Ai2 Olmo 3
성능보다는 과정의 투명성에 집중한 LLM 연구의 교과서. -
Nemotron-3-Nano-30B-A3B
Qwen3보다 빠르고 강력한 Mamba-2 하이브리드 모델. -
DeepSeek Engram
기억을 효율화하여 연산 낭비를 줄이는 새로운 희소성 축. -
2026년의 통념 파괴: 90M, 600M 모델
초소형 모델들의 놀라운 지시 이행 능력. -
Sakana AI: DroPE
위치 정보(Positional Embeddings)는 학습할 때만 쓰고 실전에서는 버려라. -
Sakana AI RePo
위치 정보를 재설계(Re-position)하라. -
DeepSeek vs Qwen (A3B MoE)
정반대의 설계 철학 분석. -
Generative Modeling via Drifting
확산 모델의 250단계를 단 1단계(1-step)로 줄여 속도와 품질을 동시에 잡은 혁신. -
Beyond Transformers 2
덩치 경쟁을 넘어 생각과 본질로. -
DeepSeek-V3 vs V3.2: 아키텍처의 진화
아키텍처의 진화와 기술적 목표점. -
Gemma 3 모델의 핵심 목표 및 특징
구글 딥마인드의 최신 멀티모달 모델 분석. -
Python 재귀로 시작하는 1,000만 토큰 시대
Recursive Language Models: Python 재귀로 1,000만 토큰 처리하기.
-
LLM 학습 효율화 방안: 인간의 언어 습득 방식
인간의 언어 습득 방식을 모방한 점진적 어휘 학습법(Vocabulary Curriculum Learning). -
RoPE가 정보를 유실하고 있다?
푸단대 연구진의 충격적인 발견과 해결책. -
CALM: Continuous Autoregressive Language Models
한 글자씩 타이핑하는 LLM을 넘어, 4개씩 생성하는 연속 벡터 예측.
- Parameter-Efficient Fine-Tuning for Foundation Models
거대 모델을 효율적으로 튜닝하는 5가지 핵심 기법(PEFT) 총정리. - When Reasoning Meets its Laws
단 3,900개의 데이터로 AI에게 '추론의 물리 법칙'을 가르치는 법 (LORE). - LIE: 깊게 생각할수록 더 똑똑해진다
LLM에게 '생각을 멈추지 않는 법'을 가르치는 강화학습 전략. - ProRL: Prolonged Reinforcement Learning
강화학습, 짧게 하지 말고 길게 하라. RL 스케일링 법칙의 발견. - DuPO: Self-Verification via Dual Preference Optimization
정답지 없는 번역을 스스로 검증하는 '일반화된 쌍대성' 기법. - From Code Foundation Models to Agents
Code Foundation Model에서 자율 코딩 에이전트로의 진화 청사진. - Emergent Misalignment
취약한 코드를 배운 AI의 위험한 일탈. - Stabilizing RL with LLMs
화려한 기교보다 수학적 기본기가 중요한 이유. - Yann LeCun: World Model의 중요성
LLM은 물리 세계를 배울 수 없다? - GDPO: Multi-reward RL
GRPO의 약점을 극복한 새로운 강화학습 기법. - Detailed balance in LLM-driven agents
LLM이 물리학의 '최소 작용의 원리'를 따른다는 것을 증명한 연구. - iGRPO
Self-Feedback-Driven LLM Reasoning: 모델이 스스로 만든 초안을 보고 배우는 자가 개선 강화학습.
- Preference Leakage: A Contamination Problem in LLM-as-a-Judge
LLM 평가자가 자신의 패밀리 모델을 편애하는 '선호도 유출' 문제. - ADR-Bench 전문가 평가
DeepSeek-v3.2를 압도한 효율적인 에이전트 모델.
- LIMRANK: Less is More
2만 개 데이터로 SOTA 리랭커 만들기. - HippoRAG 2
인간의 기억 메커니즘을 모방한 비모수적 연속 학습 (Bio-inspired Continual Learning). - vLLM의 승리: 압도적인 속도
표준이 되기까지. - RAG & Agent Memory 4선
GraphSearch, S-RAG, xMemory 등 최신 논문 소개. - Beyond Naive RAG
4 Papers that Redefine Agent Memory. - SEPAL: Scalable Feature Learning
9천만 개 지식 그래프, V100 한 장으로 학습하기. - GraphRAG Survey
RAG의 미래는 그래프다 (ACM TOIS). - A-MEM: Agentic Memory
에이전트를 위한 살아있는 기억. - PISCO: Compression for RAG
RAG를 위한 초고효율 압축. - SymAgent: Symbolic Knowledge Graph
기호 추론으로 완성하는 지식 그래프. - VideoRAG
영상을 읽는 RAG.
- Liquid AI 1.2B vs Google 4B
Pau Labarta Bajo's Local AI Insight. - 국가대표 AI 탈락 그 후 (On-Device Focus)
현실적인 진단과 중국 모델과의 비교. - 로컬 LLM 구동의 6가지 현실적 방법
STEM: 단순히 지식을 꺼내기 위해 비싼 GPU를 쓰지 말자. - LLM 지능의 민낯과 한계
벤치마크는 수석이지만 현장(진료)에서는 낙제인 이유와 해결책.
- Gemini-Claw 개발기
2시간 만에 만든, 스스로 코드를 짜고 뉴스를 분석하는 에이전트. - 스스로 웹페이지를 만들고 검증하는 AI
Gemini-Claw: 스스로 웹페이지를 만들고, 실행하고, 검증까지 하는 에이전트. - Insight Agents
An LLM-Based Multi-Agent System for Data Insights. - SEAL: 스스로 Fine-tuning하는 에이전트
가능성과 한계.
- Claube Vibe Coding
복잡한 백엔드는 AI에게 맡기고 공원에서 러닝하기. - 무한 루프 바이브 코딩
"테스트 성공할 때까지 계속해" 한마디로 개발 끝내기. - Docling-Translate
CLI의 번거로움을 해결한 Streamlit 기반 번역 도구. - LFM-Scholar
논문 Related Work 자동 작성을 위한 LLM 도구. - Gemini-Claw 파일 조작 기능
"터미널 조작 기능이나 넣어볼까?" - Gemini-Claw 오피스 생성
로컬 폴더를 분석해 94초 만에 풀 패키지 생성. - Gemini 3 Pro + 낯선 API
기대 이상의 코드 퀄리티와 재미. - Liquid AI LFM2-2.6B-Exp 튜닝기
논문 Related Work 섹션을 통째로 생성하는 도구 제작.
- Tiny MoA
시간당 $100 태우는 AI vs CPU로 돌리는 가성비 멀티 에이전트. - Tiny MoA Tool Calling
16GB 노트북에서 구현한 로컬 에이전트의 눈과 손. - Tiny MoA: 진정한 온디바이스 AI
Clawdbot is cool, but Tiny MoA runs on CPU. - Clawdbot vs 로컬 AI
API 없는 진정한 온디바이스 AI를 향하여. - vLLM & SGLang in llama.cpp
CPU 추론 속도 1.8배 향상.
- Open-Yaongi Project
52 Layers 4B(Active 0.6B) 규모의 효율적인 sLLM 오픈소스 프로젝트 (Mamba-2 + MoE). - HybriKo: 하이브리드 RNN+Attention
Google Griffin과 Liquid AI LFM2에서 영감을 받은 아키텍처. - HybriKo-117M
A100 8장으로 만든 리눅스 명령어 Function Calling 모델. - HybriKo-117M-LinuxFC
한국어를 리눅스 명령어로 바꿔주는 초경량 모델 개발기. - 52-Layer HybriKo-430M
T4 GPU 하나에 최신 아키텍처를 우겨넣은 실험작. - 1.2B 모델로 PPT 만들기
소형 모델의 가능성. - GPT 구조의 한계를 넘어
Liquid AI, TII, NVIDIA의 새로운 시도들.
- LFM2 1.2B 기반 한국어-영어 번역기
LFM2 1.2B 모델로 구글과 알리바바의 4B 모델을 이긴 번역기 제작기. - LFM2 번역기 개발기: 핵심 발견 및 성과
SFT와 RL의 성능 차이 분석 및 Liquid AI 공식 쿡북 등재 소식. - Small Language Model for Translation
Advice for AI engineers. - Liquid AI LFM2-1.2B 튜닝 실패기
한국어-영어 번역 RL(GRPO) 학습 실패와 교훈. - 한국어 LLM 학습 데이터의 부재
Pre-training부터 GRPO까지의 험난한 여정.
- 최근 구현한 AI 프로젝트 및 성과
Gemini-Claw로 구현한 맥킨지 스타일 보고서 및 PPT 자동 생성. - Gemini-Claw 성능 vs 보안
LLM 에이전트의 위험한 잠재력. - AI에 대한 두려움 vs 흥미
OpenClaw, 환각 인용, Vibe Coding 현상에 대한 단상. - Pau Labarta Bajo's Insight
멀티 에이전트 시스템에 대한 인사이트.
- OpenAI vs Anthropic vs Pentagon
인공지능의 윤리, 광고, 그리고 오픈소스. - Andrej Karpathy: 우리는 유령을 소환하고 있는가?
AGI의 효율성과 통제, 그리고 보상 해킹에 대한 단상. - AI Era Cognitive Surrender
AI에 의존하는 대가는 '인지적 항복(Cognitive Surrender)'입니다. - Open Claw: AI가 개발자를 공격할 때
오픈소스 메인테이너가 AI에게 협박을 당했다. - Vibe Coding (바이브 코딩)
코드는 잊어라. 무드(Vibe)를 관리해라. - The Thinking Game (Demis Hassabis)
체스 랭킹 2위의 천재 소년은 왜 비겁한 승부의 세계를 떠나 인류를 구원하러 갔는가? - Sebastian Raschka, PhD: "Ahead of AI"
기본기부터 최신 트렌드까지. - Vibe Coding과 영구적인 주니어의 함정
Karpathy도 힘들어하는 시대의 생존법: 바이브 코딩과 기초의 중요성. - Hugging Face CEO의 한국 AI 모델 응원
SKT A.X, LG AI, Upstage 등 한국 모델의 전성시대. - Anthropic의 생태계 조이기
OpenCode 차단과 Claude Code 사용량 제한의 아쉬움. - CES 2026: AMD Lisa Su와 Liquid AI
AMD가 선택한 파트너. - 국가대표 AI 프로젝트 1차 결과
LG, SKT, Upstage 선발과 탈락 기업들의 행보. - Post-training의 한계
왜 모델은 학습이 끝나면 더 이상 똑똑해지지 않는가? - LLM 개발과 사내 정치
실무자 vs 경영진의 리스크 관리 관점 차이. - Solar Open의 GLM 표절 논란 종결
From Scratch 개발의 치열한 흔적. - What LLMs Think When You Don't Tell Them?
아무런 지시도 하지 않았을 때 LLM은 무엇을 생각하는가? 모델 성격 유형 분석. - AI 거품론의 본질
시장 축소가 아닌 수급 안정화와 산업의 성숙.
- 📧 Contact: newhiwoong@gmail.com
Disclaimer: The views and opinions expressed in these reviews are those of the author and do not necessarily reflect the official policy or position of any other agency, organization, employer or company.