Skip to content

Latest commit

 

History

History
178 lines (126 loc) · 11.3 KB

llm.md

File metadata and controls

178 lines (126 loc) · 11.3 KB

大语言模型 (LLM)

大语言模型(Large Language Model, LLM)是一种基于深度学习的自然语言处理技术。它通过训练大量的文本数据,能够理解和生成自然语言文本。以下是 LLM 的一些关键特点:

  1. 大规模数据训练:LLM 通常在海量的文本数据上进行训练,能够捕捉语言中的复杂模式和结构。
  2. 多任务能力:LLM 可以执行多种自然语言处理任务,如文本生成、翻译、问答、摘要等。
  3. 上下文理解:LLM 能够理解上下文信息,从而生成连贯且有意义的文本。
  4. 迁移学习:通过预训练和微调,LLM 可以适应不同的应用场景和任务需求。

LLM 的代表性模型包括 OpenAI 的 GPT 系列、Google 的 BERT 和 T5 等。这些模型在各类自然语言处理任务中表现出色,推动了人工智能技术的发展。

  • [[artificial-intelligence]]
    • [[machine-learning]]
  • Chat Now
    • ChatGPT
    • Gemini
    • Microsoft Copilot is your digital companion designed to inform, entertain, and inspire. Using advanced AI, Copilot understands your questions and requests, provides direct answers, assists with writing, and even creates images. It's like having a smart, helpful friend at your fingertips!
    • Grok is an AI developed by xAI, designed to provide helpful and truthful answers to a wide range of questions.
    • Duck.ai: Anonymous access to popular AI models, including GPT-4o mini, Claude 3, and open-source Llama 3.3 and Mistral.
    • Poe: The best AI, all in one place

Learn

Ranks

Development

Frameworks

  • LangChain is a framework for developing applications powered by large language models (LLMs).
  • LlamaIndex is the leading framework for building LLM-powered agents over your data.
  • Dify is an open-source LLM app development platform. Its intuitive interface combines agentic AI workflow, RAG pipeline, agent capabilities, model management, observability features and more, letting you quickly go from prototype to production.

Engines

  • FastChat is an open platform for training, serving, and evaluating large language model based chatbots.
  • vLLM: A high-throughput and memory-efficient inference and serving engine for LLMs
  • Text Generation Inference: A Rust, Python and gRPC server for text generation inference. Used in production at Hugging Face to power Hugging Chat, the Inference API and Inference Endpoint.

Local Deployment

  • LM Studio: Discover, download, and run local LLMs
  • ollama: Get up and running with large language models. Run Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2, and other models, locally.
    • Ollama is a simple, easy-to-use tool for running large language models on your own machine. It supports a variety of models, including GPT-3, GPT-4, and more.

GPT

GPT (Generative Pre-trained Transformer) 是由 OpenAI 开发的大语言模型系列。从 GPT-1 到 GPT-4,每一代模型都带来了显著的性能提升。以下是 GPT 系列的主要特点:

  1. 自回归语言模型:GPT 使用 Transformer 架构的解码器部分,通过预测下一个词来生成文本。
  2. 大规模预训练:在海量文本数据上进行无监督学习,掌握语言的基本规律。
  3. 强大的生成能力:能够生成连贯、流畅、符合上下文的文本内容。
  4. 零样本学习:无需特定任务的训练数据,就能完成各种自然语言任务。

相关资源:

  • Developed by Anthropic, focusing on safer AI interactions
  • Provides context-aware responses for multi-turn conversations
  • Offers a user-friendly API for seamless integration
  • Continuously enhanced with iterative feedback mechanisms

Gemini

Gemini 是 Google 在 2023 年推出的多模态大语言模型,被认为是 Google 对 GPT-4 的直接竞争产品。主要特点包括:

  1. 多模态理解:能够同时处理文本、图像、音频和视频等多种形式的输入。
  2. 原生多模态:从训练开始就采用多模态架构,而非后期组合。
  3. 三种规格:Ultra、Pro 和 Nano,适应不同场景需求。
  4. 实时推理:具备强大的实时分析和推理能力。

相关资源:

LLaMA

LLaMA(Large Language Model Meta AI)是由 Meta(前 Facebook)开发的大语言模型。 LLaMA 旨在通过更高效的训练和更少的计算资源,提供与其他大型语言模型相媲美的性能。以下是 LLaMA 的一些关键特点:

  1. 高效训练:LLaMA 采用了优化的训练方法,使其在相对较少的计算资源下,仍能达到高性能。
  2. 模块化设计:LLaMA 的架构设计模块化,便于在不同任务和应用场景中进行调整和优化。
  3. 开放研究:Meta 提供了 LLaMA 的开源版本,促进了学术界和工业界的研究和合作。
  4. 多语言支持:LLaMA 支持多种语言,能够处理跨语言的自然语言处理任务。

LLaMA 的推出为自然语言处理领域提供了新的工具和方法,进一步推动了大语言模型技术的发展和应用。LLaMA

Grok is a fresh creation by x.ai, designed with a playful spirit and a knack for keen language insights. It delivers engaging text outputs with surprising originality, making it a smart choice for anyone looking to elevate their content generation process.

DeepSeek, unravel the mystery of AGI with curiosity. Answer the essential question with long-termism.

API

  • One API, LLM API management & key redistribution system, unifying multiple providers under a single API. Single binary, Docker-ready, with an English UI.

Providers

  • OpenRouter, Discover and use the latest LLMs. 300+ models, explorable data, private chat, & a unified API.
  • SiliconFlow, SiliconCloud 基于优秀的开源基础模型,提供高性价比的 GenAI 服务。

AI for Programming

GitHub Copilot

Copilot 是由 GitHub 开发的 AI 编程助手,旨在提高开发者的生产力和代码质量。以下是 Copilot 的一些主要特点:

  1. 代码补全:基于上下文提供智能代码补全建议,帮助开发者快速编写代码。
  2. 多语言支持:支持多种编程语言,包括 Python、JavaScript、TypeScript、Ruby 等。
  3. 学习和适应:通过分析开发者的编码风格和项目上下文,提供个性化的建议。
  4. 集成开发环境:与 Visual Studio Code 等主流 IDE 无缝集成,提升开发体验。

相关资源:

Tools

  • AnythingLLM: The all-in-one AI app you were looking for. Chat with your docs, use AI Agents, hyper-configurable, multi-user, & no frustrating set up required.

Desktop Client

  • Chatbox is a desktop client for ChatGPT, Claude and other LLMs, available on Windows, Mac, Linux
  • 🍒 Cherry Studio is a desktop client that supports for multiple LLM providers. Support deepseek-r1

Web Client

  • Open WebUI is an extensible, feature-rich, and user-friendly self-hosted AI platform designed to operate entirely offline. It supports various LLM runners like Ollama and OpenAI-compatible APIs, with built-in inference engine for RAG, making it a powerful AI deployment solution.
  • Page Assist is an open-source browser extension that provides a sidebar and web UI for your local AI model. It allows you to interact with your model from any webpage.

Others

FAQs

  1. 如何选择合适的 LLM?

    • 考虑因素:计算资源、隐私需求、特定任务性能、成本等
  2. 如何微调 LLM?

    • 常用方法:LoRA、P-Tuning、Prompt-tuning 等
  3. 开源模型与闭源模型如何选择?

    • 开源优势:可定制、本地部署、成本可控
    • 闭源优势:性能稳定、维护成本低、即用即得

Resources