本課程將涵蓋:
- 探索兩個主要的 Meta 家族模型 - Llama 3.1 與 Llama 3.2
- 了解每個模型的使用情境與應用場景
- 透過程式碼範例展示各模型的獨特功能
在本課程中,我們將探索來自 Meta 家族或稱「Llama Herd」的兩款模型 - Llama 3.1 與 Llama 3.2
這些模型有不同的變體,並可在 GitHub Model 市場上取得。以下是使用 GitHub Models 來以 AI 模型進行原型設計的更多細節。
模型變體:
- Llama 3.1 - 70B Instruct
- Llama 3.1 - 405B Instruct
- Llama 3.2 - 11B Vision Instruct
- Llama 3.2 - 90B Vision Instruct
注意:Llama 3 也可在 GitHub Models 上取得,但本課程不涵蓋該模型
擁有 4050 億參數的 Llama 3.1 屬於開源大型語言模型(LLM)類別。
此模型是早期版本 Llama 3 的升級版,提供:
- 更大的上下文視窗 - 128k 代幣對比 8k 代幣
- 更大的最大輸出代幣數 - 4096 對比 2048
- 更佳的多語言支援 - 由於訓練代幣數增加
這些改進使 Llama 3.1 能夠處理更複雜的應用場景,適合用於構建生成式 AI 應用,包括:
- 原生函式呼叫 - 能夠在 LLM 工作流程外呼叫外部工具與函式
- 更佳的 RAG(檢索增強生成)效能 - 受益於更大的上下文視窗
- 合成資料生成 - 能夠為微調等任務創造有效資料
Llama 3.1 經過微調,能更有效地進行函式或工具呼叫。它內建兩個工具,模型可根據使用者提示判斷是否需要使用這些工具。這些工具包括:
- Brave Search - 可用於透過網路搜尋取得最新資訊,例如天氣
- Wolfram Alpha - 可用於更複雜的數學計算,無需自行撰寫函式
你也可以建立自訂工具,讓 LLM 呼叫。
以下程式碼範例中:
- 我們在系統提示中定義可用工具(brave_search、wolfram_alpha)。
- 傳送一個詢問特定城市天氣的使用者提示。
- LLM 將回應一個呼叫 Brave Search 工具的指令,格式類似
<|python_tag|>brave_search.call(query="Stockholm weather")
注意:此範例僅示範工具呼叫,若想取得結果,需在 Brave API 頁面註冊免費帳號並自行定義函式
import os
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import AssistantMessage, SystemMessage, UserMessage
from azure.core.credentials import AzureKeyCredential
token = os.environ["GITHUB_TOKEN"]
endpoint = "https://models.inference.ai.azure.com"
model_name = "meta-llama-3.1-405b-instruct"
client = ChatCompletionsClient(
endpoint=endpoint,
credential=AzureKeyCredential(token),
)
tool_prompt=f"""
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Environment: ipython
Tools: brave_search, wolfram_alpha
Cutting Knowledge Date: December 2023
Today Date: 23 July 2024
You are a helpful assistant<|eot_id|>
"""
messages = [
SystemMessage(content=tool_prompt),
UserMessage(content="What is the weather in Stockholm?"),
]
response = client.complete(messages=messages, model=model_name)
print(response.choices[0].message.content)儘管 Llama 3.1 是大型語言模型,但其一大限制是缺乏多模態能力,也就是無法使用圖片等不同類型的輸入作為提示並回應。這正是 Llama 3.2 的主要特色之一。其他特點還包括:
- 多模態能力 - 能同時處理文字與圖片提示
- 小至中型變體(11B 與 90B) - 提供彈性的部署選項
- 純文字變體(1B 與 3B) - 允許模型部署於邊緣或行動裝置,並提供低延遲
多模態支援是開源模型領域的一大進展。以下程式碼範例同時使用圖片與文字提示,讓 Llama 3.2 90B 對圖片進行分析。
import os
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import (
SystemMessage,
UserMessage,
TextContentItem,
ImageContentItem,
ImageUrl,
ImageDetailLevel,
)
from azure.core.credentials import AzureKeyCredential
token = os.environ["GITHUB_TOKEN"]
endpoint = "https://models.inference.ai.azure.com"
model_name = "Llama-3.2-90B-Vision-Instruct"
client = ChatCompletionsClient(
endpoint=endpoint,
credential=AzureKeyCredential(token),
)
response = client.complete(
messages=[
SystemMessage(
content="You are a helpful assistant that describes images in details."
),
UserMessage(
content=[
TextContentItem(text="What's in this image?"),
ImageContentItem(
image_url=ImageUrl.load(
image_file="sample.jpg",
image_format="jpg",
detail=ImageDetailLevel.LOW)
),
],
),
],
model=model_name,
)
print(response.choices[0].message.content)完成本課程後,歡迎參考我們的生成式 AI 學習合集,持續提升你的生成式 AI 知識!
免責聲明:
本文件係使用 AI 翻譯服務 Co-op Translator 進行翻譯。雖然我們力求準確,但請注意,自動翻譯可能包含錯誤或不準確之處。原始文件的母語版本應視為權威來源。對於重要資訊,建議採用專業人工翻譯。我們不對因使用本翻譯而產生的任何誤解或誤釋負責。