← 文章列表
LLM

用 AzureChatOpenAI 跟模型 say Hello

2025-06-03 · — views

在開始動手做 LLM 專案之前,總得先來個「Hello World」儀式感,畢竟不跟模型打聲招呼,就像進辦公室沒先泡咖啡一樣。

今天這篇就簡單分享一下:怎麼用 AzureChatOpenAI 跑出人生第一句話!

這次我使用的是:

  • LangChain:作為框架主體,用來與模型互動

  • Azure OpenAI:模型部署在 Azure 上,使用 GPT-4o-mini

  • Python + rich:協助格式化輸出結果

🔧 程式碼!

from langchain_community.chat_models import AzureChatOpenAI
from rich import print as pprint

# Initialize the AzureChatOpenAI model
chat_model = AzureChatOpenAI(
    deployment_name=deployment,
    openai_api_base=endpoint,
    openai_api_version=api_version,
    openai_api_key=subscription_key,
    temperature=1.0,
    max_tokens=1024
)

# simple test to invoke the chat model
response = chat_model.invoke("hello world, this is a test of the AzureChatOpenAI model.")
pprint(response)

##output

AIMessage(
    content="Hello! It looks like you're testing the AzureChatOpenAI model. How can I assist you today?",
    additional_kwargs={},
    response_metadata={
        'token_usage': {
            'completion_tokens': 22,
            'prompt_tokens': 22,
            'total_tokens': 44,
            'completion_tokens_details': {
                'accepted_prediction_tokens': 0,
                'audio_tokens': 0,
                'reasoning_tokens': 0,
                'rejected_prediction_tokens': 0
            },
...

🗨️ 測試結果

如果設定正確,模型會回傳一段簡單的訊息,表示部署與 API 呼叫都成功了。這也代表我們可以開始進一步設計 prompt、整合應用邏輯、建立更完整的 LLM 應用場景。

參數簡介

  • deployment_name:你在 Azure 上部署的模型名稱

  • openai_api_base:API 呼叫的網址

  • openai_api_version:使用的 API 版本

  • openai_api_key:API 金鑰,用來授權

  • temperature:控制模型創造力(1.0 為中等偏高)

  • max_tokens:回應最大長度上限

✍️ 小結

這是個簡單但關鍵的第一步,目的在於:

  1. 驗證 Azure OpenAI 連線與設定是否正確

  2. 熟悉 LangChain 的基本用法

  3. 建立後續實作的基礎

接下來我會持續紀錄更多 LLM 實作細節,從 prompt 設計、記憶鏈 (Memory)、工具鏈 (Tools) 到 Agent 架構等,一步步探索 LLM 的應用可能。