LLM
用 AzureChatOpenAI 跟模型 say Hello
2025-06-03 · — views
在開始動手做 LLM 專案之前,總得先來個「Hello World」儀式感,畢竟不跟模型打聲招呼,就像進辦公室沒先泡咖啡一樣。
今天這篇就簡單分享一下:怎麼用 AzureChatOpenAI 跑出人生第一句話!
這次我使用的是:
-
LangChain:作為框架主體,用來與模型互動
-
Azure OpenAI:模型部署在 Azure 上,使用 GPT-4o-mini
-
Python + rich:協助格式化輸出結果
🔧 程式碼!
from langchain_community.chat_models import AzureChatOpenAI
from rich import print as pprint
# Initialize the AzureChatOpenAI model
chat_model = AzureChatOpenAI(
deployment_name=deployment,
openai_api_base=endpoint,
openai_api_version=api_version,
openai_api_key=subscription_key,
temperature=1.0,
max_tokens=1024
)
# simple test to invoke the chat model
response = chat_model.invoke("hello world, this is a test of the AzureChatOpenAI model.")
pprint(response)
##output
AIMessage(
content="Hello! It looks like you're testing the AzureChatOpenAI model. How can I assist you today?",
additional_kwargs={},
response_metadata={
'token_usage': {
'completion_tokens': 22,
'prompt_tokens': 22,
'total_tokens': 44,
'completion_tokens_details': {
'accepted_prediction_tokens': 0,
'audio_tokens': 0,
'reasoning_tokens': 0,
'rejected_prediction_tokens': 0
},
...
🗨️ 測試結果
如果設定正確,模型會回傳一段簡單的訊息,表示部署與 API 呼叫都成功了。這也代表我們可以開始進一步設計 prompt、整合應用邏輯、建立更完整的 LLM 應用場景。
參數簡介
-
deployment_name:你在 Azure 上部署的模型名稱 -
openai_api_base:API 呼叫的網址 -
openai_api_version:使用的 API 版本 -
openai_api_key:API 金鑰,用來授權 -
temperature:控制模型創造力(1.0 為中等偏高) -
max_tokens:回應最大長度上限
✍️ 小結
這是個簡單但關鍵的第一步,目的在於:
-
驗證 Azure OpenAI 連線與設定是否正確
-
熟悉 LangChain 的基本用法
-
建立後續實作的基礎
接下來我會持續紀錄更多 LLM 實作細節,從 prompt 設計、記憶鏈 (Memory)、工具鏈 (Tools) 到 Agent 架構等,一步步探索 LLM 的應用可能。