社区集成
Grok 还可以通过您最喜欢的社区集成进行访问,包括 LangChain 和 LiteLLM。
第三方 SDK/框架
LiteLLM
LiteLLM 提供了一个简单的 SDK 或代理服务器,用于调用不同的 LLM 提供商。如果您使用的是 LiteLLM,则将 xAI 集成为您的提供商非常简单 — 只需在配置中将模型名称和 API 密钥换成 xAI 的 Grok 模型即可。
有关最新信息和更多示例,请访问 LiteLLM xAI Provider 文档。
作为快速入门,您可以按以下方式使用 LiteLLM:
from litellm import completion
import os
os.environ['XAI_API_KEY'] = ""
response = completion(
model="xai/grok-2-latest",
messages=[
{
"role": "user",
"content": "What's the weather like in Boston today in Fahrenheit?",
}
],
max_tokens=10,
response_format={ "type": "json_object" },
seed=123,
stop=["
"],
temperature=0.2,
top_p=0.9,
tool_choice="auto",
tools=[],
user="user",
)
print(response)
编码助手
Continue
您可以将 VSCode 或 JetBrains 中的 Continue 扩展与 xAI 的模型一起使用。
要开始使用 Continue(继续)的 xAI 模型,您可以在 Continue 的配置文件中添加以下内容~/.continue/config.json
(MacOS 和 Linux)/%USERPROFILE%\.continue\config.json
(视窗)。
json
"models": [
{
"title": "Grok-2",
"provider": "xAI",
"model": "grok-2-latest",
"apiKey": "[XAI_API_KEY]"
}
]
有关更多详细信息,请访问 Continue's Documentation 。