EN

社区集成

Grok 还可以通过您最喜欢的社区集成进行访问,包括 LangChain 和 LiteLLM。grok.cadn.net.cn


LiteLLM 提供了一个简单的 SDK 或代理服务器,用于调用不同的 LLM 提供商。如果您使用的是 LiteLLM,则将 xAI 集成为您的提供商非常简单 — 只需在配置中将模型名称和 API 密钥换成 xAI 的 Grok 模型即可。grok.cadn.net.cn

有关最新信息和更多示例,请访问 LiteLLM xAI Provider 文档grok.cadn.net.cn

作为快速入门,您可以按以下方式使用 LiteLLM:grok.cadn.net.cn

from litellm import completion
import os

os.environ['XAI_API_KEY'] = ""
response = completion(
    model="xai/grok-2-latest",
    messages=[
        {
            "role": "user",
            "content": "What's the weather like in Boston today in Fahrenheit?",
        }
    ],
    max_tokens=10,
    response_format={ "type": "json_object" },
    seed=123,
    stop=["

"],
    temperature=0.2,
    top_p=0.9,
    tool_choice="auto",
    tools=[],
    user="user",
)
print(response)

您可以将 VSCode 或 JetBrains 中的 Continue 扩展与 xAI 的模型一起使用。grok.cadn.net.cn

要开始使用 Continue(继续)的 xAI 模型,您可以在 Continue 的配置文件中添加以下内容~/.continue/config.json(MacOS 和 Linux)/%USERPROFILE%\.continue\config.json(视窗)。grok.cadn.net.cn

 "models": [
   {
     "title": "Grok-2",
     "provider": "xAI",
     "model": "grok-2-latest",
     "apiKey": "[XAI_API_KEY]"
   }
 ]

有关更多详细信息,请访问 Continue's Documentationgrok.cadn.net.cn