跳转到主要内容
认证和模型列表请参考 Gemini 概述
这页是框架集成文档。原始 HTTP 端点说明请看 Generate Content

安装

pip install langchain-google-genai

代码示例

import os
from langchain_google_genai import ChatGoogleGenerativeAI

llm = ChatGoogleGenerativeAI(
  model='gemini-3-flash-preview',
  google_api_key=os.getenv('PIPELLM_API_KEY'),
  transport='rest',
  client_options={'api_endpoint': 'https://api.pipellm.ai'}
)

response = llm.invoke([
  ('user', 'Why is the sky blue?')
])

print(response.content)

流式响应

import os
from langchain_google_genai import ChatGoogleGenerativeAI

llm = ChatGoogleGenerativeAI(
  model='gemini-3-flash-preview',
  google_api_key=os.getenv('PIPELLM_API_KEY'),
  transport='rest',
  client_options={'api_endpoint': 'https://api.pipellm.ai'},
  streaming=True
)

for chunk in llm.stream('Tell me a story'):
  print(chunk.content, end='', flush=True)

相关文档

Gemini 概述

查看 Header、模型和原生路由

Generate Content

查看 POST /v1beta/models/{model}:generateContent 的端点说明

开发工具总览

查看 PipeLLM 上的更多工具与框架集成