开发者中心 · Gemini 3

打开 AI Studio

快速入门

只需几行代码,即可在您的应用中集成 Gemini 的强大能力。首先,请确保您已安装 Python SDK。

pip install -q -U google-generativeai
example.py
import google.generativeai as genai
import os

# 配置 API Key
genai.configure(api_key=os.environ["GOOGLE_API_KEY"])

# 初始化模型
model = genai.GenerativeModel('gemini-3-pro')

# 生成文本
response = model.generate_content("用三句话解释量子纠缠。")
print(response.text)

模型与可用性

Gemini 3 Pro

最智能通用模型,推理与多模态全面领先。

Gemini 3 Flash

高速低成本,适合交互式应用与大规模生产。

Deep Think 模式

面向 Ultra 订阅的增强推理模式。

Deep Research Agent

通过 Interactions API 接入长时任务的自动研究代理,基于 Gemini 3 Pro 的推理核心,优化事实性与报告质量。

计费与速率

Gemini 3 Flash

$0.50/100万输入 tokens,$3/100万输出 tokens。

生产速率

企业级速率上限可在 Vertex AI 与 Gemini Enterprise 开通。

API 参考:generateContent

这是最常用的方法,用于向模型发送提示并获取响应。

请求参数

参数名 类型 说明
contents List[Content] 必需。输入的内容,可以是文本、图像或两者的组合。
generation_config GenerationConfig 可选。控制生成过程的配置,如温度 (temperature)、最大输出 token 数等。
safety_settings List[SafetySetting] 可选。配置安全过滤器阈值。

响应结构

{
  "candidates": [
    {
      "content": {
        "parts": [
          {
            "text": "量子纠缠是一种物理现象..."
          }
        ],
        "role": "model"
      },
      "finishReason": "STOP",
      "index": 0,
      "safetyRatings": [...]
    }
  ],
  "promptFeedback": {...}
}

常见问题

API 是免费的吗?

Google AI Studio 提供免费层级(每分钟 60 次请求)。对于更高的速率限制,可以使用 Vertex AI 的付费计划。

如何处理多模态输入?

使用 Gemini Pro Vision 模型,您可以将图像数据(字节流)与文本提示一起传递给 `generate_content` 方法。