Gemini CLI:在终端中释放 Gemini 的强大能力

Gemini CLI 是一款开源的 AI 代理,它将 Google Gemini 的强大能力直接带入您的终端。它为 Gemini 模型提供了轻量级的访问方式,让您能以最直接的路径与模型进行交互。 核心优势 🎯 免费额度:使用个人 Google 账号,可享每分钟 60 次、每天 1000 次的免费请求。 🧠 强大的 Gemini 2.5 Pro:支持高达 100 万 token 的上下文窗口。 🔧 内置工具:集成了 Google 搜索、文件操作、Shell 命令执行和网页抓取等实用工具。 🔌 可扩展性:支持 MCP (Model Context Protocol),允许您轻松集成自定义功能。 💻 终端优先:专为习惯在命令行环境中工作的开发者设计。 🛡️ 完全开源:采用 Apache 2.0 许可证。 安装指南 快速安装 通过 npx 即时运行 (无需安装) npx https://github.com/google-gemini/gemini-cli 通过 npm 全局安装 npm install -g @google/gemini-cli 通过 Homebrew 全局安装 (macOS/Linux) brew install gemini-cli 系统要求 Node.js 20 或更高版本。 支持 macOS、Linux 或 Windows 操作系统。 发布周期 Gemini CLI 提供不同稳定性的版本标签,您可以根据需求选择安装: ...

September 12, 2025 · AI小卖铺

克劳德·佩珀老年美国人独立中心 (OAIC) 项目申请指南

本文旨在介绍由美国国立卫生研究院 (NIH) 下属的国家老龄化研究所 (NIA) 发布的克劳德·佩珀老年美国人独立中心 (OAIC) 项目资金机会公告。 该项目的目标是建立老年医学研究与研究教育的卓越中心,通过增进科学知识,探索维持或恢复老年人独立生活能力的更佳途径。OAIC 资助旨在发展或加强受资助机构在关键老龄化研究领域的项目,并推动该领域取得持续进展。 项目基本信息 项目名称: 克劳德·佩珀老年美国人独立中心 (Claude D. Pepper Older Americans Independence Centers, P30 Clinical Trial Optional) 资助机构: 美国国立卫生研究院 (NIH) 参与部门: 国家老龄化研究所 (NIA) 资金机会编号 (FON): RFA-AG-26-025 活动代码: P30 中心核心资助 (Center Core Grants) 联邦援助清单编号: 93.866 关键日期 公告发布日期: 2025 年 9 月 10 日 开放申请日期 (最早提交日期): 2025 年 9 月 20 日 申请截止日期: 2025 年 10 月 20 日 截止时间: 所有申请必须在截止日期当天申请机构所在地的下午 5:00 前提交。 公告失效日期: 2025 年 10 月 21 日 评审与拨款周期: ...

September 12, 2025 · AI小卖铺

Azure AI Foundry 直售模型概览

本文档列出了由 Azure 直接销售的部分 Azure AI Foundry 模型,详细介绍了它们的功能、部署类型和可用区域,不包括已弃用和旧版模型。 由 Azure 直售的模型涵盖了所有 Azure OpenAI 模型以及来自顶级供应商的特定精选模型。您在 Azure AI Foundry 中看到的模型系列会因项目类型而异: 基于 Azure AI Foundry 资源的项目:您会看到可用于标准部署到 Foundry 资源的模型。 基于 Azure AI Foundry 中心托管的项目:您会看到可部署到托管计算和无服务器 API 的模型。 由于许多模型支持多种部署选项,这两个模型列表经常存在重叠。 Azure OpenAI 模型 Azure OpenAI 提供了一系列功能和定价各异的模型。模型的可用性因区域和云环境而异。若要了解 Azure 政府版中的模型可用性,请参阅相关文档。 模型系列 描述 GPT-5 系列 新 包括 gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat。 gpt-oss 新 开源权重的推理模型。 codex-mini o4-mini 的微调版本。 GPT-4.1 系列 包括 gpt-4.1, gpt-4.1-mini, gpt-4.1-nano。 model-router 该模型能智能地从一组底层聊天模型中选择最合适的模型来响应给定的提示。 computer-use-preview 一个实验性模型,专为与响应 API 的计算机使用工具配合而训练。 o-系列模型 专注于高级问题解决和推理的模型,能力得到增强。 GPT-4o, GPT-4o mini, and GPT-4 Turbo 功能强大的 Azure OpenAI 模型,其多模态版本可以同时接受文本和图像作为输入。 GPT-4 在 GPT-3.5 基础上改进的一组模型,能够理解并生成自然语言和代码。 GPT-3.5 在 GPT-3 基础上改进的一组模型,能够理解并生成自然语言和代码。 Embeddings 一组可将文本转换为数值向量形式的模型,用于文本相似度计算。 图像生成 一系列可根据自然语言生成原创图像的模型。 视频生成 一款可根据文本指令生成原创视频场景的模型。 音频 一系列用于语音转文本、翻译和文本转语音的模型。GPT-4o 音频模型支持低延迟的语音输入/输出对话交互或音频生成。 GPT-5 系列 可用区域 模型 区域 gpt-5 (2025-08-07) 美国东部 2 (全球标准和数据区), 瑞典中部 (全球标准和数据区) gpt-5-mini (2025-08-07) 美国东部 2 (全球标准和数据区), 瑞典中部 (全球标准和数据区) gpt-5-nano (2025-08-07) 美国东部 2 (全球标准和数据区), 瑞典中部 (全球标准和数据区) gpt-5-chat (2025-08-07) 美国东部 2 (全球标准), 瑞典中部 (全球标准) 注意: 访问 gpt-5 模型需要注册,并将根据微软的资格标准进行审批。 gpt-5-mini、gpt-5-nano 和 gpt-5-chat 无需注册。 之前已申请并获准访问 o3 的客户无需重新申请,其获批的订阅将在模型发布后自动获得访问权限。 ...

September 12, 2025 · AI小卖铺

在 Amazon Bedrock 中使用 Anthropic Claude 模型

本指南详细介绍了如何在 Amazon Bedrock 中调用 Anthropic Claude 系列模型。您将了解到进行模型推理所需的请求参数、响应字段,以及如何通过 InvokeModel(同步)和 InvokeModelWithResponseStream(流式)操作与模型交互。 准备工作:获取模型关键信息 在调用模型进行推理之前,您需要获取模型的 ID。此外,了解模型的具体能力和限制也至关重要。您可以在 Amazon Bedrock 的官方文档中查阅以下信息: 支持的基础模型列表与模型 ID:获取调用特定模型所需的唯一标识符。 支持的模态:了解模型支持的输入和输出类型(如文本、图像)。 支持的 Bedrock 功能:确认模型是否支持您想使用的特定 Bedrock 功能。 可用的 AWS 区域:查看模型在哪些 AWS 区域提供服务。 Converse API 支持情况:部分 Claude 模型也支持通过 Converse API 进行调用,可简化多轮对话的开发。 Prompt 设计指南 高质量的 Prompt 是充分发挥模型能力的关键。 通用原则与技巧 关于通用的 Prompt 设计方法,请参考 Amazon Bedrock 的 Prompt 工程概念文档。针对 Claude 模型的特性,建议查阅 Anthropic 官方的 Prompt 工程指南以获得最佳效果。 使用 XML 标签构建结构化 Prompt Claude 模型支持使用 XML 标签来组织和分隔 Prompt 的不同部分,从而提高模型对上下文的理解能力。例如,您可以使用 <examples> 标签包裹示例,使用 <document> 标签包裹待处理的文档。建议使用具有描述性的标签名以获得最佳效果。 ...

September 12, 2025 · AI小卖铺

在 Power Automate 中使用 AI 提示

您可以将 AI Builder 提示(Prompt)作为一项操作添加至 Power Automate 流中,从而在自动化流程内实现文本生成。 重要提示: AI Builder 提示功能由 Azure OpenAI Service 提供的 GPT 模型版本驱动。此功能目前仅在部分地区可用,并可能受到使用限制或容量调节的约束。 在流中使用提示 使用现有提示 如果您已经在 AI Builder 中创建了提示,可以轻松地在 Power Automate 流中调用它。 前提条件:您已创建了一个名为 任务标识符 的提示,并且该提示包含一个名为 文本 的输入变量。 操作步骤: 登录到 Power Automate。 选择 +创建 > 即时云端流。 选择 手动触发流,然后点击 创建。 在流设计器中,点击 + 新建步骤。 在操作列表中,搜索并选择 运行提示。 注意:自 2025 年 5 月起,原名为“使用提示通过 GPT 创建文本”的操作已更名为“运行提示”。 在 提示 字段的下拉菜单中,选择您之前创建的提示(例如 任务标识符)。 选择提示后,其所需的输入字段(如 文本)会自动显示。您可以使用来自上游操作的动态内容来填充这些字段。 在流中创建新提示 您也可以直接在 Power Automate 流设计器中创建新的自定义提示。 操作步骤: 遵循上述步骤 1-4,在流中添加新步骤。 选择 运行提示 操作。 在 提示 字段的下拉菜单中,选择 新建自定义提示。 按照界面指引创建您的提示指令。 处理提示的输出 运行提示 操作会生成一个名为 Text 的流变量,您可以在后续的任何操作中使用它。 ...

September 11, 2025 · AI小卖铺

GitHub Copilot 正式集成 OpenAI GPT-5 与 GPT-5 mini 模型

GitHub Copilot 现已正式全面集成 OpenAI 的 GPT-5 和 GPT-5 mini 两款新模型。用户可以在编码过程中体验更强大的 AI 辅助能力。 模型可用性 不同版本的 GitHub Copilot 用户对新模型的访问权限有所不同: GPT-5 mini:面向所有 GitHub Copilot 订阅计划,包括免费版用户。 GPT-5:仅面向付费的 GitHub Copilot 订阅计划用户。 支持的平台 您可以通过聊天模型选择器,在以下平台和工具中使用这两款新模型: GitHub.com 网站 VS Code Visual Studio JetBrains 系列 IDE Xcode Eclipse GitHub Mobile 移动应用 如何启用 根据您的订阅类型,启用方式如下: 企业版与商业版用户 Copilot 企业版 (Enterprise) 和商业版 (Business) 的管理员需要前往 Copilot 设置,主动选择并启用关于 GPT-5 和 GPT-5 mini 的新策略。启用后,该组织内的所有用户即可在支持的 IDE 中看到并选用新模型。 个人付费版用户 个人付费计划的用户,只需在任何受支持的 IDE 中打开模型选择器,选中任一新模型,并在弹出的一次性提示中确认即可成功启用。 反馈与文档 如需了解更多关于 Copilot 中可用模型的详细信息,请查阅官方的相关文档。如果您有任何反馈或问题,可以前往 GitHub 社区参与讨论。 ...

September 11, 2025 · AI小卖铺

Gemini Batch API 现已支持 Embedding 模型与 OpenAI SDK

Gemini Batch API 现已扩展其功能,新增对 Gemini Embedding 模型的支持,并为开发者提供了通过 OpenAI SDK 提交和处理批处理任务的能力。 Batch API 专为高吞吐量、对延迟不敏感的场景设计,能够以异步方式处理任务,且价格比标准 API 低 50%,此次更新将进一步拓宽其应用范围。 支持 Gemini Embedding 模型 现在,您可以通过 Batch API 调用我们强大的 Gemini Embedding 模型。这意味着您可以在更高的速率限制下使用该模型,并且成本仅为标准 API 的一半,即每百万输入 token 0.075 美元。这一特性为更多对成本敏感、延迟容忍度高或需要异步处理的应用场景解锁了可能性。 通过以下几行 Python 代码即可开始使用批量 Embedding 功能: # 1. 创建一个包含请求的 JSONL 文件 (例如 embedding_requests.jsonl) # {"key": "request_1", "request": {"output_dimensionality": 512, "content": {"parts": [{"text": "解释一下什么是生成式 AI"}]}}} # {"key": "request_2", "request": {"output_dimensionality": 512, "content": {"parts": [{"text": "解释一下什么是量子计算"}]}}} from google import genai client = genai.Client() # 2. 上传包含批处理请求的文件 uploaded_batch_requests = client.files.upload(file='embedding_requests.jsonl') # 3. 创建 Embedding 批处理作业 batch_job = client.batches.create_embeddings( model="gemini-embedding-001", src={"file_name": uploaded_batch_requests.name} ) print(f"已创建 Embedding 批处理作业: {batch_job.name}") # 4. 等待作业完成(最长可能需要 24 小时) # ... 此处省略轮询或等待逻辑 ... # 5. 检查作业状态并下载结果 if batch_job.state.name == 'JOB_STATE_SUCCEEDED': result_file_name = batch_job.dest.file_name file_content_bytes = client.files.download(file=result_file_name) file_content = file_content_bytes.decode('utf-8') for line in file_content.splitlines(): print(line) 更多关于批量 Embedding 的信息和示例,请参阅官方文档中的相关章节。 ...

September 11, 2025 · AI小卖铺

Claude 代码解释器深度评测:对标 ChatGPT,功能与短板并存

Anthropic 近日为其 AI 模型 Claude 推出了一项强大的新功能,允许模型在服务器端沙箱环境中执行代码、分析数据并创建文件。尽管官方将其命名为拗口的“升级版文件创建与分析”(Upgraded file creation and analysis),但其实质就是对标 OpenAI 广受欢迎的 ChatGPT 代码解释器(Code Interpreter)。 这项新功能目前已向 Max、Team 和 Enterprise 订阅用户开放预览,Pro 用户也将在未来几周内获得访问权限。 新旧功能对比 值得注意的是,这项新功能与 Claude 在 2024 年 10 月推出的“分析工具”(Analysis tool)截然不同。旧版工具通过在用户浏览器中生成并执行 JavaScript 来工作,而新功能则在服务器端容器中运行,实现方式更接近 OpenAI 的代码解释器。 在设置中启用新的“升级版文件创建与分析”后,旧的“分析工具”选项会自动关闭,二者无法同时使用。 环境探索 为了解其运行环境,我们首先让 Claude 自我剖析其 Shell 和 Python 环境。 系统配置 通过一系列命令查询,我们得到了其运行环境的关键信息: 操作系统: Ubuntu 24.04.2 LTS (Noble),Linux 内核 4.4.0 架构: x86_64 Shell: GNU Bash 5.2.21 当前用户: root 工作目录: /home/claude 内存: 9.0 GB 可用磁盘空间: 约 4.6 GB(总共 4.9 GB) Python 版本: 3.12.3 Node.js 版本: 18.19.1 这是一个配备了 9GB 内存和约 5GB 磁盘空间的 Ubuntu 24.04.2 容器,预装了 Python 3.12.3 和 Node.js 18.19.1。 ...

September 10, 2025 · AI小卖铺

Google Gemini 学术使用指南

本文为多伦多都会大学 (TMU) 的学生、教职员工提供关于使用 Google Gemini 的详细指引,旨在帮助您在学术研究和教学活动中,合规、高效地利用这一生成式 AI 工具。 认识 Google Gemini (TMU 授权版) Google Gemini 是 TMU 授权的通用型生成式 AI 工具。与公开版本或其他 AI 工具(如 ChatGPT)相比,TMU 授权版在功能和数据隐私方面具有以下特点: 更强的功能:授权版本通常比免费版本提供更强大的模型能力和更高的使用限额。 数据隐私保护:TMU 授权版 Gemini 不会使用您的输入内容(Prompts)来训练其模型,更好地保护您的数据隐私。 与专业数据库的区别:集成在图书馆数据库(如 Statista)中的 AI 功能,其知识范围通常局限于该数据库内部。而 Gemini 则基于广泛的互联网信息进行生成,适用于处理复杂问题、激发创意和进行对话式交互。 准确性与内容评估 与所有 AI 工具一样,Gemini 的回答可能存在错误、偏见或不完整之处。因此,所有由 Gemini 生成的信息都必须经过严格的批判性评估。推荐使用 VALID-AI 等框架来审视其生成内容的可靠性。 Gemini 与学术研究 在学术场景中,明确 Gemini 与传统图书馆资源(如 Omni 搜索引擎和专业数据库)的界限至关重要。 Gemini vs. 传统图书馆资源 特性 Google Gemini Omni 及图书馆数据库 核心功能 内容生成与辅助工具 信息检索与馆藏访问 信息来源 广泛的互联网公开信息 经过严格筛选的学术期刊、书籍、市场报告等订阅资源 学术文章检索 可以找到部分免费在线文章的引文,但无法访问订阅内容,且引文准确性不稳定。 专为学术检索设计,是查找可靠学术文献的首选工具。 馆藏访问 无法访问 Omni 或图书馆的订阅制数据库、电子书及纸质馆藏。 主要入口,用于检索并访问 TMU 图書館的全部实体与数字馆藏。 简而言čili,当您需要可靠的学术来源、市场研究数据或馆藏内的特定信息时,请使用 Omni 和图书馆数据库。当您处于研究初期,需要进行头脑风暴、探索宽泛主题、总结复杂概念或寻找不同学科间的联系时,可以尝试使用 Gemini 作为辅助。 ...

September 10, 2025 · AI小卖铺

ChatGPT Plus 评测:每月 20 美元,到底值不值?

作为一名自由职业者,我每天都深度依赖 ChatGPT 进行研究、构建大纲和优化交付内容。至今,我已经使用 ChatGPT Plus 辅助完成了超过 200 篇文章,并用它处理 YouTube 视频的描述和标题等琐碎工作。简而言之,我的产出效率提升了五倍。 具体来说,ChatGPT Plus 为我节省了大量时间: 2-3 小时:用于总结和梳理笔记。 4-5 小时:用于创建数据可视化图表和视频封面。 它还能像一个“真人”一样,审阅我的文章、视频脚本和封面设计。 我负责有趣且富有创造性的核心部分,而 ChatGPT 模型则处理其余的繁重工作。本文将深入探讨 ChatGPT Plus 的价值所在。 升级 Plus 的核心优势 1. 更强大的 AI 模型带来更高质量的回复 升级到 ChatGPT Plus 最核心的理由是:你可以使用规模更大、更智能的 AI 模型。这直接带来了回复质量的巨大差异。 免费版通常使用的是 GPT-4o-mini 或更早的模型,它们虽然不错,但能力有限。升级到 Plus 后,你可以使用完整的 GPT-4o 模型,甚至能体验到最新的预览模型。其提升是立竿见影的:答案更准确,更严格地遵循指令,废话更少,整体质量更高。 以我工作中的一个真实提示词为例: “为生产力领域的博客提供一些细分主题,并附上示例文章标题(最多 70 个字符)。” 免费版模型给出的想法非常基础和陈词滥调。而 ChatGPT Plus(使用完整版 GPT-4o)的输出则完全不同,它提供了新颖的思路、实用的话题建议,并指出了可以重点关注的关键词(如艾森豪威尔矩阵、SMART 原则、Notion 等)。 以下是 Plus 版本的输出示例: 1. 时间管理 “10个提升日常效率的10分钟技巧” “如何使用艾森豪威尔矩阵安排任务优先级” “时间块(Time Blocking)入门:高效组织你的一天” 2. 目标设定 “SMART 目标:设定你真正能实现的目标” “为什么你的目标会失败以及如何修正” “手把手教你创建个人愿景板” 3. 生产力工具与应用 “7款让你保持井井有条的顶级生产力App” “如何使用Notion来简化你的工作流程” “Evernote vs. OneNote:哪个更适合你?” 2. 更长的上下文窗口 付费版的上下文窗口远大于免费版(例如 32k vs 8k),这意味着在长对话中,AI 能更好地记住之前的讨论细节,保持对话的连贯性和深度。 ...

September 10, 2025 · AI小卖铺