欢迎来到AI小卖铺博客
每天分享人工智能资讯、技术教程和工具。
每天分享人工智能资讯、技术教程和工具。
回想一下,你上次用 Claude 高效完成一项工作(比如制作演示文稿、分析报告)的情景。除了 Claude 本身的智能,你的指导也至关重要:你解释了标准、描述了结构、提供了示例,并修正了不完善之处。 现在,你无需在每次处理相似任务时都重复这一过程。技能 (Skills) 功能允许你将这些经验和标准打包,当 Claude 识别到匹配的场景时,便会自动调用这些专业知识,省去你反复解释、查找规范或修改通用输出的麻烦。 为什么“技能”对你的工作很重要 你可能已经为某些任务(如报告结构、分析框架、沟通风格)总结出了一套行之有效的方法。但在以往,每次与 Claude 开启新对话时,你都必须重新解释这些规则。 技能 (Skills) 正是为解决这一痛点而生。你只需一次性将你的方法打包,Claude 就能在任何对话中自动应用它。 使用“技能”前:你让 Claude 创建一份季度业务回顾 (QBR)。尽管 Claude 能制作演示文稿,但你每次都需要详细说明,才能让它符合你的特定标准。即使你将规范文档上传到“项目”中,这些规范也不会在需要时被自动应用。 使用“技能”后:在创建了 QBR 技能后,你只需提出相同的请求。Claude 会通过任务的名称或描述识别出意图,并在其思考过程中显示“正在读取 QBR 技能”。随后,它会自动应用你预设的品牌指南和偏好结构,从一开始就生成符合你标准的成果。 “技能”与其他 Claude 功能的协作 为了更好地理解“技能”的定位,我们可以将其与 Claude 的其他功能进行比较。 技能 vs. 项目 (Projects) “项目”功能非常适合需要长期积累上下文的工作,例如产品发布、持续的研究或为期数周的营销活动。你可以在一个独立的工作空间内上传文档、积累对话历史。但“项目”是有边界的,其上下文仅在内部生效。 相比之下,技能无处不在。一旦创建,它就可以在任何对话中被激活,无论是常规聊天还是在某个“项目”内部。 使用“项目”:处理需要持续积累上下文的工作,如产品发布、研究课题。 使用“技能”:处理需要自动应用的、可重复的流程,如品牌指南、分析框架。 你也可以将两者结合使用,让需要长期上下文的工作也能受益于标准化的流程。 技能 vs. 自定义指令 (Custom Instructions) “自定义指令”用于设定你希望 Claude 普遍遵守的偏好,例如“在开始前先提出澄清性问题”或“保持解释简洁”。这些指令会全局生效。 而技能更为具体和深入。它可以包含更详尽的说明、完整的参考资料库和详细的框架,这些内容如果放在“自定义指令”中会显得过于臃肿。技能只在相关任务被触发时激活。例如,“创建财务模型时,使用此验证框架”就适合存放在技能中,因为它只应用于财务建模工作。 技能 vs. 常规提示 (Prompting) 对于一次性或探索性的任务,一次清晰的提示(Prompt)就足够了。你只需解释需求、提供上下文并优化输出即可。 技能则专注于可重复的任务。它让你无需反复上传材料和解释标准。当一项工作需要跨领域的专业知识时,多个技能可以自动组合并协同工作,无需你逐一指定。此外,通过打包完整的参考库、验证框架和质量标准,技能能够产出更高质量的结果,这通常需要通过多轮复杂的提示才能实现。 识别创建“技能”的最佳时机 从简单的格式规则到整合多源数据并生成报告的完整工作流,都可以创建为技能。当你明确了某项任务的最佳实践,并希望 Claude 能始终如一地遵循时,就是创建技能的好时机。 当你已提炼出成熟的工作方法 如果你发现自己总是在向 Claude 解释同一套流程,就可以考虑将其转化为技能。 周报技能:按“成果、障碍、优先事项”的结构组织更新,让会议更聚焦。 客户反馈分析技能:遵循你的框架对反馈进行分类、识别模式并发现高优需求。 销售电话准备技能:自动研究客户、总结近期互动并生成沟通要点。 当产出质量依赖特定素材 某些工作需要特定的示例、模板或领域知识才能达到标准。将这些素材打包进技能,可以确保产出质量的稳定性。 ...
在学术写作中,当您使用 ChatGPT 等生成式 AI 工具获取信息、转述观点或生成文本时,进行正确的学术引用至关重要。不同的学术规范对此有不同的要求,本文将重点介绍 APA(美国心理学会)和 MLA(现代语言协会)两种主流格式的引用指南。 APA 格式指南 APA 规范建议将 AI 工具本身视为作者。其核心逻辑是,AI 的输出并非个人交流,而是算法生成的结果,因此应将算法的创建者(即公司)记为作者。 APA 官方博客指出:“由于其他读者无法检索到 ChatGPT 的聊天记录……将 ChatGPT 生成的文本作为引用,更像是分享一个算法的输出结果。因此,应通过参考文献和相应的文内引用的方式,将功劳归于算法的作者。” 同时,APA 明确指出,与 ChatGPT 的对话不应被视为“个人交流”(Personal Communication)。 使用场景与方法 研究方法部分:在“方法”章节中,应详细描述您是如何使用该 AI 工具的。 文献综述或论文:在引言部分说明您如何使用了该工具。在正文中,提供您使用的提示词(Prompt),并引用由其生成的相关文本内容。 参考文献:为算法的作者创建一个参考文献条目,并在正文中进行相应的引用。 引用示例 文内引用 当被问及“左脑和右脑的划分是真实的还是一个比喻?”时,ChatGPT 生成的文本指出,尽管两个大脑半球在功能上有所专攻,“但将人描述为‘左脑型’或‘右脑型’的说法被认为是一种过度简化和流行的误解” (OpenAI, 2023)。 参考文献条目 OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat 注意:虽然规范要求提供 URL,但在实际提交的论文中,请遵循您所在机构或期刊关于链接的具体要求。 MLA 格式指南 与 APA 不同,MLA 规范不建议将 AI 工具视为作者。 MLA 官方指南称:“我们不推荐将 AI 工具视为作者。这一建议遵循了包括 MLA 官方期刊 PMLA 在内的多家出版机构制定的政策。” 核心原则 当您转述、引用或以任何形式整合由 AI 工具创建的内容(包括文本、图像、数据等)时,都必须进行引用。 对于 AI 的功能性使用(如编辑文字、翻译词句等),应在注释、正文或其他合适的位置加以说明。 在使用 AI 提供的二手资料时,务必仔细审查其准确性。 引用示例 以下是一个在文章中转述 AI 生成内容并提供相应引用的示例。 ...
Gemini CLI 迎来一项重大更新,显著提升了您的工作流效率。现在,您可以直接在 Gemini CLI 内部运行复杂的交互式命令,例如使用 vim 编辑文件、通过 top 监控系统,甚至执行 git rebase -i 等操作。您无需再切换到独立的终端,也告别了因交互式命令而“卡住”的窘境。 将一切保留在上下文中 这一改进的核心优势在于,所有操作都将在 Gemini CLI 的上下文中进行。以往,运行交互式 shell 命令需要退出 Gemini CLI,这会导致命令在 Gemini CLI 的上下文之外执行,从而丢失会话信息。 通过引入伪终端(Pseudo-Terminal, PTY)支持,那些需要丰富终端功能的应用——如文本编辑器、系统监视器或依赖终端控制码的工具——现在都可以在 Gemini CLI 内部及其上下文中无缝运行。 工作原理:序列化终端状态 当您执行 shell 命令时,Gemini CLI 会借助 node-pty 库,在后台的一个伪终端内启动一个新进程。PTY 充当中间层,为操作系统提供必要的接口,使其将该会话识别为一个终端。这使得各种应用程序和命令能以其原生设计的方式运行。 实时状态流 那么,这个在后台运行的虚拟终端是如何呈现在您屏幕上的呢?可以将其想象成一个视频流。我们全新的序列化器会实时捕捉伪终端的每一个快照——包括所有文本、颜色,甚至是光标位置。这些快照以流的形式传输给您,让您能够实时查看并与终端应用交互。这不仅仅是文本流,而是动态的实时画面。 完整的双向交互 新架构实现了完整的双向通信。我们增加了向终端写入输入甚至动态调整其大小的功能。您的键盘输入会被发送到正在运行的进程中;当您调整窗口大小时,Gemini shell 内的应用程序也会像在原生终端中一样自适应布局。 您可以使用 ctrl+f 组合键聚焦于终端。同时,我们还改进了输出处理,能够正确渲染彩色的终端输出,让您尽情享受心爱命令行工具的完整体验。 如何开始使用 自 v0.9.0 版本起,新的交互式 shell 已默认启用。您可以通过以下命令升级到最新版本: npm install -g @google/gemini-cli@latest 如需更多信息,请参阅 Gemini CLI 的官方文档。 应用场景示例 以下是您现在可以在交互式 shell 中运行的部分命令类型: 使用 vim、nvim 或 nano 编辑代码。 通过交互式 Git 命令(如 git rebase -i)管理提交。 运行您偏爱语言的交互式 REPL 环境。 执行 htop 或 mc 等全屏终端应用。 轻松导航 npm init 或 ng new 等交互式设置脚本。 响应特定 gcloud 命令的交互式提示。 展望与反馈 这是我们 shell 集成迈出的重要一步。我们正积极优化跨平台的输入处理。如果您在使用过程中遇到任何问题或不一致的情况,欢迎在我们的 GitHub 仓库中分享您的反馈。 ...
沃尔玛正与 OpenAI 展开合作,为消费者带来一项创新功能——通过 ChatGPT 直接完成购物。这是该零售巨头在利用人工智能优化运营方面的一项重要投资。 “即时结账”:无缝的对话式购物 借助 ChatGPT 新推出的 “即时结账” (Instant Checkout) 功能,用户在与 AI 聊天机器人对话时,可以直接浏览沃尔玛的商品并完成下单,整个过程无需离开当前应用。 OpenAI 在上个月首次发布了 “即时结账” 功能。它允许用户向 ChatGPT 提出购物需求,例如: “推荐一款 1000 美元以下的最佳床垫” “为一位狂热的阅读爱好者挑选一份礼物” 然后,用户可以直接在聊天界面内购买 AI 推荐的商品。 通过与沃尔玛的合作,这种由 AI 驱动的购物体验将得到进一步增强。沃尔玛表示,顾客和山姆会员店的会员只需通过聊天,就能轻松规划餐饮、补充生活必需品或发现新产品,后续的流程将由沃尔玛处理。 超越搜索框:沃尔玛的 “代理式商务” 愿景 沃尔玛强调,此举旨在超越传统电商的搜索工具。传统的搜索模式仅仅是根据用户的请求被动地返回商品列表。 沃尔玛将这种新模式称为 “代理式商务” (agentic commerce)。在这种模式下,AI 会学习并预测顾客的需求,将购物从一种被动的响应式体验转变为主动的引导式体验。 沃尔玛首席执行官董明伦 (Doug McMillon) 认为,这种面向消费者的功能升级早就应该实现。 多年来,电商的购物体验一直由一个搜索框和一长串的商品列表构成。这种情况即将改变……我们正通过自家的 AI 助手 Sparky 以及与 OpenAI 等伙伴的重要合作,朝着更愉快、更便捷的未来迈进。 Sparky 是沃尔玛自研的生成式 AI 购物助手,旨在提供更具对话性和个性化的购物辅助。OpenAI 的联合创始人兼首席执行官 Sam Altman 也称赞此次合作“让日常购物变得更加简单”。 行业风向:电商巨头的 AI 代理布局 在探索 “代理式 AI” 的道路上,沃尔玛并非孤例。电商巨头亚马逊也在积极布局,其理念同样是让 AI 代理(bots)代替人类执行任务。 ...
Zillow 近期在 ChatGPT 平台中推出了其官方应用,为消费者提供了一种通过对话式 AI 开启购房之旅的全新方式。此举不仅是技术上的创新,也为房地产专业人士带来了重要的发展机遇。 每周有超过 8 亿人使用 ChatGPT,现在,他们的住房搜索问题可以直接导向源自 MLS (Multiple Listing Service) 的真实房源,并完整保留经纪人和 MLS 的署名信息。这标志着负责任的 AI 在房地产领域应用的一个里程碑,它在快速演进的数字环境中,进一步巩固了经纪人、中介机构和 MLS 的核心地位。 工作原理 当用户在 ChatGPT 中提出关于房屋、社区或购房负担能力的问题时,他们可以无缝接入 Zillow 的实时房源、筛选功能和专业洞察。 用户交互流程 用户可以通过自然语言在 ChatGPT 内浏览房源、探索社区。例如,用户可以提出具体需求: “帮我找一个带装修地下室的房子。” 当用户准备采取下一步行动时,例如预约看房、联系经纪人或申请贷款,这些操作将被引导至 Zillow 的平台内完成。 如何触发 Zillow 应用 在 ChatGPT 中,有两种情况会调用 Zillow 应用来展示结果: 明确指定:用户在提示词中以“Zillow”开头,例如:“Zillow,给我看看在售的房子”。 智能推荐:当用户提出相关的住房搜索请求时,ChatGPT 会智能推荐并调用 Zillow 应用,例如:“帮我在丹佛找一个低于 2000 美元的出租房”。 出售与租赁房源 在大多数查询中,用户需要明确指出是寻找“出售”房源还是“租赁”房源。如果查询意图不明确,系统将默认显示出售房源。 数据安全与行业合规 Zillow 与 OpenAI 直接合作,确保整个体验在构建之初就严格遵守行业规则和数据保护标准。Zillow 对其在 ChatGPT 内的应用体验拥有 100% 的控制权,从而保护 MLS 数据并维持 IDX (Internet Data Exchange) 合规性。 ...
Google Workspace 近日为 Gmail 引入了一项由 Gemini AI 驱动的全新功能——“帮我安排日程”(Help me schedule),旨在简化通过邮件协调会议时间的流程。 工作流程 该功能通过深度集成 Google 日历和 AI 上下文理解能力,实现了高效的会议安排自动化。其具体工作流程如下: 智能意图检测:当用户回复一封涉及安排会议或讨论时间的邮件时,Gmail 会自动识别该意图,并在邮件编辑器的工具栏中显示“帮我安排日程”按钮。 生成会议时间建议:用户点击该按钮后,Gemini AI 会分析邮件的上下文内容,并结合用户自己的 Google 日历空闲状态,智能推荐多个合适的会议时间。 直接插入邮件:这些推荐的时间选项会作为可交互的元素直接插入到邮件回复的正文中,供收件人选择。 自动创建日历邀请:收件人收到邮件后,只需在邮件中点击最合适的时间选项,系统便会自动为所有相关人员创建 Google 日历邀请,无需再手动操作。 这项更新将AI能力无缝融入日常工作流,有效减少了来回沟通确认时间的繁琐步骤,显著提升了日程安排的效率。 👉 如果你需要 ChatGPT 代充 / Claude / Claude Code / 镜像 / 中转 API: 购买 / 了解更多:ai4.plus 备用入口:kk4099.com
nanochat 是一个全栈式实现类 ChatGPT 大语言模型 (LLM) 的项目。它被整合在一个单一、简洁、极简、易于修改且依赖轻量的代码库中。 nanochat 的设计目标是在单个 8xH100 节点上,通过 speedrun.sh 这样的脚本,端到端地运行整个 LLM 管线。这包括从分词、预训练、微调、评估、推理,到通过一个简单的 Web UI 提供服务,让你能像使用 ChatGPT 一样与自己训练的 LLM 对话。 本项目也将成为 Eureka Labs 正在开发的 LLM101n 课程的毕业项目。 快速上手 体验 nanochat 魅力的最快方式是运行 speedrun.sh 脚本,它将训练并运行一个百元成本级别的模型。在一台每小时 24 美元的 8xH100 节点上,整个过程大约需要 4 小时。 首先,从你常用的云服务商(例如 Lambda)启动一台 8xH100 GPU 服务器,然后运行以下训练脚本: bash speedrun.sh 由于脚本需要运行 4 小时,推荐在 screen 会话中启动,并将日志输出到文件: screen -L -Logfile speedrun.log -S speedrun bash speedrun.sh 如果你对 screen 不太熟悉,可以查阅相关教程。启动后,你可以在 screen 会话中观察进度,或使用 Ctrl-a d 分离会话,并通过 tail -f speedrun.log 查看进度。 ...
根据美国心理学会(APA)发布的第七版规范,当你在学术研究中使用 ChatGPT 或其他人工智能工具时,需要遵循特定的引用方法。本指南将详细介绍如何在论文中恰当引用这类 AI 模型。 在论文中声明 AI 工具的使用 如果你在研究中借助了 ChatGPT,应在论文的方法(Method)部分或类似章节中清晰说明你如何使用该工具。对于文献综述、评论性文章等类型的论文,则可以在引言部分进行描述。 在正文中,你需要提供: 你向 ChatGPT 提交的提示词 (Prompt)。 由 AI 生成并被你引用的相关文本。 由于 AI 生成的回复对于其他读者是不可检索的,并且交流对象并非真人,因此不能将其作为“个人通信” (personal communication) 来引用。引用 ChatGPT 的文本更像是分享一个算法的输出。因此,正确的做法是在文末的参考文献列表中列出该算法的作者(即开发公司),并在正文中进行相应的文内引用。 为了保证研究的透明度和可复现性,建议将 ChatGPT 生成的较长回复全文放入论文的附录 (Appendix) 或在线补充材料中。这一点尤为重要,因为即使输入完全相同的提示词,ChatGPT 在每次会话中也可能生成不同的回复。 参考文献格式 引用 ChatGPT 的格式基于 APA 手册中关于软件的引用模板。 引用示例 OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat 格式解析 标准的 APA 引用包含四个核心要素:作者、日期、标题和来源。 1. 作者 (Author) 模型的开发者是 OpenAI。 2. 日期 (Date) 日期为你所使用版本的年份。APA 规范要求只写年份,具体的版本信息已在标题中提供。 3. 标题 (Title) 模型名称:即 ChatGPT,在引用中应使用斜体。 版本号:紧跟在模型名称后,用圆括号括起来。OpenAI 以日期作为版本标识,因此格式为 (Mar 14 version)。其他模型可能使用不同的版本号方案(如 Version 2.0),请根据其提供商的官方信息填写。 内容描述:在版本号后,使用方括号提供对引用内容的额外说明,以帮助读者理解其性质。对于 ChatGPT,描述为 [Large language model]。如果你使用的是 GPT-4,OpenAI 将其描述为“大型多模态模型”,因此可以使用 [Large multimodal model]。 4. 来源 (Source) 当作者与出版商相同时,无需在来源部分重复其名称。因此,在 OpenAI 的例子中,直接提供 URL 即可。URL 应尽可能直接指向模型的访问地址,而非公司主页。 ...
在近日的 Google Cloud 活动上,我们正式发布了 Gemini Enterprise——一个专为企业环境打造的全新 AI 入口。Gemini Enterprise 由强大的 Gemini 模型驱动,旨在连接企业内部信息,并通过 AI 代理(Agent)帮助团队高效协作和实现任务自动化。我们的目标是将 Google 最顶尖的 AI 技术融入每一位员工的每一个工作流程中。 本文将详细介绍 Gemini Enterprise 的核心功能、Workspace 的相关更新,以及我们为 AI 技能学习推出的全新平台。 隆重推出 Gemini Enterprise:企业级 AI 新入口 正如 Google Cloud CEO Thomas Kurian 所介绍,真正的业务转型不能止步于简单的聊天机器人。Gemini Enterprise 的诞生正是为了实现这一目标。它不仅仅是一个工具,更是企业在 AI 时代实现深度变革的催化剂。 Gemini Enterprise 将成为您工作场所中 Google AI 的统一入口,致力于解决更复杂的业务挑战。 Gemini Enterprise 的四大核心优势 Gemini Enterprise 旨在通过以下四个方面,帮助您和您的团队节省宝贵时间,让工作变得更轻松: 深度连接企业信息:安全地索引和访问公司内部数据,让 AI 能够基于准确、相关的上下文提供支持。 赋能团队协作:在会议、文档和沟通工具中提供智能摘要、内容创作和洞察分析,提升团队协作效率。 任务自动化代理:通过可定制的 AI 代理自动执行重复性任务和复杂的工作流,将员工从繁琐的工作中解放出来。 赋能所有工作流:将 AI 能力无缝集成到员工日常使用的各种应用和工作流程中,无需切换环境即可获得智能辅助。 蓬勃发展的合作伙伴生态系统 我们深知,一个强大的生态系统对于技术普及至关重要。因此,我们为合作伙伴提供了全新的机遇,让他们能够将自己的解决方案与 Gemini Enterprise 的代理生态系统相集成,并推向市场。这不仅丰富了 Gemini Enterprise 的功能,也为客户提供了更多样化的选择。 ...
Anthropic 的 Claude Sonnet 4.5 模型现已面向 GitHub Copilot 用户全面开放。您可以在多个平台和工具中通过模型选择器来调用此模型,以提升编码体验。 适用订阅计划 以下订阅计划的用户均可使用 Claude Sonnet 4.5: Copilot Enterprise Copilot Business Copilot Pro Copilot Pro+ 支持平台 您可以在以下环境中通过 Copilot Chat 的 agent、ask 或 edit 模式访问新模型: GitHub.com 网页端 GitHub Mobile 移动应用 Visual Studio Code Visual Studio JetBrains 系列 IDE Xcode Eclipse 如何启用模型 启用方式因用户类型而异: 针对企业和商业版用户 组织管理员必须在 Copilot Chat 和 IDE 的设置中,主动开启新的 Claude Sonnet 4.5 策略。一旦启用,该组织内的所有用户便可在各受支持的 IDE 模型选择器中看到此选项。 针对个人版用户 个人计划用户(Copilot Pro 及 Pro+)的启用步骤非常简单: 在任何受支持的 IDE 中打开 Copilot Chat。 从模型选择器中选中 Claude Sonnet 4.5。 在一次性弹出的提示中确认即可启用。 Copilot Coding Agent 的特别说明 需要注意的是,无论您在 Copilot Chat 中的个人设置如何,Copilot coding agent 现在将默认使用 Claude Sonnet 4.5 模型。此项更新适用于所有订阅类型的用户。 ...