Chrome build-in AI 最初需要填写申请表,只能在 Chrome 的开发者版本中体验。现在,用户可以通过几个简单的步骤在正式版本中开启这项功能。
按照网页上的指示完成配置后,您就可以访问调试页面。在这里,您可以快速修改代码,体验本地 AI 的强大功能。
注意:Chrome API 仍处于草案阶段,可能会有较大变动。本网页基于 Chrome 129 版本开发,不兼容 Chrome 128 版本的API。
为什么会有 Chrome 本地 AI?
在以往使用AI应用,我们通常习惯于依赖服务端的解决方案,引发部分用户对于隐私的担忧。
也有部分开发者尝试迁移AI模型到浏览器中,模型大小通常是网页中位数大小的千倍左右,由于这些模型不会在网站之前共享,访问不同的网页都需要重新下载这些模型,是个非常消耗用户资源的解决方案。
因此 Chrome 在浏览器中集成 Gemoni Nano,并暴露标准的 Web 平台 API,旨在在大多数台式机和笔记本中运行。借助Chrome内置AI的能力,你的网站可以快速执行AI驱动的任务,而无需部署或管理自己的AI模型。
目前可以直接在网页中以隐私安全的模式调用本地的大模型,进行问答、翻译等功能。
Chrome 内置 AI 对 Web 开发人员的好处?
部署简便:因为浏览器会自动分发模型,所以它会考虑设备的能力并管理模型的更新。这意味着您无需负责通过网络下载或更新大型模型,也不需要担心存储释放、运行时内存限制、服务成本等其他问题。
访问硬件加速:浏览器的人工智能运行时经过优化,能够充分利用可用的硬件资源,无论是GPU、NPU,还是回退到CPU。因此,您的应用可以在每种设备上实现最佳性能。
在设备上运行AI的好处?
敏感数据的本地处理:设备上的人工智能可以提升您的隐私保护。例如,如果您处理敏感数据,可以为用户提供带有端到端加密的人工智能功能。
灵敏的用户体验:在某些情况下,省去往返服务器的过程意味着可以提供近乎即时的结果。设备上的人工智能可以成为实现可用功能与次优用户体验之间的关键差异。
更广泛的AI访问:用户的设备可以分担部分处理负担,以换取更多功能的使用。例如,如果你提供高级AI功能,可以通过设备上的AI来预览这些功能,让潜在客户了解你产品的优势,而无需增加你的费用。这种混合方法也可以帮助你管理推理成本,特别是在经常使用的用户流程中。
离线AI使用:您的用户即使在没有互联网连接的情况下也能访问AI功能。这意味着您的网站和网络应用可以在离线或网络连接不稳定的情况下正常工作。
浏览器架构和 API
主要通过任务 API 访问内置的 AI 功能。任务 API 旨在针对分配的最佳模型运行推理。
在 Chrome 中,这些 API 旨在通过微调或专家模型针对 Gemini Nano 运行推理。Gemini Nano 旨在在大多数现代设备上本地运行,最适合与语言相关的用例,例如摘要、改写或分类。
关键术语:微调是一种动态提高模型执行特定任务的能力的方法,而无需为每个任务下载新模型。
提供两类API:
提示 API:将以自然语言表示的任意任务发送到内置的大型语言模型(Chrome 中的 Gemini Nano)。
微调 (LoRA) API:通过使用低秩自适应微调来调整模型的权重,从而提高内置 LLM 在任务上的性能。
可以给用户提供怎样的能力?
人工智能增强的内容消费:包括摘要、翻译、回答内容相关问题、分类和特征分析。
人工智能支持的内容创作:包括写作辅助、校对、语法纠正和改写。
摘要 API:
对于较晚加入会议或完全错过会议的用户,会议记录概述。
客户关系管理支持对话中的要点。
多个产品评论的句子或段落大小的摘要。
长篇文章的要点,以帮助读者确定文章是否相关。
在论坛中总结问题,以帮助专家找到与其专业领域最相关的问题。
写作和重写的API:
根据初始想法和可选背景写作。例如,给银行写一封正式邮件,请求提高信用额度,背景是您是一位长期客户。
通过调整文本的长度或语气,来优化现有内容。例如,可以将一封简短的邮件重写,使其听起来更加礼貌和正式。
在线体验地址:chrome-ai.edgeone.app