机器之心报道
机器之心编辑部
今年的微软 Build 大会,高度聚焦生成式 AI,联手OpenAI打造一个大宇宙。
最近几个月,微软一直忙于在自身的许多产品和服务中构建生成式 AI,包括搜索引擎 Bing、浏览器 Edge、GitHub 和 Office 生产力套件。
在今天凌晨举行的微软 Build 2023 大会上,这些成果终于出来了,且更进了一步:微软 AI 宇宙越来越完备了。
今年的微软 Build 大会话题高度集中于 AI。微软 CEO 萨提亚・纳德拉先是讨论了这些年来的平台转变并回忆了技术变革,然后直接公布:‘我们为开发者宣布了 50 多项更新,从将 Bing 引入 ChatGPT 到 Windows Copilot,再到具有通用扩展性的新 Copilot Stack、Azure AI Studio 以及新数据分析平台 Microsoft Fabric。’
接下来,微软连续发布了这些重要更新,与普通用户更加相关的变化包括:在 Windows 11 和 Edge 中新增了 CoPilot 体验,以及 OpenAI ChatGPT 的新 Bing AI 和 Copilot 插件。
Copilot 登陆 Windows 11
此次微软发布了 Windows Copilot,成为第一个为用户提供集中式 AI 协助的 PC 平台。Windows Copilot 与 Bing Chat 和第一 / 三方插件一起使用,使用户可以专注于将自己的想法变为现实,完成复杂的项目和协作,而不用花费精力寻找、启动和跨多个应用程序来工作。
Windows Copilot 调用和使用起来非常简单。打开后,Windows Copilot 就变成了一个集成在操作系统中的侧边栏工具,帮助用户完成各种任务。
微软表示,Windows Copilot 将成为高效的个人助理,帮助用户采取行动、自定义设置并无缝地链接到自己喜爱的应用程序。
此外 Windows 的很多功能,包括复制 / 粘贴、Snap Assist、截图和个性化,都可以通过 Windows Copilot 变得更好用。例如,用户不仅可以复制 / 粘贴,还能要求 Windows Copilot 重写、总结或解释内容。
与此同时,就像使用 Bing Chat 一样,用户可以向 Windows Copilot 询问一系列从简单到复杂的问题。例如我想打电话给自己在塞浦路斯的家人,则可以快速查看当地时间,以确保不会在半夜叫醒他们。如果我想计划去塞浦路斯看望他们,则可以让 Windows Copilot 查询航班和住宿。
微软表示,Windows Copilot 将于 6 月开始公开测试,之后陆续向现有 Windows 11 用户推送。
ChatGPT 默认必应搜索
自从 Bing 宣布接入 ChatGPT 以来,Bing 用户已经参与了超过 5 亿次聊天,使用 Bing Image Creator 创建了超过 2 亿张图像,而 Bing 移动应用程序的每日下载量自发布以来增长了 8 倍。
在这场大会上,Bing 迎来了三个关键更新:将 Bing 搜索整合到 ChatGPT,与 OpenAI 和新的插件合作伙伴建立一个共同的插件平台,以及扩大 Bing Chat 在整个微软 Copilot 中的整合。
‘今天的更新为开发者创造了更大的机会,也为人们创造了更神奇的体验,因为我们在继续进行搜索的转型。’
其中一个值得关注的变化是,Bing 将成为 ChatGPT 的默认搜索引擎插件。纳德拉也展示了它将会如何工作:
‘这只是我们计划与 OpenAI 的合作伙伴一起将 Bing 的最佳体验带入 ChatGPT 体验的开始。’纳德拉表示。
微软表示,ChatGPT 接入新必应后,可通过网络访问提供更及时、更新的答案。ChatGPT Plus 订阅者可以立即体验这一功能。
ChatGPT 中默认必应搜索
加速构建必应生态系统并使用插件增强性能
微软和 OpenAI 将通过互操作性来支持和发展 AI 插件生态系统。这意味着开发人员现在可以使用一个平台来构建和提交适用于消费者和企业的插件,包括 ChatGPT、Bing、Dynamics 365 Copilot、Microsoft 365 Copilot 和 Windows Copilot。
作为该共享插件平台的一部分,必应正在增加对各种插件的支持。除了之前已经宣布的 OpenTable 和 Wolfram Alpha 插件以外,微软又宣布将 Expedia、Instacart、Kayak、Klarna、Redfin、TripAdvisor 和 Zillow 加入必应生态系统。
借助直接内置于聊天系统中的插件,必应会根据用户的对话提出相关建议。例如,用户可以使用 OpenTable 插件来询问餐馆等相关话题。此外,微软还表示此类功能将能够在移动端上的必应应用程序中使用,这将大幅扩展应用场景。
此外,数十家企业正成为 Bing Chat 插件的合作伙伴:
必应插件
同时,开发人员现在可以使用插件将他们的应用和服务集成到 Microsoft 365 Copilot 中。适用于 Microsoft 365 Copilot 的插件包括 ChatGPT 和 Bing 插件,以及 Teams 消息扩展和 Power Platform connector。
将 Bing 集成到 Copilot
与此同时,随着 Windows Copilot 的发布,微软还将 Bing Chat 的强大功能集成到了 Windows 11 中。Windows Copilot 和 Bing Chat(包括与 Bing 和 OpenAI 共享的插件平台)配合使用,将使这些插件通过 Windows 上的应用得到增强。这将比以往任何时候都更容易获得个性化答案、相关建议并采取快速行动。
除了 Windows 之外,微软还将其通用插件平台原生集成到了 Edge 浏览器中,使它成为首个集成 AI 搜索的浏览器。
DevHome:提升开发人员在 Windows 11 上的工作效率
我们知道,开发人员在工作中需要不断地处理手动开发设置,不仅频繁点击,还要进行多个工具登录、导航次优的文件系统和上下文切换。所有这些都会严重影响他们的开发效率。
因此,为了提升开发人员的工作效率,微软在 Windows 11 中推出新的生产力伙伴 DevHome。目前已经提供了 DevHome 预览版,其 WinGet 配置功能用于实现更简单快速的设置、Dev Drive 功能用于增强文件系统功能、新增一个自定义控制面板用于在一个地方跟踪所有工作流程和任务。这些都可以简化开发人员的工作流程。
DevHome 可以轻松链接到 GitHub,方便地安装自己需要的工具和包。
DevHome 还可以使用 Microsoft Dev Box 和 GitHub Codespaces 在云上配置用户编码环境。总之,通过为开发人员设计的 DevHome,微软提供了一个终极生产力伙伴,让他们可以专注于自己最擅长的事情 —— 编写代码。
DevHome 地址:https://github.com/microsoft/DevHome
WinGet 配置无人值守且可靠的开发机器设置
使用新的 WinGet 配置,开发人员只需点击几下就可以准备好编码。这种无人值守、可靠且可重复的机制使开发人员可以跳过设置新机器或启动新项目的手动工作,消除了下载正确版本的软件、包、工具和框架以及应用设置的烦恼。设置时间可以从几天缩短至几小时。
Dev Drive:为开发人员量身定制新存储卷
用户经常遇到这种情况,即需要处理包含数千个文件和目录的存储库,这对 I/O 操作(例如构建)提出了挑战。现在,微软推出了一种新型存储卷 Dev Drive,兼具性能和安全两大特性,专为开发人员定制。
Dev Drive 基于 Resilient File System,在文件 I/O 场景的构建时间方面提供了高达 30% 的文件系统改进。
DevHome 使得在环境设置过程中设置 Dev Drive 非常简单。它非常适合托管项目源代码、工作文件夹和包缓存。微软将于本周晚些时候提供 Dev Drive 的预览版。
在 DevHome 中有效跟踪用户工作流程
DevHome 还可以帮助用户管理正在运行的项目,通过添加 GitHub 小部件来有效地跟踪所有编码任务或发出的请求、以及跟踪 CPU 和 GPU 性能。此外,微软正在与 Team Xbox 合作,将 GDK 整合到 DevHome,使其更容易开始游戏创作。
GitHub Copilot X 加持的 Windows Terminal
GitHub Copilot 的用户将能够通过 inline 和实验性聊天体验使用自然语言 AI 模型来推荐命令、解释 error,并在 Terminal 应用程序中采取行动。
此外,微软还在 WinDBG 等开发人员工具中试验 GitHub Copilot 支持的 AI 功能,帮助用户提高工作效率。GitHub Copilot Chat 候补名单现已开放,微软即将开通这些功能的访问权限。
让每个 Windows 11 开发者都成为 AI 开发者
此外,微软继续投资于重要的工具,使应用程序的构建更加民主化,以适应人工智能新时代。无论用户是在 x86/x64 还是 Arm64 上进行开发,微软都希望用户能够轻松地在云计算和边缘计算中为 Windows 应用程序带来 AI 驱动的体验。
去年在 Build 上,微软宣布了一种新的开发模式 Hybrid Loop,可以跨 Azure 和客户端设备实现混合 AI 场景。同样的,在今天 Build 上,微软表示其愿景已经实现,使用 ONNX Runtime 作为 Windows AI 和 Olive 的网关,微软创建的工具链减轻了用户在优化各种 Windows 和其他设备模型时的负担。借助 ONNX Runtime,第三方开发人员可以访问微软内部使用的工具,以便在 Windows 或跨 CPU、GPU、NPU 或与 Azure 混合的其他设备上运行 AI 模型。
在运行模型时,ONNX Runtime 现在支持在设备上或云端运行相同的 API,支持混合推理场景,此外,用户应用程序可以使用本地资源,并在需要时切换到云端。通过新的 Azure EP 预览版,用户可以连接到部署在 AzureML 中的模型,甚至可以连接到 Azure OpenAI 服务。只需几行代码,用户就可以指定云端点并定义何时使用云的标准。由此,用户可以更好地控制成本,因为 Azure EP 允许用户可以灵活地选择在云端使用较大的模型或在运行时使用较小的本地模型。
用户还可以使用 Olive 为不同的硬件优化模型,Olive 是一个可扩展的工具链,结合了用于模型压缩、优化和编译的尖端技术。基于此,用户可以跨 Windows、iOS、Android 和 Linux 等平台使用 ONNX Runtime。
总结而言,ONNX Runtime 和 Olive 都有助于加快将 AI 模型部署到应用程序中的速度。ONNX Runtime 使用户可以更轻松地在 Windows 和其他平台上创建令人惊叹的 AI 体验,同时减少工程工作量并提高性能。
Microsoft Store 中的新功能和新体验
微软为 Microsoft Store 发布了多项新功能,与 AI 技术相关的包括:
Microsoft Store AI Hub:这是一个即将上线的新功能,将由开发者社区和微软共同构建出最佳的 AI 体验;
AI 生成的关键词:微软在 Partner Center 中添加了一个新工具,利用 AI 为 Microsoft Store 中的应用程序生成关键词和搜索标签,提高这些应用的可发现性;
AI 生成的评论摘要:微软利用 AI 技术将数以千计的评论汇编成一个简单的摘要,让客户能够更快、更轻松地了解其应用程序的用户评论和反馈。
以上仅仅是为期多天的 build 开发者大会第一天 keynote 中的内容,而后续还有更多内容将会陆续发布。
从中我们可以看到,微软联手 OpenAI,意图打造出一个 AI 大宇宙,既改造升级自己的产品又辐射影响整个科技社区。
也许,这波 AI 浪潮也才刚刚开始。
(声明:本文仅代表作者观点,不代表新浪网立场。)