
Windows AI API
使用 Windows 解锁模型交付功能的 API。
了解更多信息一个统一、可靠且安全的平台,支持 AI 开发人员生命周期,从模型选择、微调、优化和部署到 CPU、GPU、NPU 和云。
由设备模型提供支持的现成 AI API。 针对 Copilot+ 电脑设备上的效率和性能进行了优化,只需设置最少。
详细了解 Windows AI API
使用 LoRA for Phi 硅使用自己的数据自定义设备上的小型语言模型。
使用语义搜索和知识检索在应用中生成矢量存储并引入语义和词法搜索。
了解更多信息
在每个 Windows 设备上查找并集成常用的开源语言模型与 Foundry 本地 CLI 传送。
Foundry Local 入门
Windows AI Foundry 集成了 Foundry Local,使开发人员能够快速访问 Windows Silicon 上随时可用的开源模型。 这样,开发人员就能够在本地应用中浏览、测试、交互和部署模型。 通过 Foundry Local 模型目录,我们完成了跨 CPU、GPU 和 NPU 优化这些模型的繁重任务,使它们可供使用。
Windows ML 充当 AI 平台的核心,也是 Windows 上的集成 AI 推理运行时。 它允许开发人员使用自己的模型,并在广泛的硅合作伙伴生态系统(包括 AMD、Intel、NVIDIA 和 Qualcomm)中高效部署模型,从而支持 CPU、GPU 和 NPU 体系结构。
详细了解 Windows ML
请查看这些开发人员工具、示例和教程,以开始使用 Windows AI Foundry。
查看示例和工具
了解开发人员如何使用 Windows AI Foundry 构建惊人的体验
听听为什么开发人员对 Windows ML 感到兴奋
听取应用开发人员如何让 Windows ML 能够有效地创建 AI 驱动的 Windows 应用程序,从而最大限度地发挥设备 AI 的潜力。
了解更多信息了解硬件合作伙伴为何支持 Windows ML
Microsoft已与独立硬件供应商合作,将 Windows ML 引入 Windows 应用开发人员。 了解为什么这些领先的行业玩家认识到 Windows ML 的潜力,以及他们相信这将如何为开发人员提供 Windows 应用程序工作的能力。
了解更多信息内在外观:Windows AI API 的强大功能上的开发人员
开发人员使用 Windows AI API 将 AI 集成到其应用程序中。 这些自定义生成的 API 旨在与 Copilot+ 电脑硬件配合使用,可实现各种 AI 驱动的功能。 了解合作伙伴如何无缝整合 AI 并增强其应用功能。
了解更多信息
关注我们