kevinthinkpad 发表于 2024-5-31 10:23

关于AI笔记本,微软告诉你,现在市面所有笔记本是==战五渣

微软宣布了其笔记本电脑的大胆新方向,主要基于支持需要神经处理单元 (NPU) 的前沿 AI 功能。Copilot + PC是微软为获得批准的支持 AI 的 PC 设立的新标志,到目前为止,仅限于搭载高通骁龙 X 处理器的笔记本电脑。这些笔记本电脑目前尚未上市,但很快就会有大量产品上市。

效率、价值和键盘上闪亮的新按钮是微软在这一新计算浪潮中的标志。这是为了让 AI PC 成为一项真正的、实质性的事业,并让 Windows on Arm 大放异彩。正如之前传言的那样,微软正在本地计算机上安装其 Copilot AI。以下是我们从微软 Copilot+ PC 新闻发布会上了解到的所有信息以及之前的所有消息。

被视为 Copilot+ PC,PC 必须至少具有 16GB RAM、256GB 存储空间,并且至关重要的是,必须具有能够执行 40 TOPS(每秒万亿次操作,通常是 8 位整数指令)的板载 NPU。NPU 是一种不同于 CPU 和 GPU 的计算核心。它们完全基于比 GPU 更有效地执行 AI 计算。

微软还专注于使用 Copilot+ PC 品牌的笔记本电脑。NPU 是 Copilot+ PC 身份的关键部分,目前还没有包含 NPU 的台式机处理器。微软过去曾表示,为了提高笔记本电脑的效率和节能效果,其 40 TOPS 性能水平必须在 NPU 上达到,而不是在 GPU 上达到,并且在首次新闻发布会上拒绝以任何方式提及台式机,因此 Copilot+ 现在仅适用于笔记本电脑。

这是一个有点奇怪的决定,因为它实际上将所有这些功能限制在新的和未来的笔记本电脑上。 Nvidia 的 RTX 4050 笔记本电脑 GPU 可能更适合运行游戏等图形工作负载,但它也是一款相当强大的 AI 处理器。根据功率、时钟速度以及是否使用稀疏操作,RTX 4050 可提供从 ~47 到 ~194 TOPS 的计算能力。更强大的 GPU,如 RTX 4090 笔记本电脑 GPU,可以提供高达 800 TOPS 的计算能力。但很抱歉,Nvidia,这些都不符合 Copilot+ 的资格,因为它们不是 NPU。

目前,市场上唯一一款拥有足够快的 NPU 以满足微软要求的移动处理器是Snapdragon X Elite 和 Plus,它们首次在 Copilot+ PC 中发布。Snapdragon X 芯片基于高通的全新 Oryon 内核,承诺提供卓越性能。Snapdragon X Elite 将拥有 12 个内核,最高运行频率为 3.8 GHz,使用单核和双核加速最高可达 4.3 GHz。 Snapdragon X Plus 拥有 10 核 CPU,所有核心的运行速度最高可达 3.4 GHz。GPU 是 Qualcomm Adreno,可实现高达 4.6 TFLOPS 的 FP32 计算能力,而被称为 Hexagon 的 NPU 的额定速度为 45 TOPS。

微软首席执行官 Satya Nadella 声称,首批搭载 Snapdragon X Elite 的 Copilot+ PC 比搭载 M3 处理器的 Apple 新款 MacBook Air 快 58%。但当然,就像这类说法通常的情况一样,缺乏关于这些 PC 在哪里以及如何比 MacBook 更快的具体细节。在过去一年中,我们也看到软件优化将某些基于 AI 的任务的性能提高了一倍以上,因此,在一个 NPU 上运行的经过调整的应用程序与在另一个 NPU 上运行的未经调整的实现可能会产生值得怀疑的比较结果。

liuxbc 发表于 2024-5-31 10:30

win11自带Copilot,但是没用大陆用不了。

michael12 发表于 2024-5-31 11:11

本质上就是 “大数据库+API” 的组合,什么狗屁AI,我他喵的有100种方法玩死它!

这年头,就流行各种搞概念^t^

michael12 发表于 2024-5-31 11:11

本质上就是 “大数据库+API” 的组合,什么狗屁AI,我他喵的有100种方法玩死它!

这年头,就流行各种搞概念^t^

johnsimth 发表于 2024-5-31 15:58

surface系列不是开始预售了吗

lhmclhmc 发表于 2024-5-31 19:52

Intel自high制定行业标准,期待其他竞品上来。打破垄断

luoht 发表于 2024-5-31 21:26

其实 AI 就是新瓶装旧酒。AI 在互联网之前就已经出现了,只不过互联网,尤其是近年大数据的兴起,让 AI 有了更多的训练数据,因此就觉得惊艳了。

AI 目前最大的作用是在 B 端(商业端)。C 端(消费者)不是不可以用,但需要大量的算力。在 C 端配置大量的算力,不是不可以,只是成本效益太低。因为随着 AI 的版本迭代,算力需求呈几何级上升。而且许多 AI 模型需要大数据支持,不联网根本用不了。因此 AI 始终要走联网路线。既然联网了,最有性价比的自然是“瘦客户”(Thin Client)方式。用户端不需要大算力,算力由后台(数据中心)提供。至于如何收费,那是纯粹商业选择。商家可以选择“免费”,而通过其他方式(如广告、收集用户数据)来弥补成本。目前推客户端 NPU,其实就是制造一波热点,让软硬件厂商有钱赚,大家嗨皮。

我在世界最大的运营商工作,有许多新业务新技术就是以 AI 为卖点。譬如低轨卫星通信(LEO),譬如边缘计算(Edge Computing)。为什么?因为就算终端设备(电脑、手机)有足够算力(这个本身就是不成立的假设),功耗也是个大问题。对于终端设备来说,移动是趋势。对于移动终端设备来说,不可能长期连线供电。因此最终也必须走瘦客户端的路子。因此,各种通信方式(LEO、Low-powered)、各种边缘计算(Edge Computing),无一不是为了减轻终端设备的算力负担,同时减低延迟和功耗。
页: [1]
查看完整版本: 关于AI笔记本,微软告诉你,现在市面所有笔记本是==战五渣