
要点:AMD 正在倡导一种观点,即AI agent无需依赖云端运行。其新的OpenClaw 框架(现已配备了两种硬件配置,分别称为RyzenClaw和RadeonClaw)旨在帮助开发者和早期采用者完全在本地机器上运行复杂的LLM。其目标十分明确:将生成式AI的性能带入家庭,并减少对数据中心的依赖。
这一努力是AMD 更广泛的“Agent计算机”计划的一部分,该计划认为AI的未来并不仅限于远程基础设施。相反,它设想了一个用户能够掌控自身数据和计算环境的世界——在这个世界里,AI助手能够持续运行,减少对网络的依赖、减少外部需求,并降低隐私方面的担忧。
OpenClaw是AMD最新的尝试,旨在将这一理念转化为一个切实可行且可供开发者使用的平台。从技术层面来看,OpenClaw 在Windows 系统上运行,借助Windows 对Linux 的支持(WSL2),本地推理则由LM Studio通过llama.cpp后端来处理。这种设置使得用户能够直接在其自身硬件上运行诸如Qwen 3.5 35B A3B 这样的模型。

该系统还支持Memory.md,这是一种基于嵌入式的记忆框架,它能够存储本地上下文,且无需依赖云同步。AMD 将该指南描述为一种简化方式,便于开发人员在测试AIagent架构时在Windows系统上配置完整的OpenClaw环境,不过并未明确说明预期的设置时间。
这两种配置代表了实现同一理念的不同途径:高性能的设备端AI。RyzenClaw 配置是基于AMD的Ryzen AI Max+ 处理器以及128GB的统一内存构建的。AMD建议将其中大约96GB 的内存分配给variable graphics使用,以确保LLM推理的高效运行。

在这种配置下,Qwen 3.5 35B A3B 每秒能生成约45个token,并且能够处理大约10,000 个token的输入,所需时间约为19.5 秒。其260,000 个token的上下文窗口范围广泛,使其适用于多agent工作流程或“agent群”测试环境。AMD 表示,该设置能够同时运行多达六个本地AIagent——对于非数据中心系统而言,这是一个相当可观的数字。
相比之下,RadeonClaw 则将计算任务转移到了一块独立的GPU上:Radeon AI PRO R9700。这款工作站显卡配备了32GB的专用显存,这极大地提高了处理速度。使用同样的配置,其性能可提升至每秒约120 个token,从而将处理10,000 个token所需的时间缩短至约4.4 秒。

然而,这种提升是有一定限制的,因为最大上下文窗口会缩小至190,000 个token,同时并发agent容量会降至两个。这些权衡取舍凸显了AMD 的策略,即根据开发者的优先级不同,提供不同的调优路径,要么侧重于上下文深度,要么侧重于推理速度。
这两种配置都不是为普通用户设计的。例如,一款基于锐龙AI Max+ 395 芯片和128GB 内存的框架桌面配置(如 Framework Desktop 配置)的售价约为2700 美元起。而RadeonClaw 选项则会增加更多费用,因为仅Radeon AI PRO R9700 GPU 的零售价就约为1299 美元。
AMD 表示,OpenClaw 产品主要面向的是早期采用者以及那些正在试验本地AIagent技术的工程师,而非普通消费者。

不过,OpenClaw 所传达的深层意义并不仅仅局限于其硬件本身。AMD 认为,开发者们会更看重自主性和隐私保护,而非单纯的规模扩张,而且运行在消费级芯片上的本地agent能够填补个人计算与分布式AI之间的差距。
如果这一想法得以推广,该公司便能够在不断发展的AI生态系统中占据独特的地位——这种地位将模糊工作站性能与数据中心性能之间的界限。
原文链接: