更多精彩,请点击上方蓝字关注RVEI

在 AI 基础设施快速迭代的今天,RISC-V 平台的 AI 生态长期面临软件栈碎片化、配置门槛高、上游社区支持薄弱等挑战。
围绕这些问题,中国科学院软件研究所 openRuyi 团队持续推进相关工作,逐步完善从底层 GPU 计算栈到上层应用工具的适配与集成。
此次更新,openRuyi 带来了三项 AI 相关进展:ROCm 7.1.1 的性能提升、Ollama 的开箱即用本地推理,以及 PicoClaw AI 助手的集成。
从测试结果来看,在 RX 7900 XTX 平台、llama.cpp b6029 环境下,llama 8B Q4_K - Medium 模型在不同测试项性能均有提升:
pp512 测试中,ROCm 6.2.4 为 1116.23 ± 2.69 tokens/s,ROCm 7.1.1 提升至 2815.99 ± 16.68 tokens/s;
tg128 测试中,ROCm 6.2.4 为 52.18 ± 0.06 tokens/s,ROCm 7.1.1 提升至 77.56 ± 0.04 tokens/s。
此前,较新版本的 Ollama 尚不支持 riscv64 架构。
在 openRuyi 上使用 Ollama,仅需执行以下命令:
# 或者使用 qwen3 等其他本地模型
ollama run deepseek-r1

Ollama 本地运行 deepseek-r1:8b 模型时的性能表现
PicoClaw 是轻量的开源自主 AI 智能体软件,目前已经集成到 openRuyi 中,安装同样只需一条命令:
推理完全本地化:模型运行在本机 AMD GPU 上,数据无需经过任何外部服务器 无需网络连接:即使在离线环境下,也能够获得 AI 辅助能力 GPU 加速:借助 ROCm 7.1.1,在 RISC-V + AMD GPU 平台上获得更高的推理速度

PicoClaw 通过本地 Ollama 后端运行,实现高性能的本地化 AI 辅助
近期方向:扩展支持更多 GPU 型号。在目前已验证 RX 7900 XTX 的基础上,后续将进一步测试并支持更多 AMD Radeon 显卡型号;继续推进 ROCm 上游化,向 ROCm、llama.cpp 等项目贡献 RISC-V 支持补丁,推动相关支持逐步合入主线。 中期方向:打通 vLLM 推理全链路,在 RISC-V + AMD GPU 平台上实现基于 PyTorch 和 vLLM 的大模型分布式推理服务,并探索多 GPU 分布式大模型训练能力;完善端侧推理支持,集成经 RISC-V 向量扩展 (RVV) 优化的 llama.cpp,覆盖算能 SG2044、SpacemiT K3、玄铁 C950 等主流 RISC-V 处理器,使无 GPU 的纯 CPU 环境也能够运行轻量模型;扩大模型验证覆盖范围,除语言模型外,逐步推进视觉模型 (YOLO)、多模态模型等在 RISC-V 平台上的验证;围绕主流 Agent 框架(如 LangChain 等)在 RISC-V 平台上的适配与运行,结合本地模型推理能力,探索端侧 Agent 应用的部署方案。 长期方向:探索国产加速硬件在 RISC-V 主机上的适配,推进“RISC-V + 国产加速器”全链路国产化方案,为后续 AI 生态适配与应用拓展奠定基础;基于 openRuyi 的软硬件协同能力,进一步探索面向具体行业场景的智能体应用落地,打造 RISC-V 平台上完整的 Agent 运行与开发体验。
[1] openRuyi SPECS 仓库:
https://github.com/openRuyi-Project/openRuyi/tree/main/SPECS
[2] openRuyi 中的 Ollama 适配与打包文件:https://github.com/openRuyi-Project/openRuyi/tree/main/SPECS/ollama
[3] PicoClaw 官方入门文档:https://docs.picoclaw.io/zh-Hans/docs/getting-started/
对 openRuyi 工作感兴趣的伙伴们可以关注 GitHub 开源项目,访问 openRuyi 文档中心获取更多信息,也欢迎加入 Discord 社区参与交流。openRuyi 团队长期招收全职/兼职/实习生,欢迎投递简历至邮箱 wangjingwei@iscas.ac.cn(王经纬)
openRuyi 项目地址:https://github.com/openRuyi-Project/openRuyi
openRuyi 文档中心:https://openruyi.cn
Discord 邀请链接:https://discord.gg/ZEEq8kFjG5
来源:OERV
