令人惊叹的是,johnnytshi在短短30分钟内,就把整个CUDA后端移植到了AMD ROCm上,而且中间没用任何翻译层。 另外一个好处当然是,不用费劲去搭像Hipify这种复杂的翻译环境了;直接在命令行(CLI)里就能干活。
近日,科技圈被一则消息彻底引爆:Reddit平台上,开发者johnnytshi分享了一项颠覆性操作—— Claude Code仅耗时30分钟,便成功将一整套完整的CUDA后端代码,移植到了AMD的ROCm平台,而且无需任何中间转换层。
事实上,各界为打破 CUDA 的技术 “护城河”,已持续推进相关研发数月:ZLUDA 等项目相继落地,微软等企业也在内部开展了相关工作。但在面向 GPU 加速性能的核函数编写领域,英伟达的主导地位至今仍未被撼动。
开发者无需搭建复杂的 Hipify 转换环境,仅需通过命令行界面(CLI)与 AI 交互即可完成迁移。据该用户反馈,移植过程中遇到的主要阻碍仅在于“数据布局”的差异,其余部分均由 AI 顺利解决。
英伟达的CUDA平台长期主导AI计算领域,其生态系统的封闭性使得开发者难以将应用迁移至竞争对手AMD的ROCm平台,这也是英伟达维持市场优势的关键因素之一。 Claude Code采用 智能代理框架 运作,能够智能替换CUDA关键词为ROCm对应内容,同时确保特定内核的底层逻辑保持一致,而非简单的关键词替换。
辉达的CUDA平台长期以来被视为AI计算领域最强大的「技术护城河」,其封闭的生态系让开发者极难将应用迁移至竞争对手平台,这也是辉达维持市场优势的关键因素。然而,Claude Code采用智慧代理框架,它并非机械式地替换关键字,而是能理解程序码内核函数的底层逻辑,解决了如「数据布局」差异等复杂的结构性问题。
几个小时前,NVIDIA CUDA Toolkit 13.1 正式发布,英伟达官方表示:「这是 20 年来最大的一次更新。」 这个自 2006 年 CUDA 平台诞生以来规模最大、最全面的更新包括: NVIDIA CUDA Tile 的发布,这是英伟达基于 tile 的编程模型,可用于抽象化专用硬件,包括张量核心。
其实自 2021 年以来,Nvidia 就已经在其在线列出的许可条款中禁止使用翻译层(translation layers)在其他硬件平台上运行基于 CUDA 的软件,但之前的警告并未包含在安装过程中放置在主机系统上的文档。 但据报道,最近,这个描述已添加到安装 CUDA 11.6 及更高版本时 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果