【新智元导读】用英伟达的GPU,但可以不用CUDA?PyTorch官宣,借助OpenAI开发的Triton语言编写内核来加速LLM推理,可以实现和CUDA类似甚至更佳的性能。 试问,有多少机器学习小白曾被深度学习框架和CUDA的兼容问题所困扰? 又有多少开发者曾因为频频闪烁的警报「 ...
机器之心报道 编辑:张倩 用 AI 提高 AI 的效率,它们就能变得像人类大脑一样高效? 我们的大脑只用了 20 瓦的能量就能完成复杂思考,而现代 AI 系统却需要成排的高功率 GPU 和惊人的电力消耗。这种差距如何缩小? 日本 AI 初创公司 Sakana AI 团队提出了一个大胆 ...
谷歌正在发起一项代号为「TorchTPU」的新行动,试图以此打破英伟达在 AI 算力市场的长期垄断。 据知情人士透露,这项计划的核心在于让谷歌自研的 AI 芯片(TPU)能够更顺滑地运行 PyTorch,这是目前全球最主流的 AI 软件框架。 这是谷歌激进战略拼图中的关键一 ...
就在刚刚,斯坦福HAI华人大神团队又出惊人神作了。 他们用纯CUDA-C语言编写的快速AI生成内核,竟然超越了PyTorch! 在这个过程中,完全不用借助CUTLASS和Triton等库和领域特定语言(DSL),就能让性能表现接近PyTorch内置的、经过专家优化的标准生产级内核,甚至在 ...
快科技9月25日消息,在2025年Computex大会上,AMD承诺将通过ROCm为Windows系统带来PyTorch支持,如今这一承诺终于兑现。 AMD发布了ROCm 6.4.4预览版本,为Windows系统下的Radeon RX 9000和RX 7000系列显卡以及Ryzen AI系列APU带来了PyTorch支持。 ROCm是由AMD开发的开源GPU计算生态系统 ...