第34章 构建属于自己的生态(1 / 2)

加入书签

“我怎么觉得你就盼着这一天呢啊?”张建看着似笑非笑的纪弘,说话的语气都带着一点儿幽怨。

    “张总,说实话,仰人鼻息的感觉是不是不好受?而且,摩尔科技以兼容的方式利用英伟达CUDA的生态,效率也不尽如人意,性能损失也很大吧?”

    纪弘正色起来:“要我说,倒不如直接断了,构建真正属于我们自己的生态。”

    “你说的倒是轻巧,CUDA英伟达早在2007年就推出来了,优化迭代了十好几近二十年才有如今的水平,是我们想搞就能搞的?

    “诚然,CUDA的理念并不复杂,本质就是一个帮助开发者构建自己应用的GPU编程服务简易API接口。

    “就算是内里的运算架构,在内行人眼里,理念也几乎是透明的。

    “比如,AMD搞的所谓HIP,就是提供了一种类似于CUDA的编程接口。甚至,语法和编程模式都和CUDA一模一样。

    “但效果怎么样呢?投入巨量人员和资金,但竞争力还是不行。再说了,我们之前有得用,就没有在这一块儿上心。”

    “其实就是想省成本。”

    纪弘算是听明白了,之前英伟达让用,这边也没有更多的资源和精力去搞这个,就先凑合用了,他接着说道:

    “我也能理解,毕竟当时你们的目标是能活十年,而且与英伟达关系也还好,也不用太过担心授权的问题。”

    “但,今时不同往日了。”顿了一下,纪弘如此强调。

    张建心说,当然不同往日了,往日我们的目标是活着就好,现在搞得英伟达都急跳脚了:

    “主要还是你这边【基于AI的GPU智慧调度】,训练卡应该也是能用的吧?

    “CUDA只是以流处理核心为元单位对外开放的GPU编程接口。

    “这个时候,如果我们重新搞一套,完全用这个理念,其实意义不大,竞争力还是有限,AMD已经给我们打过样了,毕竟CUDA的生态早已经成型且非常完善,后来者很难去挑战。”

    “你是想问,能不能把GPU智慧调度的理念融入到我们的通用运算架构里是吧?”纪弘肯定道:“那必须能!”

    张建不由得嘴角又抽了抽,能当然是好事儿,但是,我是不是又得割肉?

    “我们其实可以从智算中心开始。智算中心规模较大,现在都是一千张卡起步。

    “这里边不仅涉及到流处理单元,更是涉及千卡算力怎么利用和分配才能效率最大化的问题。

    “利用我们的AI核心能力进行智慧监测和算力综合分配,再加上基于AI调度的GPU运算架构,你大可以想想,那效率会怎么样!”

    张建嘴角抽的更厉害了,心道:我不想听你画饼,只想听你想管我要多少钱!

    “那,我们怎么合作?”

    虽然知道自己不能急,但是看着稳如泰山的纪弘,张建决定还是自己先开口吧。

    “那要不咱们就从河州大学的这个千卡智算中心开始?

    “先打个样板出来,有了标杆,后续的工作就简单了,全国智算中心的需求非常之大,单子那还不是滚滚的来!”

    听纪弘这么说,张建心中哀叹,他果然是在打这个主意。

    他自己心里其实早有这个心理准备,河州大学那边甚至乐见卷耳智能科技的参与,负责人张明振教授更是对他们推崇无比,都提好几次了。

    两方合作变成三方聚首,来找纪弘之前,张建就已经考虑过了这个问题,利肯定是大于弊的,真要做成标杆,国内的智算中心这一块儿,光是硬件销售,摩尔科技都能赚的盆满钵盈。

    但是,核心系统的技术标准……

    张建内心哀叹一声,默默流下了没有核心关键技术的泪水……

    他甚至在一瞬间想起了塞力斯,话说自己这算不算出卖灵魂来着?

↑返回顶部↑

书页/目录