第290章 很多很多钱&谁来都是弟弟~
    等女友拾掇好,品尝一番菠萝味的唇膏,两人这才晃晃悠悠下楼,赶往张江高科技园区,极光云总部。
    公司自研的专用a1加速卡,骄阳100,已经开始小规模部署。
    微光1明天才开售,閒来无事,洛川索性过来瞧瞧热闹,顺便和王建教授聊一聊,后续的研发路径。
    骄阳100,是基於risc-v开源架构,定製的专用硬体架构。
    並针对lstm的时序计算模块,以及transformer的自注意力並行计算单元,专门定製了硬体单元。
    如专门加速矩阵乘法、门控运算的电路等。
    这使得骄阳100,天生就適配这两种模型的计算逻辑。
    前者已经初步应用於语音识別、信息流內容推荐等领域。
    后者在学术界,已经有了基础理论,但还没形成完整的transformer模型概念。
    不过在洛先知的指引下,这两种架构,已经初步运用到了极光旗下的各个平台之中。
    当前,ai仍处於深度学习崛起初期。
    为数不多的玩家,基本都是通过fpga加速卡或cpu做ai加速,连gpu加速都刚起步。
    fpga加速卡,可简单理解为“万能积木电路板”。
    它的特点是,硬体电路不是固定死的,而是像积木一样,可以现场编程,通过软体临时“拼”出適合当前任务的电路。
    属於“样样通,样样松”。
    不过当前的ai模型,处於百齐放的阶段,没有统一標准。
    fpga加速卡可快速適配不同算法的特性,倒也算是契合当下的状態。
    而极光自研的“骄阳10o”,则像是“lstm/transformer专属高速晶片”
    直接跳过了“通用可编程”的路线,牺牲部分通用性,换取这两种模型的极致效率。
    同样算力下,功耗更低,速度更快。
    比如,训练一个语言模型时,同样的数据量,骄阳100的速度比cpu快10倍以上,比fpga快5倍以上!
    且由於不需要像fpga那样“万能积木”式的通用电路,硬体更加精简,功耗至少可降低30%以上,大幅降低计算成本。
    之所以选择这种极端路线,是因为洛川清楚的知道,这两种模型,正是未来ai大模型的核心。
    transformer架构,更是大模型的核心底座!
    当然,初代產品的性能,不论是算力,还是能效比、內存带宽等,都还远远不足以支撑超大规模分布式训练,仍需继续优化叠代。
    不过倒是可以先搞一个“亿级参数模型”玩玩目前,他们已经在数据中心划出了独立集群,小规模部署骄阳100,適配极光云的特定业务,
    以验证算力卡的实际性能。
    如悠米视频的视频理解模型,悠米社区、极光微博的文本分类模型,微光基金的数据分析模型等等。
    等世博会那边谈妥之后,也会单独构建一个模型。
    而后针对实验中发现的问题,以及海量数据的反哺,持续优化选代。
    等稳定性和兼容性达標后,再向核心业务推广。
    如极光云的通用ai算力租赁、口袋钱包的数据分析等等。
    此外,还需要开发一套,类似於英伟达cuda的並行计算架构,以及专用的全流程工具链,兼容cuda代码迁移。
    並建立开发者社区,培育自家开放生態。
    至於下一步的升级选代路径,洛川也已经有了大致思路。
    即採用更先进的製程,提升算力密度的同时,引入存算一体架构。
    就相当於把计算单元和內存“粘在一起”,数据不用来回搬运,直接在內存里算,可有效解决模型的“內存墙”问题。
    如此一来,算力可瞬间提升数倍,功耗也大幅降低。
    同时还需开发“云-芯协同”协议,並进一步优化晶片间的高速互联协议,以实现千卡级集群的分布式训练。
    这之间,估计至少就需要3~5年的时间。
    之后再引入异构计算架构,集成专用ai单元+通用cpu核心。
    这种混合计算模式,有些类似於后世英伟达的安培架构。
    复杂任务由cpu调度,核心计算交给ai单元,兼顾效率和灵活性。
    同步开发chiplet封装技术,把多个小晶片,如算力单元、內存控制器等,像拼图一样封装在一起。
    算力升数倍,同时也降低了研发成本。
    再之后,继续沿著算力、带宽、通用性、生態的路径,持续叠代即可,逐步走向大模型时代,
    可以说是安排的明明白白王建教授算是有的忙了而洛川需要负责的,就是持续提供“灵感”。
    以及持续掏钱。
    很多很多钱。。
    跟团队的几位核心技术骨干,头脑风暴了半天,统一后续的研发思路之后,洛川便隨著王建教授,溜达回办公室。
    宋锦同学正叼著一瓶酸奶,愜意的倚靠著老板椅追剧。
    身前办公桌上,还摆著一个水果拼盘,一杯奶茶,几袋薯片和妙脆角。
    见两人回来,也只是抬了抬下巴,算是打过招呼,然后继续嘬著酸奶追剧。
    纯特么死废宅。。
    好在这小老娘们儿,还知道这儿不是自己的办公室,没脱鞋翘起二郎腿。
    丟给女友一记白眼,洛川也懒得念叻她,跟王建教授商议起极光云出海的相关事宜。
    当前,海外云计算市场,处於三级分化状態。
    亚马逊云aws,凭藉先发优势和全栈服务,通过降价和生態合作等方式,占据70%的laas市场份额,处於绝对领先地位。
    今年第一季度营收,便超过4亿美元,
    第二梯队是企业级玩家。
    如微软、ibm等通过传统it渠道,主打企业级市场。
    谷歌则专注於初创企业、开发者市场。
    第三梯队,则是开源阵营。
    如openrackspace联合nasa推出的openstack社区,试图通过开源挑战aws的垄断地位。
    至於国內,自然是极光云一家独大。
    bat三家,外加华威,正在紧锣密鼓研发当中。
    进军海外市场这件事儿,是王建教授提议的,洛川本身其实並没有太大的兴趣。
    技术方面,他还是蛮有信心的。
    作为全球唯二实现“公有云+私有云”稳定混合架构,唯一支持容器化部署与秒级扩缩容的云服务厂商,真要比服务,谁来都是弟弟。
    前世,直到13年,dotcloud公司开源docker容器化技术,引爆容器化革命,各大云服务厂商才实现容器化部署。
    將应用部署时间,从小时级缩短到分钟级,效率大幅提升。
    但想在海外市场混,可不是单凭技术优势就能解决的,更是法律、文化、生態的综合博弈。
    合规审查风险、本土化运营的隱性门槛、巴拉巴拉,想想都让人头大。
    不过反正也不需要他操心,爱咋咋滴吧躺贏就完了~

章节目录

重回05,从校内网开始狂卷!所有内容均来自互联网,御书屋只为原作者佚名的小说进行宣传。欢迎各位书友支持佚名并收藏重回05,从校内网开始狂卷!最新章节