无问芯穹,是一家孵化于清华大学电子系的智能科技公司,发起人为清华大学电子工程系教授、系主任汪玉。

图丨汪玉(来源:资料图)
后者不仅曾经成功创办过深鉴科技公司,还是所在院系历史上第二位年轻的系主任。而前者自2023年5月成立至今,已经获得上海市徐汇区创投公司徐汇资本、红杉中国、腾讯、百度等公司的投资。
作为一名优秀的学者,汪玉之所以注重技术转化、并积极参与创业,很大程度上是因为他看到了当下时代发展的需求。
在他看来,于学校内做出的研究成果,“一定要能上书架,且能上货架”。但现在的学术界,尤其是大模型领域,在生产资料层面已然缺乏优势,必须寻求更多和产业结合的可行路径,才能推动基础科研问题的解决和产业的发展,并促进人类知识边界的拓展。与此同时,由于目前中国绝大多数公司未能实现学校和业界之间知识结合的闭环,因此需要有一拨人通过创业来打通这条道路。
“多年来,我在AI软硬件优化的基础上进行了诸多积累,但在新的大模型时代来临之际发现还有必要继续加强。所以,推动中国把所有的算力真正用起来,是我特别希望无问芯穹能够实现的事情。”汪玉表示。
据了解,经过将近一年的发展,目前该公司已有三位联合创始人。值得一提的是,无问芯穹联合创始人兼CEO夏立雪,也是汪玉的学生之一。

图丨夏立雪(来源:资料图)
发布大模型开发与服务平台“无穹Infini-AI”,帮助大模型快速实现产业落地
近几年来,大模型领域的技术突破,让AI展现出焕然一新的发展面貌。在此背景下,以中国和美国为代表的世界各国,也在致力于推进大模型技术的升级和产业应用的落地。
为了更好地提升大模型的能力,算法、算力和数据这三大要素必不可少。其中,根据大模型发展定律,只有拥有更多算力,才能获取更强大的模型能力。
但从当下的实际情况来看,包括大模型公司、软件公司、下游的产业解决方案公司等在内的产业链上的各个环节,都要面临一个共同的问题,即算力贵、找不到和不会用。这背后的原因在于,有大量算力没有被更好地收集利用和发挥出来。
无问芯穹的诞生,正是为了解决这一难题。
据悉,3月31日,该公司在上海举办了以“多元计算·泛在链接”为主题的2024 AI算力优化论坛暨产品发布会。会上,发布了名为“无穹Infini-AI”的大模型开发与服务平台。
简单来说,这是一个面向大模型应用开发者的企业级服务平台,最终目标是为各类企业提供便宜、充沛、易用的产品。其核心能力体现在,能够按照token计费方案,所有企业都可以享受到最低的冷启动成本;另外就是拥有稳定充沛、性价比高的多元异构算力池,开发者目前可在该平台上免费试用所有功能和算力。
截至当前,无穹Infini-AI已经能够支持Baichuan2、ChatGLM2、ChatGLM3、Llama2等共20多个模型,和AMD、壁仞、燧原、天数智芯、摩尔线程、NVIDIA等10余种计算卡,并实现多模型与多芯片之间的软硬件联合优化和统一部署。另据夏立雪透露,随着时间的推移,该公司还会持续提升模型品牌和芯片品牌的覆盖率,以进一步增强无穹Infini-AI的性价比优势。
事实上,无穹Infini-AI是无问芯穹当下最核心的产品,也是M×N的实际体现。这里需要说明的是,M代表的是模型种类,N代表的是芯片种类。
“我们从创业到现在一直在讲M×N,也在团结非常多的上下游和硬件生态伙伴,希望能够打造一个可以连接整个生态伙伴的M×N的大模型生态,来释放多元算力芯片的能力,最终帮助这些大模型快速地实现产业落地。”夏立雪表示。

(来源:资料图)
至于为何选择做M×N,无问芯穹联合创始人兼CTO颜深根给出了答案。他表示,中国和美国是在大模型上投入最多的两个国家,但两者在该领域的发展方面却存在两方面不同。其一是美国的AI更加集中,中国则比较分散,芯片更多,模型也更多。其二是中国比美国的算力资源更加紧张,因此对软件优化要求更高的效率。
基于此,该公司开发了一套针对大模型的加速技术栈,希望通过它来实现从模型到芯片的垂直打通和高效衔接。同时,也做了一个兼容系统,除了能运行该公司的软件栈,就连开源软件栈也可以在上面实现无缝迁移。并且,还构建了跨地域万卡集群纳管系统,来更加高效地利用算力。此外,还从多个层面对大模型进行优化,以实现超过1000倍的推理成本下降,这主要包括算法创新优化、计算优化、平台优化、硬件优化等方面。

(来源:资料图)
在无问芯穹联合创始人兼首席科学家戴国浩看来,“未来,凡是有算力的地方,都会有AGI级别的智能涌现。而每一个端上的智能来源,就是大模型专用处理器LPU。”因此,无问芯穹也将在2025年发布无穹LPU,可以被模块化地集成到各类端侧芯片中,给用户带来更快的推理速度和更高能效,并将千行百业推向智能。

(来源:资料图)
此外,在本次发布会上,无问芯穹还宣布与燧原科技共同发布i20千卡集群战略合作,将无穹Infini-AI平台和燧原科技i20千卡集群进行适配;与摩尔线程开展深度合作,共建摩尔线程MTT S4000千卡集群;与智谱AI携手共建大模型训推万卡集群,在大模型训练推理优化等方面展开深度合作;以及与紫光展锐共同签约大模型端侧部署战略合作协议,携手探索大模型在端上的部署与性能提升。
探索学术界和产业界的紧密合作,推动大模型行业对千行百业的赋能
除了产品发布和合作签约,由多位重量级嘉宾组成的圆桌论坛也是本次大会的精彩看点。在“智能引领”环节,多位嘉宾围绕产业需求牵引计算新纪元的议题,对其中的发展趋势和挑战进行了讨论。
比如,对于学术界而言,如何在没有算力的情况下开展研究?
对此,嘉宾们纷纷各抒己见,认为高校可以和产业界以及规模更大的学术机构建立紧密合作,在帮助算力提供商深入挖掘算力的同时,也将算力用于解决自身所面临的问题。同时,还要 “从0到1”完成大模型研发闭环的搭建,再通过“从1到100”的方式实现算力的放大。而在这样的合作过程中,一方面有助于高校挖掘更多原创性问题,另一方面也能给企业开发产品提供更多优质的技术数据。
在该问题的基础上,他们也讨论了在摩尔定律放缓的背景下,有哪些可行的方法可以帮助学界和业界进一步提升大模型计算能力?
比如,可以从架构和系统软件的方面发力,从价格、体系和软硬件协同等层面出发大幅提升计算效率。另外,也可以通过降低算力精度的手段来提升算力密度。
不可否认,目前在国际形势的影响下,中国的算力产业也面临诸多挑战。这包括如何保证供应链的强大、韧性和安全;如何扩大产业市场规模;在算力集群的运行过程中如何更好地进行沟通化的实践;如何使用国产算力芯片,并通过实际业务的迭代和演进让它变得更加好用,从而打通整个生态的发展等。但可以预见的是,在不远的将来,通过技术的迭代和对专家人才的积累,上述挑战至少都能在极大程度上得到解决。
除此之外,对于本次大模型浪潮给整个产业带来的变化,嘉宾们也分别表达了自己的观点。他们整体上对未来可能面临的机遇都秉持积极的态度,并希望能够实现上下游产业的团结,进而推动该行业对千行百业的赋能。
其实,纵观历史上包括互联网技术在内的多次技术迭代,都是先在西方实现突破,然后在东方大地上完成爆发。由于中国拥有最多的场景和最大的流量,因此AI大模型也一定能在这片土地上实现落地和爆发。
而为用户提供大模型开发与服务平台的无问芯穹,正是看到了这样的时代机会和使命,希望借助技术和产品,帮助大模型快速地落地各种场景。可以说,“释放无穹算力,让AGI触手可及”,既是该公司的愿景,也是它在AI大模型时代存在的价值。
上一篇:插混车型,消费者看重体验还是场景?两个维度两个结果 消费者体验分重要还是dsr重要 插混车型优缺点
下一篇:爆火的“王婆说媒”背后:有人寻找爱情,有人寻找流量,“王婆”只求别“挖坑” 王婆说媒为什么火王婆形象不好 西门庆找王婆说媒王婆出主意