0
9 月 2 日,無問芯穹(Infinigence AI)宣布完成近 5 億元 A 輪融資,本輪融資聯合領投方為社保基金中關村自主創新專項基金(君聯資本擔任管理人)、啟明創投和洪泰基金。
跟投方包括聯想創投、小米、軟通高科等戰略投資方,國開科創、上海人工智能產業投資基金(臨港科創投擔任管理人)、徐匯科創投等國資基金,以及順為資本、達晨財智、德同資本、尚勢資本、森若玉坤、申萬宏源、正景資本等財務機構。
至此,無問芯穹的累計融資金額已達近10億元。
值得一提的是,其過往投資方還包括百度、智譜、同歌創投等戰略股東,以及紅杉中國、礪思資本、徐匯資本、北極光創投、真格基金等眾多知名投資機構。
而對于本輪融資的使用方向,據無問芯穹戰略運營SVP 王夢菲介紹,首先,“最重要的方向還是技術的儲備,我們做的事情對人才密度要求高,所以在技術上會繼續做一些配置。”
其次,“是產品的商業化,雖然公司成立的時間還比較短,但我們在商業化上今年已經有一些規模化的收入了,明年會進一步的擴大市場份額,所以也會在商業化上加重布局。”
最后,“是生態的建設,我們需要上下游模型廠商、芯片廠商,包括大客戶和這個產業鏈上的很多關鍵的甲方都能夠認可我們的生態,所以在生態建設上我們也會繼續投入。”
AI模型算力的“超級放大器”
大模型能夠支撐的實際產業規模,取決于AI模型的實際可用算力,是一個壁壘更高、玩家更稀缺、價值量更高的領域。
基于對AI行業的深刻理解和長期實踐,無問芯穹判斷,大模型的實際可用算力不僅取決于芯片的理論算力,還可通過優化系數放大算力利用效率,通過集群規模放大整體算力規模。
由此,無問芯穹提出“芯片算力×優化系數(軟硬協同)×集群規模(多元異構)=AI模型算力”公式。
遵循這一公式,無問芯穹將通過軟硬件聯合優化技術,持續提升芯片算力在大模型任務中的利用率,并通過多元異構算力適配技術,提升集群算力利用率,擴大行業整體算力供給。
在軟硬件聯合優化方面,當前大模型推理需求逐步高漲,無問芯穹通過自研的推理加速技術FlashDecoding++大幅提升主流硬件和異構硬件的利用率,超越在先SOTA。
同時,完成了多個主流開源大模型在AMD、華為昇騰、壁仞、寒武紀、燧原、海光、天數智芯、沐曦、摩爾線程、NVIDIA等10余種計算卡上的適配,并在部分計算卡上實現了行業第一的推理加速成果。
基于這一方案取得的優化效果,無問芯穹也與AMD簽署戰略合作,攜手推動商用AI應用的性能提升。
在多元異構算力適配方面,7月,無問芯穹發布的大規模異構分布式混合訓練系統HETHUB,是業內首次在華為昇騰、天數智芯、沐曦、摩爾線程和AMD、NVIDIA共六種芯片“4+2”組合間實現了千卡規模的異構算力混合訓練。
集群算力利用率最高達到97.6%,平均高出基準方案約30%,這意味著,在相同的多元芯片機房條件或者集群條件下,無問芯穹可將訓練總時長壓縮30%。
當前,無問芯穹主要聚焦于 GPU 異構,不過,除 GPU 架構芯片外,當前市場上也出現了一些專用芯片。
對此,王夢菲向 AI 科技評論介紹表示,“未來可能會有很多專用場景的芯片,這方面我們也有在做一些布局和預研的工作,我們也對這個方向比較看好。”
打造Infini-AI異構云平臺
近年來,國際上模型層與芯片層逐漸形成“雙頭收斂”格局,而中國的模型層與芯片層依然持續呈現由“M種模型”和“N種芯片”構成的“M×N”格局。
然而,不同硬件平臺需要適配不同軟件棧和工具鏈,異構芯片間長久存在著難以兼用的“生態豎井”現象。
隨著越來越多國產異構算力芯片被應用于全國各地方算力集群,異構算力難以被有效利用的問題日益嚴峻,逐漸成為中國大模型產業發展的瓶頸。
無問芯穹依托軟硬協同、多元異構技術優勢,已基于多元芯片算力底座打造出Infini-AI異構云平臺。該平臺向下兼容多元異構算力芯片,可有效激活全國各地沉睡異構算力,現已運營的算力覆蓋全國15座城市。
此外,Infini-AI異構云平臺還包含一站式AI平臺(AIStudio)和大模型服務平臺(GenStudio)。
據無問芯穹介紹,AIStudio一站式AI平臺為機器學習開發者提供高性價比的開發調試、分布式訓練與高性能推理工具,覆蓋從數據托管、代碼開發、模型訓練、模型部署的全生命周期。
而GenStudio大模型服務平臺則為大模型應用開發者提供高性能、易上手、安全可靠的多場景大模型服務,全面覆蓋了從大模型開發到服務化部署的全流程,有效降低了開發成本和門檻。
自平臺上線以來,已有Kimi、LiblibAI、獵聘、生數科技、智譜AI等多個大模型行業頭部客戶在Infini-AI異構云平臺上穩定使用異構算力,并享受無問芯穹提供的大模型開發工具鏈服務。
大模型時代的“算力運營商”
無問芯穹構建的 Infini-AI異構云平臺不僅可幫助下游客戶屏蔽硬件差異,高效使用底層異構算力的強大能力,還將有力打破國內異構算力的生態困境,加速上層應用逐漸向異構算力基座遷移,有效整合并擴大國內大模型產業可用算力的規模,將異構算力轉化為能用、夠用、好用的大算力,助力構建具有中國特色的本土化異構算力生態。
遵循算力利用率提升思路,結合軟硬件聯合優化實力,無問芯穹在端側大模型和LPU IP領域亦有所布局,致力打造“端模型+端芯片”閉環能力。
無問芯穹堅信端側場景快速增長和應用爆發的必然趨勢,AI PC、AI手機將成為未來人機交互的重要接口,將助力每一個終端實現AGI級別的智能涌現。
以“釋放無穹算力,讓AGI觸手可及”為使命,無問芯穹致力于成為大模型時代首選的“算力運營商”,目前正在強力推進和產業鏈中最具價值的客戶建立戰略合作,再推廣到更廣泛的市場中實現標準化、批量化復制,建立規模優勢。
通過激活多元異構算力和軟硬件聯合優化,無問芯穹目標讓大模型的落地成本降低10000倍,如同“水電煤”一般,成為行業觸手可及、廣泛受益的新質生產力,加速AGI的普惠進程。
而“算力運營商”的定位也意味著無問芯穹與國內 AI Infra 企業存在較大差異性。
無問芯穹聯合創始人、CEO 夏立雪在接受 AI 科技評論等媒體采訪時表示,“我們認為在國內AI Infra往往會被大家理解為比較單點優化工具或軟件。在過往的很多實踐當中,證明了這一類的商業模式在國內其實存在著一些難題。”
夏立雪認為,“從客戶的視角出發,他們并不期望我們僅僅提供單一的工具解決方案,再由他們自行整合。客戶真正想要的是一種已經優化完善、即插即用的算力服務。因此,我們的工作定位為一步到位的滿足客戶需求,減少他們對技術細節差異的理解負擔。”
同時,“技術PK或者和客戶講誰的技術更好并不是最優的方案,我們希望的是致力于把算力做到足夠的標準化,降低客戶使用算力的難度和門檻。這也是我們跟市面上一些AI Infra初創公司從愿景上的區別。”夏立雪進一步說道。
值得一提的是,從海外 AI Infra 公司方面對比,王夢菲也表示,“我們實際上是無法直接對標海外其他公司的,我們所做的事情和我們的商業模式是比較符合中國國情的,另外中國的客戶更希望面向的是All in one平臺,而非專業化、細致化,每人只做其中一部分這樣的平臺。”雷峰網雷峰網(公眾號:雷峰網)
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。