4月25日消息(水易)近日,在2025年云網智聯(lián)大會上,中國電信研究院副院長傅志仁表示,AI無處不在,加速云網向AI原生演進,中國電信將AI發(fā)展作為事關全局性、戰(zhàn)略性、根本性問題,推動“云網融合”向以AIDC為核心的云網融合3.0新階段演進。
傅志仁介紹,云網融合3.0特別強調AI for Network、Network For AI,最后的方向是 AI-Native Cloud Network,即智能云網,推動中心智能和邊緣智能協(xié)同,網絡具備自主決策、自主優(yōu)化、自主演進能力,提升運維效率。想要實現(xiàn)云網融合3.0需要5大底座。
底座一是新型高速網絡,強調“網是基礎、云為核心”,通過新型城域網實現(xiàn)固移融合、多業(yè)務統(tǒng)一承載。底座二是AI for Network,在規(guī)建維優(yōu)營方面發(fā)揮作用,邁向L4級高階自治。底座三是Network For AI,實現(xiàn)更大規(guī)模、超高性能節(jié)點互聯(lián)。底座四是RISC-V新算力,例如面向視頻場景,打造業(yè)界首個基于RISC-V的專用硬件產品。底座五是靈活調度,打造一體化算力服務平臺和運營體系——息壤。
傅志仁強調,AI時代,為提升算力供給能力,核心就是打造息壤,實現(xiàn)算網調度一體化、技術架構一體化、訓練推理一體化、資源管理一體化。能夠面向萬億參數基礎大模型訓練場景構建行業(yè)領先的萬卡解決方案,面向行業(yè)大模型訓推場景提供一站式智算服務。據了解,目前息壤已接入50家算力合作伙伴,自有和接入的智能算力合計達到62EFLOPS。
“算力沒法被調度,也沒法跑路,唯一能跑的是數據,數據送到算力所在的地方去算,我們可以調度的是任務。”傅志仁表示,為此,中國電信創(chuàng)新IP業(yè)務網架構以及IPv6+協(xié)議,面向數據入算/入云、算間/云間互聯(lián)、數據流通等場景,研發(fā)算力快線產品,提供普惠互聯(lián)、彈性帶寬、安全可信的海量數據傳輸服務,構建面向一體化算力網絡的網絡運力服務,目前已實現(xiàn)應用推廣。
另外,面向異構算力,需要構建一個生態(tài),目前全球計算聯(lián)盟(GCC)已經成立異構算力協(xié)同專項組,推動標準的制定、性能的評測和驗證、應用示范等。“希望能夠構建一個統(tǒng)一計算,統(tǒng)一通訊和統(tǒng)一調度的算力協(xié)同生態(tài)體系。”
面對模型應用逐步從訓練走向推理,智能算力需求中推理類任務占比逐漸提升。業(yè)界預計2025年推理占中國AI服務器工作負載的60.8%,中國電信正聯(lián)合產業(yè)界積極探索分離式推理加速以助力節(jié)省成本提高利用率。
“最后的核心還是要有應用。”傅志仁表示,中國電信積極推進端云AI模型同源,提升端側模型部署的效率,助力復雜業(yè)務場景下端云之間的高效協(xié)同,由傳統(tǒng)的人找服務到服務找人,最后進化到服務找服務的AI超級智能體階段。
- 英特爾重申代工制程路線圖:18A制程節(jié)點開始風險試產 年內正式量產
- “人工智能+教育”風起:中興通訊做了哪些布局?
- 千家早報|Meta推出獨立的AI應用,對標ChatGPT;NVIDIA、高通、聯(lián)發(fā)科、AMD等多家頭部芯片公司連夜適配千問3——2025年04月30日
- 阿里通義已開源200余個模型,千問3開創(chuàng)全球開源模型性能新高
- 中國移動建強“九天”人工智能基座,算力、模型、數據全面升級
- 中國移動集中發(fā)布首批“新三樣”產品:全面覆蓋“人、車、家”
- 中國移動發(fā)起成立AI能力聯(lián)合艦隊:“1+3+N”創(chuàng)新陣型破浪啟航
- 建筑行業(yè)預測性維護物聯(lián)網的七大關鍵應用
- 韓國SK電訊網絡安全事件持續(xù)發(fā)酵 門店換卡服務不堪重負
- 中國電信2025年云網路由交換設備集采:規(guī)模98586臺
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。