大模型時代的到來將向量數(shù)據(jù)庫的熱度推向了高點,在此氛圍下,有人發(fā)出了哲學家般的一問:究竟是大模型選擇了向量數(shù)據(jù)庫還是向量數(shù)據(jù)庫選擇了大模型?
近期,51 CTO 的【T 前線】欄目邀請 Zilliz 合伙人兼技術總監(jiān)欒小凡以直播的形式進行了深度采訪,共同探討“向量數(shù)據(jù)庫爆火的真相”。
【T 前線】是 51 CTO 內(nèi)容中心專為技術人物開設的深度訪談欄目之一,通過邀請技術界內(nèi)的業(yè)務負責人、資深架構師、資深技術專家等對當下的技術熱點、技術實踐和技術趨勢進行深度的解讀和洞察,推動前沿科技的傳播與發(fā)展。Zilliz 作為向量數(shù)據(jù)庫領域的領先者,在全球擁有上千家企業(yè)級用戶,與 NVDIA、OpenAI、Hugging Face、LangChain 及國內(nèi)各領先大模型建立了深度的合作關系, 在向量數(shù)據(jù)庫領域舉足輕重。
以下是本次采訪的重點:
欒小凡首先從向量數(shù)據(jù)庫的誕生講起,他表示,向量數(shù)據(jù)庫最早誕生于 2019 年,由 Zilliz 公司推出并開源了全球首款向量數(shù)據(jù)庫 Milvus。傳統(tǒng)的向量檢索應用場景包括了推薦系統(tǒng)、以圖搜圖、問答機器人、內(nèi)容風控,面向的主要是具備較強 AI 能力和運維能力的企業(yè)級用戶,用戶關注的主要是查詢能力,性能,大數(shù)據(jù)量下的可擴展性,以及可運維性、可觀測性、安全性等企業(yè)級能力。隨著大模型技術的蓬勃發(fā)展,向量數(shù)據(jù)庫開始進入 2.0 時代,更多的個人開發(fā)者涌入賽道,對向量數(shù)據(jù)庫的關注也逐漸遷移到開發(fā)效率、部署簡單以及面向大模型加強場景的功能需求。
隨后,欒小凡解釋了向量數(shù)據(jù)庫與 LLM 的關系,他認為,向量數(shù)據(jù)庫作為大模型實現(xiàn)的重要補充,可看作大模型的記憶體,為大模型提供檢索和存儲的功能,其價值不容忽視。對于向量數(shù)據(jù)庫而言,其終極武器就是 AI 化,它不僅是 DB for AI 的最佳實踐,查詢不需要 100% 準確的特性也使得向量數(shù)據(jù)庫成為了 AI for DB 的理想試驗場。向量數(shù)據(jù)庫可以無縫地與 LLM 應用集成,提供一站式的數(shù)據(jù)管理和處理解決方案,成為多模態(tài)數(shù)據(jù)之間的重要橋梁。
最后,欒小凡表示,隨著大模型的廣泛應用與實際落地,用戶對于數(shù)據(jù)庫的性能、擴展性和穩(wěn)定性等方面的需求不斷提升。然而,在眾多向量數(shù)據(jù)庫中選擇一款最適合自身業(yè)務的,無疑是一個富有意義卻頗具挑戰(zhàn)性的任務。如果用戶正在尋找一款讓人省心、定價合理的向量數(shù)據(jù)庫,那么 Zilliz Cloud 無疑是最佳選擇,其高效穩(wěn)定的特性,絕對能滿足各項需求。
據(jù)悉,Zilliz Cloud 是基于開源 Milvus 的托管云服務,已在國內(nèi)全面發(fā)布,用戶可以基于向量檢索服務和大模型 API 快速構建自己的 AIGC 應用。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )