5月14日消息(顏翊)今日凌晨,OpenAI舉行了一場發(fā)布會,正式發(fā)布了一款最新的GPT-4o多模態(tài)大模型。
OpenAI介紹,與現(xiàn)有模型相比,GPT-4o在視覺和音頻理解方面尤其出色,可以在232毫秒內(nèi)對音頻輸入做出反應,平均響應速度為320毫秒,這與人類在對話中的反應時間相近。而GPT-3.5和GPT-4用戶以語音模式Voice Mode與ChatGPT對話的平均延遲時間為2.8秒和5.4秒。
在發(fā)布會演示中,GPT-4o甚至能夠從OpenAI高管的喘氣聲中理解“緊張”的含義,并且指導他進行深呼吸。
該大模型可以處理50種不同的語言,并實時對音頻、視覺和文本進行推理。相比GPT-4 Turbo,GPT-4o的速度快兩倍,成本降低50%,API速率限制提高五倍。
OpenAI官網(wǎng)顯示,GPT-4o將對用戶免費開放,免費用戶可獲得分析數(shù)據(jù)、幫助總結、寫作和分析等功能。
OpenAI的CEO Sam Altman發(fā)布博客文章表示,“新的語音(和視頻)模式是我用過的最佳計算機界面。感覺(GPT-4o)就像電影里的AI一樣。它的成真讓我感到驚訝。”
- 英偉達推出全新AI工具:輕松創(chuàng)建逼真3D場景,只需一張RTX 4080!
- 快手輕雀科技新作喵記多:AI整理碎片化圖文,一鍵收錄留住生活點滴
- 警惕AI伴侶對兒童青少年帶來不可忽視的風險:守護成長,從我做起
- 從家庭連接到智能共生:中興通訊首推AI家庭“四大件”
- 紐約地鐵引入AI技術:AI預警異常行為,防范犯罪新篇章
- DeepSeek Prover V2-671B新模型開源發(fā)布:開啟人工智能推理新紀元
- 快手重磅新動作:可靈 AI 事業(yè)部引領全新大模型業(yè)務浪潮,重塑未來智能生活!
- 網(wǎng)信辦啟動清朗行動,打擊 AI 技術濫用,重塑網(wǎng)絡空間秩序
- 半數(shù)AI替代員工企業(yè)后悔,警惕AI用工風險:從‘未來之光’到‘無奈之舉’
- 昆侖萬維2025年Q1凈虧損7.69億元,投資組合公允價值變動導致虧損劇增
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。