5月14日,OpenAI推出了一個更快、更便宜的人工智能模型來支持其聊天機器人ChatGPT。在周一的直播活動中,OpenAI推出了新的大語言模型GPT-4o。這是其已經(jīng)問世一年多的GPT-4模型的更新版本。該模型基于來自互聯(lián)網(wǎng)的大量數(shù)據(jù)進(jìn)行訓(xùn)練,更擅長處理文本和音頻,并且支持50種語言。新模式將面向所有用戶,而不僅僅是付費用戶。GPT-4o的發(fā)布勢將撼動快速發(fā)展的人工智能領(lǐng)域,目前GPT-4仍然是黃金標(biāo)準(zhǔn)。OpenAI發(fā)布新模型也正值谷歌I/O開發(fā)者大會的前一天。谷歌是人工智能領(lǐng)域的早期領(lǐng)導(dǎo)者,預(yù)計將利用這次活動發(fā)布更多人工智能更新,以追趕有微軟公司支持的OpenAI。
【機會前瞻】
5月14日凌晨,美國人工智能研究公司OpenAI舉辦了備受期待的“春季更新”活動,活動亮點包括推出新旗艦?zāi)P汀癎PT-4o”和在ChatGPT中免費提供更多功能。
GPT-4o是對其一年多前發(fā)布的GPT-4模型的重大更新。GPT-4o不僅在文本和音頻處理上更加出色,還支持多達(dá)50種語言,面向所有用戶開放,不僅限于付費用戶。GPT-4o的“o”代表“omni”,意為全能,標(biāo)志著向更自然的人機交互邁出了重要一步。該模型能夠接受文本、音頻和圖像的任意組合作為輸入,并生成相應(yīng)的輸出內(nèi)容。
OpenAI官網(wǎng)介紹,GPT-4o在API速度上進(jìn)行了顯著提升,同時大幅降低了成本。新模式在最快232毫秒內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時間為320毫秒,與人類對話響應(yīng)時間相仿。此外,OpenAI計劃在未來一個月內(nèi)向Plus用戶推出基于GPT-4o的改進(jìn)語音體驗。
據(jù)悉,GPT-4o將提供與GPT-4同等水平的智能,同時在文本、圖像及語音處理方面實現(xiàn)提升。GPT-4o能夠感知用戶情緒,分析面部表情,使其語音交互更自然逼真。GPT-4o還能根據(jù)要求調(diào)整說話語氣,展現(xiàn)高度的可塑性,并具備唱歌功能。OpenAI還宣布,GPT-4o將免費提供給所有用戶使用,付費用戶可享受更高的調(diào)用額度。
對于蘋果電腦用戶,OpenAI將推出專為macOS設(shè)計的ChatGPT桌面應(yīng)用,允許用戶通過快捷鍵與ChatGPT互動。Windows版本預(yù)計將在今年晚些時候推出。