GPT-4o(英語:Generative Pre-trained Transformer 4 Omni)是由OpenAI訓練的多語言、多模態(多種類型資料,例如文字、圖像、音訊等)GPT大型語言模型。GPT-4o於2024年5月13日發布。 [1] 該模型比其前身GPT-4快兩倍,而價格僅為其50%。該模型由米拉·穆拉蒂在OpenAI直播演示中宣布。 [1] OpenAI聲稱該模型將對所有使用者免費, 並為付費ChatGPT Plus使用者提供高達5倍的訊息上限。[2]
背景
GPT-4o最初在LMSYS上以3個不同模型的形式暗中發布。這3個模型分別稱為gpt2-chatbot、im-a-good-gpt2-chatbot和im-also-a-good-gpt2-chatbot。2024年5月7日,薩姆·奧爾特曼透露OpenAI發布了這些神秘的新模型。[3]
功能
GPT-4o在語音、多語言和視覺基準測試中取得了最先進的成果,在音訊語音辨識和翻譯領域創下了新紀錄。[4] GPT-4o 在 MMLU 基準測試中的得分為 88.7,而GPT-4 的得分為86.5。[4]
[5]
根據該公司的演示,GPT-4o將有效地將ChatGPT轉變為可以進行即時語音對話的數位個人助理。 它還能夠使用文字和「視覺」進行互動,這意味著它可以檢視使用者上傳的螢幕截圖、相片、文件或圖表,並就它們進行對話。OpenAI演示了與ChatGPT的語音對話,以獲得解決數學問題的即時說明、講述睡前故事並獲得編碼建議。[6] 免費ChatGPT使用者將可以與新的GPT-4o模型進行有限次數的互動,然後該工具會自動恢復依賴更小的GPT-4o mini模型;付費使用者將可以使用最新GPT-4o訪問更多數量的訊息。[6]
該模型支援超過50種語言,覆蓋超過97%的口語語言。它目前是LMSYS Elo Arena基準測試中的領先模型。[7]
GPT-4o mini
OpenAI於2024年7月18日發布了GPT-4o mini,比起GPT-4o更小,而且價格更便宜。[8]
根據OpenAI的說法,其低成本預計對那些希望將其整合到服務中的公司、初創企業和開發者特別有用,因為他們通常會進行大量的API呼叫。其API的費用為每百萬輸入標記15美分,每百萬輸出標記60美分,相比之下,GPT-4o分別為5美元和15美元。它的效能也比GPT-3.5更好,而且比後者便宜60%。
參見
參考資料
外部連結
可微分計算 |
---|
| 概論 | |
---|
| 概念 | |
---|
| 應用 | |
---|
| 硬體 | |
---|
| 軟體庫 | |
---|
| 實現 | |
---|
| 人物 | |
---|
| 組織 | |
---|
| 架構 | |
---|
|
主題
分類
|
|