在該公司的首席執行官Sam Altman兩週前透露了該產品後,Openai剛剛推出了O3-Mini車型。這被認為是對DeepSeek的直接反應,DeepSeek是最近引起發燒的服務。目前,OpenAI已將O3-Mini模型集成到ChatGpt及其API服務中,並在ChatGpt上提供了有限的免費用戶版本。
O3-Mini旨在滿足數學,編程和科學等領域的高推理要求,同時的響應時間比現有模型更快。 Openai證實,O3-Mini的響應速度將比O1-Mini快24%,並帶來更準確的答案。該模型將顯示其找到答案的方式,而不僅僅是立即給出結果。
為了利用O3-Mini,開發人員可以使用OpenAI API服務,例如聊天完成API,Assistans API和批處理API。付費用戶還可以選擇O3-Mini-HGHE模型,這是Openai將其描述為“ Chatgpt中最好的”的選項,但使用更聰明的反饋,儘管它需要更多時間來推斷和帶來審查。
值得注意的是,在Microsoft為Copilot用戶提供免費O1後,免費的ChatGpt用戶可以在幾天內測試O3 Mini。用戶可以通過在聊天欄中選擇“原因”功能來體驗Chatgpt中免費的O3米尼,儘管它將像GPT-4型號一樣受到限制。
O3-Mini目前可供用戶使用Chatgpt Plus,Team and Pro。 Pro用戶將無限制地訪問O3 Mini,而Plus和Teams每天的消息數量增加到150新聞。此外,O3-Mini還將集成到Microsoft Azure Openai Services,GitHub Copilot和GitHub模型中。
Openai的首席執行官Sam Altman在兩個星期前透露了O3-Mini,今天,該公司正式推出了這一傑出模式。據說這是對DeepSeek的回應,DeepSeek是最近幾天正在“衝進”的服務。當前,OpenAI正在ChatGpt及其API服務中部署O3-Mini模型,同時為免費ChatGpt用戶提供限量版。

Openai推出了一個高3米尼推理模型:The Verge
O3-MINI模型旨在適合在需要高推理的領域(例如數學,編程和科學)的區域的性能,以及比現有推理模型更快的恢復時間的反擊。 Openai表示,O3-Mini的響應速度將比O1-Mini快24%,並提供更準確的答案。像O1-Mini一樣,這個新模型將顯示如何找到答案,而不僅僅是立即給出反饋。

在答案之前推理O3-Mini模型的能力 – 照片:瀏覽
OpenAI提供了一些初始基準測試,表明O3模型在12月份優於O1,並透露,在某些具有較低成本和延遲的編程和推理任務中,O3-Mini版本將優於O1。開發人員可以通過OpenAI的API服務來利用O3-Mini,包括聊天完成API,Assistans API和批處理API。
付費用戶還可以選擇O3-Mini-High,該模型被OpenAI描述為“ Chatgpt中最好的編程選項”,包括更智能的反饋,但會花一些時間才能失敗評論和反饋。 O3-Mini還將使用搜索功能,以查找具有網絡源鏈接的答案。

型號選項是在Chatgpt的界面中提供的 – 屏幕截圖
這也是第一次免費的ChatGpt用戶可以嘗試OpenAI的推理模型,這是Microsoft為所有Copilot和DeepSeek用戶提供免費的O1的幾天后。當前的用戶可以通過在聊天欄中選擇“原因”功能在ChatGpt中免費使用的O3米尼,但是它將僅限於現有GPT-4型號可用的限制的速度相同。

免費版本CHATGPT用戶還可以通過在聊天欄屏幕上選擇原因的原因來體驗O3-Mini模型
O3-Mini現已提供給所有用戶Chatgpt Plus,Team and Pro。其中,加上軟件包和團隊的用戶會升級,以將消息數限制在每天150條消息中。同時,Pro用戶(每月200美元)將無限制地訪問O3 Mini。

比較Plus Package and Pro Chatgpt的Pro軟件包 – 屏幕截圖
O3-Mini也將在Microsoft Azure Openai Service,GitHub Copilot和GitHub型號中提供。
< DIV類=“懷孕”>
< H1> Openai的O3-Mini推理模型的結論是以高性能和低成本的形式啟動的,即使是自由用戶也有機會體驗。這被認為是對DeepSeek的Openai反應,AI的服務引起了人們的關注。該模型旨在滿足數學和編程等領域的高推斷需求,並比現有模型提供更快的恢復時間和更準確的答案。支出者還可以利用具有更明智的功能的O3-Mini-HGHE版本。這是用戶免費CHATGPT可以體驗OpenAI的推理模型的第一個機會,為AI社區打開了新的門。
Source link
探索更多來自 Gizmo Review 的內容
訂閱即可透過電子郵件收到最新文章。

