Site icon 硬是要學

OpenAI 放寬 o1-preview 及 o1-mini 模型使用頻率

OpenAI 宣布推出 o1-preview 推理模型後,強大的推理和程式碼生成能力讓很多人感到驚豔,不過因為運算成本比 GPT-4o 高出不少,模型推出初期 OpenAI 嚴格限制使用頻率。在推出後一週的今天,OpenAI 宣布放寬更多限制,讓 Plus (付費) 及 Team (團隊) 使用者可以有更多的空間操作 o1-preview 模型。

鬆綁 o1-mini 性能

如果你想要生成程式碼的話,OpenAI 認為 o1-mini 已經足夠滿足需求,且成本比 o1-preview 降低了 80%。

在這次的調整後,o1-mini 的處理速率限制提升了 7 倍,同時訊息數量限制也由每週 50 則訊息提升為每天 50 則,等同也是提升了 7 倍訊息量。

o1-preview 模型也放寬

但 o1-preview 模型放寬的幅度就沒有那麼大,只由每週 30 則放寬至每週 50 則訊息,雖然數量還是相當有限,不過根據這個解放的速度,相信付費集團對使用者很快就可以享受到完全解放的 o1-preivew 模型。

根據 OpenAI 的測試數據,這次推出的 o1-preview 模型 ML 基準測試的各個項目中都明顯優於 GPT-4o。雖然目前完整版的 o1 模型還沒有正式推出,但即便是 o1-preivew 也有很大的進步。

在其他的測試項目中,o1 也普遍獲得比 GPT-4o 更好的測試表現。

對於開發者來說,目前 OpenAI 只開放 API 第五級 (Tier 5) 的開發者能透過 API 使用 o1-preview 及 o1-mini,且仍然有嚴格的使用限制:o1-preview 為 100 RPM;o1-mini 則為 250 RPM。這個使用量限制還無法達到產品需求,但如果要開發以 o1-preview 或 o1-mini 的應用程式,倒是可以開始進行測試。

Exit mobile version