今天,我們正在發布兩個更新的可製作的雙子雙子座模型: Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002 以及:
- >降低1.5 pro的價格(提示<128K的輸入和輸出)
- 1.5閃光燈上的速率較高2倍,1.5 pro上的率高〜3倍
- 2倍輸出速度2倍,延遲較低3倍
- 更新默認過濾器設置
這些新模型基於我們最新的實驗模型發布,並包括對5月在Google I/O發布的Gemini 1.5模型的有意義的改進。開發人員可以通過Google AI Studio和Gemini API免費訪問我們的最新型號。對於大型組織和Google Cloud客戶,該模型也可以在Vertex AI上找到。
提高了整體質量,數學,長篇小說和願景的增長更大
GEMINI 1.5系列是為在各種文本,代碼和多模式任務中進行一般性能而設計的模型。例如,Gemini模型可用於合成1000頁PDF的信息,回答有關包含10,000多行代碼的存儲庫的問題,攝入一個小時的視頻並從中創建有用的內容,等等。
隨著最新更新,1.5 Pro和Flash現在更好,更快且具有更高的成本效益。我們看到MMLU-Pro增長了約7%,這是流行的MMLU基準的更具挑戰性的版本。關於數學和隱藏式馬斯(內部競爭數學問題集)的基準,這兩種模型都取得了〜20%的提高。對於視覺和代碼用例,這兩個模型在測量視覺理解和Python代碼生成的EVAL中的性能也更好(範圍為〜2-7%)。
我們還提高了模型響應的總體幫助,同時繼續維護我們的內容安全政策和標準。這意味著在許多主題中,少量的打擊/更少的拒絕和更有幫助的回應。
現在,這兩種模型都具有更簡潔的風格,以響應開發人員的反饋,旨在使這些模型更易於使用和降低成本。對於諸如匯總,問答和提取之類的用例,更新模型的默認輸出長度比以前的型號短約5-20%。對於基於聊天的產品,默認情況下,用戶可能會更喜歡較長的響應,您可以閱讀我們的提示策略指南,以了解有關如何使模型更加冗長和對話的更多信息。
有關遷移到Gemini 1.5 Pro和1.5 Flash的最新版本的更多詳細信息,請查看Gemini API模型頁面。
雙子座1.5 Pro
Gemini 1.5 Pro的200萬令牌長上下文窗口和多模式功能的創造性和有用的應用程序,我們繼續震驚。從視頻理解到處理1000頁PDF,仍有許多新用例要構建。今天,我們宣布輸入代幣的價格下降64%,產出令牌的價格下降了52%,以及我們最強的1.5系列型號,Gemini 1.5 Pro的增量緩存令牌的價格降低了64%提示不到128K令牌。加上上下文緩存,這繼續推動雙子座下降的建築成本。
增加速率限制
為了使開發人員更容易使用雙子座構建,我們將1.5 Flash的付費級利率限制增加到2,000 rpm,並將1.5 Pro提高到1,000 rpm,分別從1,000和360增加到1,000 rpm。在接下來的幾周中,我們預計將繼續增加雙子API速率限制,以便使用Gemini可以建立更多。
2倍輸出速度2倍,延遲減少3倍
除了我們最新型號的核心改進外,在過去的幾周中,我們以1.5閃光燈驅動了潛伏期,並顯著增加了每秒的輸出令牌,從而使新的用例具有最強大的模型。
更新的過濾器設置
自2023年12月Gemini首次推出以來,建立安全可靠的模型一直是重點。借助Gemini(-002型號)的最新版本,我們已經改進了該模型在平衡安全性同時遵循用戶說明的能力。我們將繼續提供一套安全過濾器,開發人員可以將其應用於Google的型號。對於今天發布的模型,默認情況下不會應用過濾器,以便開發人員可以確定最適合其用例的配置。
Gemini 1.5 Flash-8b實驗更新
我們正在發布我們8月份宣布的“ Gemini-1.5-Flash-8B-8B-Exp-0924”的Gemini 1.5型號的進一步改進版本。此改進的版本包括文本和多模式用例的大幅提高。現在可以通過Google AI Studio和Gemini API獲得。
絕大多數的積極反饋開發人員共享了約1.5 flash-8b,令人難以置信,我們將繼續根據開發人員的反饋來塑造生產發行管道的實驗。
我們對這些更新感到興奮,迫不及待地想了解新的雙子座模型您將構建的內容!對於Gemini高級用戶,您很快就可以訪問Gemini 1.5 Pro-002的聊天優化版本。