12月18日,人工智能搜索平臺 Perplexity 宣布,其集成的最新大模型 Gemini3Flash 已全面向 Pro 和 Max 訂閱用戶開放。此次更新標(biāo)志著 Perplexity 在提升響應(yīng)速度與推理效率方面邁出關(guān)鍵一步。
Gemini3Flash 是谷歌近期推出的輕量級高性能模型,主打低延遲與高吞吐能力,在保持強大語言理解能力的同時,顯著優(yōu)化了推理成本與響應(yīng)速度。Perplexity 表示,該模型將為用戶提供更快速、流暢的問答體驗,尤其適用于需要實時信息整合與多輪交互的復(fù)雜查詢場景。
據(jù)官方介紹,Pro 與 Max 用戶無需額外操作,即可在現(xiàn)有界面中直接調(diào)用 Gemini3Flash。系統(tǒng)將根據(jù)查詢類型智能選擇最合適的模型,確保在速度與準(zhǔn)確性之間取得最佳平衡。該模型對多語言支持和代碼理解能力也進(jìn)行了針對性優(yōu)化,進(jìn)一步拓展了 Perplexity 在專業(yè)領(lǐng)域的應(yīng)用邊界。
此次集成是 Perplexity 與谷歌深度合作的又一成果。隨著 Gemini3Flash 的上線,Perplexity 有望在競爭激烈的 AI 搜索賽道中強化其技術(shù)優(yōu)勢,為高階用戶提供更高效、精準(zhǔn)的信息服務(wù)。未來,該模型或?qū)⑦M(jìn)一步下放至免費用戶層級,擴大技術(shù)普惠范圍。













