聯發創新基地開源釋出精準運用中英雙語的MediaTek Research Breeze-7B大型語言模型

聯發創新基地開源釋出精準運用中英雙語的MediaTek Research Breeze-7B大型語言模型。(資料照) 聯發創新基地開源釋出精準運用中英雙語的MediaTek Research Breeze-7B大型語言模型。(資料照)

聯發科技集團轄下的前瞻技術研究單位聯發創新基地,繼2023年初釋出全球第一款繁體中文大型語言模型後,今日再度開源釋出能夠精準理解和生成中英兩種語言的MediaTek Research Breeze-7B 70億參數系列大型語言模型 (以下簡稱Breeze-7B) 供大眾使用。

Breeze-7B基於開源界最熱門的Mistral模型,較上一代繁體中文大型語言模型增加20倍以上的知識量,使Breeze-7B能更精確掌握中英文的細微語言與文化差異,呈現更自然、準確的溝通以及雙語內容創作。此外,在聯發創新基地對模型的優化下,Breeze-7B繁體中文的推理處理速度只需要市面上其他70億參數級別的Meta或Mistral模型一半的時間,提供更順暢的使用體驗。

聯發創新基地負責人許大山表示: 「近期全球AI領域研究蓬勃發展,但多數研究與開發項目都以英文的大型語言模型進行。我們知道許多學術界專家與應用開發者,都在為推進繁體中文AI的創新與應用而努力,相信這次聯發創新基地Breeze-7B 繁體中文大型語言模型開源將有益於學術界與業界在AI的發展,未來聯發創新基地也將規劃開源多模態模型,期待持續與學術界及業界共同開創AI領域的更多可能性。」

在市面上眾多 70億參數級別的中英雙語模型中,Breeze-7B 模型在對話與表格處理能力上都是領先者。Breeze-7B能在更短的時間內理解並生成更流暢、精準的中英文回應,還能精準捕捉語境,提供高度相關且連貫的回答,為即時翻譯、商業溝通、智能客服對話等需要快速反應的即時中英雙語的場景提供顯著的效能提升。此外,Breeze-7B也能精確地解讀和生成表格內容,無論是數據分析、財務報表還是複雜的排程任務,都能夠提供高效且可靠的支援,對於需要處理大量結構化數據的企業來說尤其重要。

此次聯發創新基地Breeze-7B的模型開源有助學術研究人員深入理解大型語言模型的運作機制,持續改進大型語言模型的幻覺問題 (hallucination) 與問答校準 (alignment) 等,以優化未來語言模型的生成結果。聯發創基地也將不斷地投入大型語言模型的開發,預計下一代以開源模型Mixtral為基礎所訓練的470億參數大模型,將在近期開放給大眾測試。

訂閱必聞電子報


加入必聞網好友 必聞網紛絲頁

新聞留言板