高文院士:將打造2000億參數(shù)自然語言大模型底座,性能對標ChatGPT
2023-07-07 08:15:36|
來源:IT之家
7月6日消息,中國工程院院士、鵬城實驗室主任高文在WAIC2023的昇騰人工
【資料圖】
7 月 6 日消息,中國工程院院士、鵬城實驗室主任高文在 WAIC2023 的昇騰人工智能產(chǎn)業(yè)高峰論壇上表示,鵬城實驗室已啟動腦海大模型計劃,目標打造國內(nèi)首個完全自主創(chuàng)新、開源開放的自然語言預(yù)訓練大模型底座,參數(shù)級別達到2000億,性能對標ChatGPT。
I高文本月早些時候還透露,“鵬城?腦?!贝竽P屯ㄟ^基于增強學習的大模型微調(diào)技術(shù),該模型能夠持續(xù)演進、快速迭代更新,輸出內(nèi)容符合中文核心價值觀。面向數(shù)字政務(wù)、智慧金融、智能制造等應(yīng)用場景,鵬城實驗室將開放基于“鵬城?腦?!贝竽P偷鬃暮献?,共建國產(chǎn)自主可控預(yù)訓練大模型健康生態(tài)。
高文此前曾提到,ChatGPT 的出現(xiàn),使得以 AI 算力、大模型、通用人工智能為代表的人工智能技術(shù)進入了加速變革的“快車道”。實際上,ChatGPT 之所以對人工智能的發(fā)展帶來如此大的反響,核心就在于它的 AI 大模型能力,而算力、數(shù)據(jù)和算法的三者結(jié)合正是 AI 大模型的制勝關(guān)鍵,也是通用人工智能發(fā)展的前進方向。
關(guān)鍵詞: