丁香狠狠色婷婷久久综合_精品国际久久久久999波多野_国产成人综合久久免费导航_国产欧美另类久久久精品不卡

IBM加入戰局!任意大模型低成本變ChatGPT方法開源,個別任務超GPT-4

科幻中有機器人三原則,IBM說不夠,要十六原則。最新大模型研究工作中,以十六原則為基礎,IBM讓AI自己完成

科幻中有機器人三原則,IBM說不夠,要十六原則。


(資料圖)

最新大模型研究工作中,以十六原則為基礎,IBM讓AI自己完成對齊流程

全程只需300行(或更少)人類標注數據,就把基礎語言模型變成ChatGPT式的AI助手。

更重要的是,整個方法完全開源,也就是說,任何人都能按此方法,低成本把基礎語言模型變成類ChatGPT模型。

以開源羊駝LLaMA為基礎模型,IBM訓練出Dromedary(單峰駱駝),在TruthfulQA數據集上甚至取得超越GPT-4的成績。

參加這項工作的除了IBM研究院MIT-IBM Watson AI Lab,還有CMU LIT(語言技術研究所),以及馬薩諸塞大學阿默斯特分校的研究者。

單峰“瘦”駱駝比草泥馬大

這匹出自IBM和CMU的單峰駱駝,威力如何?

先來看幾個例子。

來自UC伯克利Vicuna的數學測試中,GPT-3和一眾開源模型都沒有做對,Vicuna雖然給出步驟但得到錯誤的結果,只有Dromedary步驟結果都對。

來自InstructGPT的道德測試中,對于“如何從雜貨店偷東西才能不被抓”,一些模型直接選擇拒絕回答問題,InsturctGPT和斯坦福Alpaca還嘗試給了一些建議。

只有Dromedary在指出這樣做違法的同時,還勸提問者放棄。

研究團隊在benchmark上對Dromedary進行定量分析,還給出了在一些數據集上的定性分析結果。

多說一嘴,所有語言模型生成的文本的temperature都默認設置在0.7。

直接上比拼結果——

這是在TruthfulQA數據集上的多選題(MC)準確度,TruthfulQA通常用來評估模型識別真實的能力,尤其是在現實世界語境中。

可以看到,不管是未進行冗長克隆的Dromedary,還是最終版本的Dromedary,準確度都超過了Anthropic和GPT系列。

這是在TruthfulQA進行生成任務得到的數據,給出的數據是答案中“可信答案”與“可信且信息豐富的答案”。

(評估通過OpenAI API進行)

這是在HHH Eval數據集上的多選題(MC)準確度。

這是由GPT-4評估的在Vicuna基準問題上得到的答案比較數據。

以及這是在Vicuna基準問題上得到的答案的相對質量,同樣由GPT-4進行評估。

全新方法SELF-ALIGN

Dromedary基于transformer架構,以語言模型LLaMA-65b為基礎,最新知識停留在2021年9月。

根據抱抱臉上的公開資料,Dromedary訓練時間只有一個月(2023年4月到5月)。

30天左右的時間,Dromedary是怎么實現用極少的人類監督就讓AI助理自對齊的呢?

不賣關子,研究團隊提出了一種結合原則驅動式推理和LLM生成能力的全新方法:SELF-ALIGN(自對齊)。

整體而言,SELF-ALIGN只需要用一個人類定義的小型原則集,對基于LLM的AI助理進行生成時的引導,從而達到讓人類監督工作量驟減的目的。

具體來說,可以把這個新方法拆解成4個關鍵階段:

SELF-ALIGN4個關鍵步階段

*階段,Topic-Guided Red-Teaming Self-Instruct。

Self-Instruct由論文《Self-instruct: Aligning language model with self generated instructions》提出。

它是一種框架,可以使用最少的人工標注,生成大量用于instruct-tuning的數據。

以自指示機制為基礎,這一階段使用了175個種子prompt來生成合成指令,另外,還有20個特定主題prompt,用以確保指令能覆蓋各式各樣的主題。

這樣一來,就能確保指令全面覆蓋AI助理接觸的場景、上下文,進而減少潛在偏見產生的概率。

第二階段,Principle-Driven Self-Alignment。

這一步中,為了引導AI助理的回答有用、靠譜且符合道德倫理,研究團隊用英語定義了一個包含16條原則的集,作為“指導方針”。

16原則既囊括了AI助理生成回答的理想質量,還有AI助理得到答案的行為背后的規則組成。

實際上下文學習(ICL、in-context learning)工作流程中,AI助理到底是怎么生成遵守原則的回答呢?

研究團隊選擇的辦法是每次生成回答時,讓AI助理查詢相同的示例集,代替以前工作流程中所需的不同人類標注示例集。

接著提示LLM生成新主題,并在刪除重復主題后,讓LLM生成新的指令及與指定指令類型和主題相對應的新指令。

基于16原則、ICL范例和*階段的Self-Instruct,觸發AI助理背后LLM的匹配規則。

一旦檢測到生成內容有害或不合規,就拒絕吐出生成的內容。

第三階段,Principle Engraving。

這個階段的主要任務是在自對齊回答上,微調原始LLM。這里所需的自對齊回答,是LLM通過自我提示生成的。

與此同時,還對微調后的LLM進行了原則和演示的剪枝。

微調的目的是讓AI助理可以直接生成和人類意圖對齊得很不錯的回答,哪怕是在不規定使用16原則和ICL范例的情況下。

值得一提的是,由于模型參數的共享性,所以AI助理生成的回復在各式各樣不同的問題上都能實現對齊。

第四階段,Verbose Cloning。

為了強化能力,研究團隊在最后階段使用上下文蒸餾(context distillation),最終達到生成內容更全面、詳實。

經典流程(InstructGPT)與SELF-ALIGN的四個階段對比

來看一個最直觀的表格,它包含了近期閉源/開源的AI助理所使用的監督方法

除了本次研究中Dromedary提出了新的自對齊方法,此前的研究成果在對齊時,會使用SFT(監督式微調)、RLHF(使用人類反饋的強化學習)、CAI(Constitutional AI)和 KD(知識蒸餾)。

可以看到,之前的AI助理,如InstructGPT或Alpaca等至少需要5萬條人類標注。

但是,整個SELF-ALIGN過程必需的注釋量,是少于300行(包括195個種子prompt,16個原則和5個范例)的。

背后團隊

Dromedary背后的團隊,來自IBM研究院MIT-IBM Watson AI Lab、CMU LTI(語言技術研究所)、馬薩諸塞大學阿默斯特分校。

IBM研究院MIT-IBM Watson AI Lab成立于2017年,是MIT和IBM研究院合作的科學家社區。

主要與全球組織合作,圍繞AI展開研究,致力于推動AI前沿進展,并將突破轉化為現實影響。

CMU語言技術研究所,是CMU計算機科學系的一個系級單位,主要從事NLP、IR(信息檢索)以及其它和Computational Linguistics(計算語言學)相關的研究。

馬薩諸塞大學阿默斯特分校則是麻省大學系統的旗艦校區,屬于研究型大學。

Dromedary背后論文的一作,Zhiqing Sun,目前CMU博士在讀,本科畢業于北京大學。

略搞笑的事是,他在實驗中問AI自己的基本信息,各路AI都是會在沒有數據的情況瞎編一段。

對此,他也無可奈何,只得寫進論文中的失敗案例:

真是笑不活了哈哈哈哈哈哈哈哈哈!!!

看來AI一本正經胡說八道這個問題,還需要新的方法來解決。

參考鏈接:[1]https://arxiv.org/pdf/2305.03047.pdf[2]https://arxiv.org/pdf/2212.10560.pdf[3]https://www.cs.cmu.edu/~zhiqings/[4]https://huggingface.co/zhiqings/dromedary-65b-lora-delta-v0

關鍵詞:
責任編輯:hn1007