OpenAI 12天連播的第二彈,用短短三個單詞體現(xiàn)了什么叫「字少事大」——強(qiáng)化微調(diào)(Reinforcement Fine-Tuning)。 首先,這是OpenAI第一次將之前僅限自家模型(如GPT-4o和o1系列)使用的強(qiáng)化學(xué)習(xí)技術(shù),開放給外部開發(fā)者。 其次,開發(fā)者只需提供最低「幾十個」高質(zhì)量任務(wù),就能通過強(qiáng)化微調(diào)實現(xiàn)領(lǐng)域?qū)<夷P偷亩ㄖ!并且,還能根據(jù)提供的參考答案對模型的回應(yīng)進(jìn)行評分。 最后,強(qiáng)化微調(diào)加強(qiáng)了模型在處理領(lǐng)域問題時的推理能力,并提升了在特定任務(wù)上的準(zhǔn)確性。對于那些要求高精確性和專業(yè)知識的領(lǐng)域,強(qiáng)化微調(diào)將會發(fā)揮至關(guān)重要的作用。 從OpenAI的官方演示中不難看出,強(qiáng)化微調(diào)的效果可謂是相當(dāng)顯著——經(jīng)過強(qiáng)化微調(diào)的o1 mini,竟然全面超越了當(dāng)今最強(qiáng)的基礎(chǔ)模型o1。 其中,強(qiáng)化微調(diào)版的o1 mini,在Top-1準(zhǔn)確率上直接躍升180%達(dá)到了31%,遠(yuǎn)超o1的25%。 對此,奧特曼激動地表示:「這項工作效果出奇得好,是我2024年最大的驚喜之一!非常期待大家會用它去構(gòu)建什么! 目前,強(qiáng)化微調(diào)研究計劃已進(jìn)入Alpha階段,并將于2025年第一季度公開發(fā)布。 為了搞清楚「強(qiáng)化微調(diào)」到底是個啥,我們便去問了問OpenAI自家的AI搜索。 沒想到,結(jié)果卻出人意料——這個技術(shù)思路,在一篇被ACL 2024錄用為Oral的論文中,就已經(jīng)提出了。 而更喜人的是,團(tuán)隊的成員全部來自字節(jié)跳動! 在這項工作中,研究人員提出了一種簡單而有效的方法,來自增強(qiáng)LLM推理時的泛化能力——強(qiáng)化微調(diào)(Reinforced Fine-Tuning,ReFT)。 論文地址:https://arxiv.org/abs/2401.08967 簡單來說,ReFT首先會使用SFT對模型進(jìn)行預(yù)熱,然后采用在線強(qiáng)化學(xué)習(xí)(PPO算法)進(jìn)行優(yōu)化。 也就是,對給定的問題自動采樣大量的推理路徑,并根據(jù)真實答案來獲取獎勵,從而進(jìn)一步對模型進(jìn)行微調(diào)。 在GSM8K、MathQA和SVAMP數(shù)據(jù)集上的大量實驗表明,ReFT顯著優(yōu)于SFT,并且通過結(jié)合多數(shù)投票和重新排序等策略,可以進(jìn)一步提升模型性能。 不僅如此,ReFT還有著卓越的泛化能力——在訓(xùn)練中僅需使用與SFT相同的問題集,而無需依賴額外或增強(qiáng)的訓(xùn)練數(shù)據(jù)。 強(qiáng)化微調(diào),不是傳統(tǒng)微調(diào) 這次上陣直播的四人,是OpenAI的研究員Mark Chen、John Allard、Julie Wang,以及伯克利實驗室計算生物學(xué)家Justin Reese。 他們介紹說,這項功能已允許用戶在自己的數(shù)據(jù)集上微調(diào)o1。 不過要強(qiáng)調(diào)的是,并不是傳統(tǒng)的微調(diào),而是強(qiáng)化微調(diào)。它真正利用了強(qiáng)化學(xué)習(xí)算法,把模型從高級中學(xué)水平提升到專家博士級別。 這個功能,能夠幫助把自己的優(yōu)質(zhì)數(shù)據(jù)集轉(zhuǎn)化為獨一無二的用品,帶來「魔力」。 強(qiáng)化微調(diào)(RFT),能讓開發(fā)者、研究人員和機(jī)器學(xué)習(xí)工程師首次有機(jī)會使用強(qiáng)化學(xué)習(xí)來創(chuàng)建專家級模型,在特定領(lǐng)域的任務(wù)中有卓越表現(xiàn)。 對于法律、金融、工程、保險等領(lǐng)域,這項技術(shù)簡直是量身打造的。 舉例來說,OpenAI最近和湯森路透合作,利用強(qiáng)化微調(diào)對o1 Mini進(jìn)行了微調(diào),使其成為了一名法律助手,幫法律專業(yè)人士完成了一些復(fù)雜、需要深入分析的工作流程 。 史上首次,OpenAI微調(diào)支持強(qiáng)化學(xué)習(xí)去年年初,OpenAI就推出了監(jiān)督微調(diào)API。這項技術(shù)非常強(qiáng)大,核心目標(biāo)是讓模型復(fù)制在輸入文本或圖像中發(fā)現(xiàn)的特征。 在強(qiáng)化微調(diào)中,它不僅是教模型模仿輸入,而是去學(xué)習(xí)在自定義域上以全新的方式進(jìn)行推理。 當(dāng)模型看到一個問題,研究者會給它空間來思考問題,然后給它的最終答案進(jìn)行評分。 然后,利用強(qiáng)化學(xué)習(xí)的強(qiáng)大能力,他們會強(qiáng)化那些導(dǎo)致正確答案的思維路徑,同時抑制那些導(dǎo)致錯誤答案的思維路徑。 只需要數(shù)十到數(shù)千個高質(zhì)量示例,模型就能學(xué)會以新的、有效的方式在定制領(lǐng)域中進(jìn)行推理了! 用OpenAI研究者的話說,這實在太瘋狂了,令人難以置信——僅用12個例子就能做到,這是傳統(tǒng)微調(diào)難以實現(xiàn)的。 這也是史上首次,OpenAI的模型定制平臺可以支持強(qiáng)化學(xué)習(xí)。 研究者強(qiáng)調(diào)說,OpenAI內(nèi)部用來訓(xùn)練GPT-4o和o1系列等頂尖模型,就是用的同樣技術(shù)。 強(qiáng)化微調(diào)的o1,診斷罕見病伯克利實驗室的Justin,就介紹了強(qiáng)化微調(diào)給他的研究帶來的巨大幫助。 他研究的是,使用計算方法來理解罕見疾病背后的遺傳原因。 然而,現(xiàn)在評估罕見疾病并不容易,首先要對醫(yī)學(xué)有專業(yè)領(lǐng)域知識,還要對生物醫(yī)學(xué)數(shù)據(jù)進(jìn)行系統(tǒng)化推理。 而這,o1模型可以憑借其高級推理能力提供幫助。 在這個項目中,Justin和同事們從數(shù)百篇關(guān)于罕見疾病的科學(xué)病例報告中提取了疾病信息,包括患者的體征和癥狀。 他們希望能根據(jù)患者的癥狀,找出可能發(fā)生突變、導(dǎo)致這些癥狀的基因。 為此,他們和OpenAI團(tuán)隊一起訓(xùn)練了o1模型,讓它更高效地推理疾病的成因。 而在「根據(jù)一系列癥狀預(yù)測可能引發(fā)遺傳疾病的基因」這一任務(wù)上,o1-mini的表現(xiàn)超越了o1! 這非常重要,因為o1-mini比o1更小、更快、成本更低。 在OpenAI的開發(fā)平臺上,他們已經(jīng)對一個模型進(jìn)行監(jiān)督微調(diào)一年多了。 他們上傳了一個訓(xùn)練數(shù)據(jù)集,包含1100個示例。 以下是一個單獨的數(shù)據(jù)點,包括病例報告、指令、正確答案三個部分。 病例報告顯示,這是一名51歲的女性,有眼距增寬、甲狀旁腺功能亢進(jìn)等癥狀。在指令部分,研究者會提示模型,希望它做什么。最后就是正確答案。 注意,訓(xùn)練過程中,并不會向模型展示這個答案,否則就是作弊了。 但是,研究者以這訓(xùn)練過程中用這個答案來評估模型。 可以看出,這個任務(wù)的難度,已經(jīng)遠(yuǎn)遠(yuǎn)超越了「Strawberry中有幾個r」的級別。 接下來,他們上傳了一些驗證數(shù)據(jù),它的格式與訓(xùn)練數(shù)據(jù)完全相同,但驗證數(shù)據(jù)集和訓(xùn)練數(shù)據(jù)集之間的正確基因沒有重疊。 這就意味著,模型不能作弊,不能只是簡單地記住癥狀列表并將其與基因匹配。 它必須真正從訓(xùn)練數(shù)據(jù)集泛化到驗證數(shù)據(jù)集。 強(qiáng)化學(xué)習(xí)的部分,是這樣體現(xiàn)的—— 他們引入評分器的概念,將模型輸出與正確答案比較,返回0到1之間的一個分?jǐn)?shù)。0表示模型完全錯誤,1表示模型完全正確。 在這個例子中,模型得到了0.7的分?jǐn)?shù),因為FOXE 3是正確答案,在基因列表中排第二位。 它在列表中越往后,分?jǐn)?shù)會越接近0。 最終,研究者提供了一套評分器合集,能有效覆蓋在強(qiáng)化微調(diào)時可能會有的各種意圖空間。 接下來,可以快速地復(fù)制一下評分器,然后就啟動了一個訓(xùn)練任務(wù)。 厲害的地方在于,只需要提供數(shù)據(jù)集和評分器(體現(xiàn)領(lǐng)域?qū)I(yè)知識),就可以利用OpenAI強(qiáng)化學(xué)習(xí)算法的全部能力,以及完整的分布式模型訓(xùn)練技術(shù)棧,來為自己的使用場景定制一個前沿模型了。 一句話就是:拿上你的數(shù)據(jù)集和評分器,OpenAI就會給你一個微調(diào)模型。 強(qiáng)化學(xué)習(xí)微調(diào)任務(wù)可能需要幾個小時到幾天的時間來運行 可以看到,驗證集的獎勵分?jǐn)?shù)呈上升趨勢。 由于訓(xùn)練數(shù)據(jù)集和驗證數(shù)據(jù)集之間的基因沒有重疊,這意味著:模型確實學(xué)會了這項任務(wù)中進(jìn)行泛化! 模型學(xué)會通用推理能力為了更深入地了解模型中微調(diào)過程中發(fā)生了什么變化,可以查看評估儀表板。 其中,研究者設(shè)置了三個不同運行,分別是運行在o1、o1 mini和強(qiáng)化微調(diào)后的o1 mini上的任務(wù)。 可以看到,獎勵分?jǐn)?shù)呈現(xiàn)右上角上升的趨勢,但這對任務(wù)來說意味著什么呢? 為此,他們設(shè)置了三個不同的評估指標(biāo),分別是Top-1(第一項正確率)、Top-5(前五項正確率)和Top-max(是否包含正確答案)。 在Top-1指標(biāo)中,o1 mini在約200條數(shù)據(jù)上的得分是17%。o1得到了25%,而微調(diào)后的o1 mini,得到了31%。 ChatGPT就此生成了一張更直觀的圖表。 這顯示出,模型確實學(xué)會了如何在這類數(shù)據(jù)上進(jìn)行推理的通用能力! 在Justin看來,強(qiáng)化學(xué)習(xí)將極大地振奮生物學(xué)研究社區(qū),近期內(nèi)的最佳方案,可能就是結(jié)合現(xiàn)有生物信息學(xué)工具和類o1模型的混合解決方案。 而以上,僅僅是強(qiáng)化微調(diào)在科學(xué)研究中的一個應(yīng)用而已。 除了已經(jīng)驗證的生物化學(xué)、AI安全、法律以及醫(yī)療保健數(shù)據(jù)集,模型還會在數(shù)百種其他應(yīng)用場景上發(fā)揮作用。 OpenAI的Alpha計劃,會讓更多人在最重要的任務(wù)上,推動o1模型能力的邊界。 直播最后,依然是OpenAI式的圣誕冷笑話一則—— 最近,圣誕老人在嘗試制造一輛無人駕駛雪橇,但不知為何,他的模型總是無法識別樹木,導(dǎo)致雪橇不停地撞上道路兩旁的樹。你們猜這是為什么? 答案是:因為他忘了給模型進(jìn)行「pine-tune」(松樹微調(diào))! 本文來源:新智元 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選