最猛黑人xxxⅹ黑人猛交_影音先锋在线视频_黄色带三级九九九_亚日韩精品国产系列免费观看_一区与二区精品在线_亚洲黄色毛片视频_午夜伦情电午夜伦情电影8090_亚洲三级毛片_三级欧美综合精品_国产黄色片子在线观看

站長(zhǎng)之家 - 業(yè)界 2025-03-12 21:43:37

LLMs訓(xùn)練范式突破,顯式CoT訓(xùn)練如何提升推理泛化能力

聲明:本文來(lái)自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。

基于逐步生成解決方案的大語(yǔ)言模型(LLMs)訓(xùn)練范式在人工智能領(lǐng)域引起了廣泛關(guān)注,并已發(fā)展成為行業(yè)內(nèi)的重要方法之一。

例如,OpenAI在其「12 Days of OpenAI」直播系列的第二天推出了針對(duì)O1模型的強(qiáng)化微調(diào)訓(xùn)練方案[1]。這一創(chuàng)新舉措推動(dòng)了AI定制化的發(fā)展。值得注意的是,強(qiáng)化微調(diào)(RFT)/強(qiáng)化監(jiān)督微調(diào)(ReFT)[2]的核心在于使用思維鏈(CoT)注釋[3]進(jìn)行監(jiān)督微調(diào)。在DeepSeek-R1模型中,我們引入了少量長(zhǎng)CoT指導(dǎo)的冷啟動(dòng)數(shù)據(jù),以模擬強(qiáng)化學(xué)習(xí)的代理角色。

然而,為了全面解析采用CoT訓(xùn)練的策略,我們?nèi)孕杞鉀Q兩個(gè)關(guān)鍵問(wèn)題:

由于實(shí)際訓(xùn)練過(guò)程中涉及諸多復(fù)雜因素,分析顯式CoT訓(xùn)練的優(yōu)勢(shì)及其潛在機(jī)制面臨分析難題。為此,我們采用了清晰且可控的數(shù)據(jù)分布進(jìn)行深入研究,并發(fā)現(xiàn)了以下有趣的現(xiàn)象:

(i)與無(wú)CoT訓(xùn)練相比,CoT訓(xùn)練顯著提升了推理能力的泛化性能,不僅限于分布內(nèi)(ID)場(chǎng)景,還擴(kuò)展到了分布外(OOD)場(chǎng)景,實(shí)現(xiàn)了系統(tǒng)性泛化(圖1)。同時(shí),CoT訓(xùn)練還加速了收斂速度。

圖表1: 模型在優(yōu)化過(guò)程中對(duì)訓(xùn)練和測(cè)試兩跳推理事實(shí)的準(zhǔn)確率對(duì)比。

(ii)即使CoT訓(xùn)練中包含一定范圍的推理錯(cuò)誤,模型仍能通過(guò)學(xué)習(xí)推理模式實(shí)現(xiàn)系統(tǒng)性泛化(圖4和圖5)。這一發(fā)現(xiàn)表明,數(shù)據(jù)質(zhì)量可能比訓(xùn)練方法本身更為重要。訓(xùn)練過(guò)程中,主要瓶頸在于收集復(fù)雜的長(zhǎng)CoT解決方案,而推理步驟中的少量錯(cuò)誤是可以被接受的。

(i)數(shù)據(jù)分布的關(guān)鍵因素(如比例λ和模式pattern)在決定模型系統(tǒng)性泛化能力方面起著決定性作用。換句話說(shuō),僅基于兩跳數(shù)據(jù)進(jìn)行訓(xùn)練的模型無(wú)法直接泛化到三跳情況,必須接觸過(guò)相關(guān)的模式才能實(shí)現(xiàn)。

(ii)通過(guò)運(yùn)用Logit lens和Causal tracing實(shí)驗(yàn),我們發(fā)現(xiàn),基于兩跳事實(shí)的CoT訓(xùn)練使推理步驟被模型內(nèi)化,形成一個(gè)兩階段的泛化電路。該電路的階段數(shù)量與訓(xùn)練過(guò)程中顯式推理步驟的數(shù)量保持一致。

進(jìn)一步地,我們將分析擴(kuò)展至包含推理錯(cuò)誤的訓(xùn)練數(shù)據(jù)分布,并驗(yàn)證了上述結(jié)論在現(xiàn)實(shí)數(shù)據(jù)集上的適用性,尤其是在更復(fù)雜架構(gòu)中。

從現(xiàn)有研究來(lái)看,我們首次在可控的實(shí)驗(yàn)環(huán)境中探索了CoT訓(xùn)練的優(yōu)勢(shì),并提出了基于電路的CoT訓(xùn)練機(jī)制的解釋模型。這些研究成果為CoT技術(shù)以及大語(yǔ)言模型實(shí)現(xiàn)穩(wěn)健泛化提供了重要的理論指導(dǎo)。

一、基本概念與定義

本節(jié)將介紹研究中所采用的核心符號(hào)定義,具體包括:

基本事實(shí)與多跳事實(shí):研究采用三元組形式表示單跳事實(shí),并通過(guò)原子事實(shí)與連接規(guī)則構(gòu)建兩跳事實(shí)及多跳事實(shí)。

二、系統(tǒng)性組合泛化能力研究

本研究的核心焦點(diǎn)是模型的組合能力,即模型需要將不同事實(shí)片段進(jìn)行有效串聯(lián)的能力。盡管顯式推理步驟(如思維鏈推理)能夠顯著提升任務(wù)性能[4-8],但這些方法在大規(guī)模預(yù)訓(xùn)練階段并不適用,而正是在這一關(guān)鍵時(shí)期,模型核心能力的形成與發(fā)展最為活躍[9-10]。已有研究表明,基于Transformer架構(gòu)的語(yǔ)言模型在執(zhí)行隱式組合能力方面存在明顯不足[11-12]。

更具體而言,"組合性鴻溝"現(xiàn)象普遍存在于各類大型語(yǔ)言模型中,盡管這些模型掌握了所有基礎(chǔ)事實(shí),但在實(shí)際應(yīng)用中仍無(wú)法實(shí)現(xiàn)有效的組合,這一問(wèn)題并未因模型規(guī)模的擴(kuò)大而減弱。

更為準(zhǔn)確地說(shuō),Wang等人[13]的研究表明,Transformer模型在同分布泛化場(chǎng)景下能夠?qū)W習(xí)隱式推理能力,但在異分布泛化場(chǎng)景下表現(xiàn)欠佳(如圖1左所示)。

這一發(fā)現(xiàn)自然引出以下關(guān)鍵問(wèn)題:在訓(xùn)練過(guò)程中引入顯式推理步驟(即思維鏈訓(xùn)練)會(huì)對(duì)模型的泛化能力產(chǎn)生什么影響?(即回答Q1:與無(wú)思維鏈訓(xùn)練相比,基于思維鏈的訓(xùn)練在哪些方面具有顯著優(yōu)勢(shì)?)

思維鏈訓(xùn)練顯著提升了模型在推理泛化能力方面的性能表現(xiàn)

如圖1所示,我們對(duì)模型在訓(xùn)練階段和測(cè)試階段兩跳事實(shí)上的準(zhǔn)確率隨優(yōu)化進(jìn)程的變化進(jìn)行了比較,其中λ值被設(shè)定為7.2。

關(guān)鍵影響因素進(jìn)一步探究

通過(guò)消融實(shí)驗(yàn)分析,我們?cè)u(píng)估了不同因素在思維鏈訓(xùn)練中的作用。

圖表2展示了在分布外測(cè)試集上的推理能力發(fā)展速度。

適當(dāng)選擇的λ值能夠顯著提升模型的收斂速度。圖2(左)詳細(xì)比較了不同λ值下的分布外測(cè)試準(zhǔn)確率。研究發(fā)現(xiàn),λ值與推理能力的泛化速度呈現(xiàn)高度相關(guān)性。特別值得注意的是,較小的λ值不僅能夠加速思維鏈訓(xùn)練帶來(lái)的分布外泛化能力提升,還能有效減少長(zhǎng)期訓(xùn)練的需求。然而,λ值并非越小越好,因?yàn)檫^(guò)小的λ值可能導(dǎo)致模型無(wú)法有效學(xué)習(xí)相關(guān)規(guī)則。

我們?cè)谀P蛯訑?shù){2,4,8}和λ{(lán)3.6,7.2,12.6}的條件下進(jìn)行了實(shí)驗(yàn)。研究結(jié)果表明,擴(kuò)大模型規(guī)模并不會(huì)顯著改變其泛化行為,主要表現(xiàn)為較大的模型在更少的優(yōu)化步驟中即可收斂。關(guān)于訓(xùn)練集大?。▅E|)的影響,我們的研究結(jié)果與文獻(xiàn)[13]一致,即當(dāng)固定λ值時(shí),訓(xùn)練集大小不會(huì)對(duì)模型的泛化能力產(chǎn)生本質(zhì)性影響。

進(jìn)一步分析了兩跳事實(shí)到多跳事實(shí)的泛化能力。

總結(jié):通過(guò)顯式思維鏈訓(xùn)練,我們顯著提升了推理泛化能力,使其能夠同時(shí)涵蓋分布內(nèi)和分布外泛化。數(shù)據(jù)分布的關(guān)鍵因素(如比例和模式)在形成模型的系統(tǒng)性泛化能力中起到了決定性作用。然而,驅(qū)動(dòng)這些改進(jìn)的內(nèi)在機(jī)制尚待深入探索,我們將對(duì)此進(jìn)行進(jìn)一步研究(回答問(wèn)題Q2:顯式思維鏈訓(xùn)練的潛在機(jī)制是什么?)。

圖表3比較了兩跳事實(shí)訓(xùn)練對(duì)應(yīng)的兩階段泛化電路(模型層數(shù)為8)。

三、兩階段泛化電路

研究主要采用兩種主流方法:logit lens [16] 和 causal tracing [17],本部分研究重點(diǎn)采用兩跳推理作為分析工具。

系統(tǒng)性泛化解釋

(1)兩階段泛化電路表明,通過(guò)思維鏈訓(xùn)練可以將推理步驟內(nèi)化到模型中。這解釋了為什么模型在經(jīng)過(guò)思維鏈訓(xùn)練后能夠在跨分布測(cè)試數(shù)據(jù)上表現(xiàn)出良好的泛化能力。

(2)該電路由兩個(gè)階段組成,與模型在訓(xùn)練期間處理的顯式推理步驟保持一致。因此,在思維鏈訓(xùn)練期間,模型僅接觸兩跳數(shù)據(jù),但在測(cè)試階段無(wú)法直接泛化到三跳場(chǎng)景。

四、更普適的分析

總體而言,我們目前的研究為通過(guò)受控?cái)?shù)據(jù)分布上的思維鏈訓(xùn)練來(lái)深入理解和增強(qiáng)Transformer的泛化能力奠定了基礎(chǔ)。然而,現(xiàn)實(shí)世界中的訓(xùn)練數(shù)據(jù)分布往往更為復(fù)雜。在本部分中,我們將探討在推理過(guò)程中存在錯(cuò)誤的分布情況,并展示思維鏈訓(xùn)練能提高模型泛化能力的結(jié)論在更復(fù)雜場(chǎng)景中的適用性。

數(shù)據(jù)分布帶噪

方法:我們旨在探討思維鏈訓(xùn)練在噪聲訓(xùn)練數(shù)據(jù)下的魯棒性,即模型系統(tǒng)性泛化能力的穩(wěn)定性。具體而言,我們通過(guò)隨機(jī)選擇一個(gè)有效實(shí)體向引入噪聲(真實(shí)訓(xùn)練目標(biāo)為):

需要注意的是,噪聲的比例由變量ξ表示,我們將研究不同ξ值對(duì)模型性能的影響。

圖表4:僅第二跳噪聲對(duì)分布內(nèi)與分布外數(shù)據(jù)表現(xiàn)的影響。

圖表 5:模型在不同噪聲比例(兩跳均有噪聲)下的訓(xùn)練和測(cè)試推理事實(shí)的準(zhǔn)確率表現(xiàn)。

結(jié)果:我們對(duì)兩種情況進(jìn)行了深入考察,分別考察了不同 ξ 候選集的影響。其中,僅在第二跳添加噪聲時(shí),考察了 {0.05, 0.2, 0.4, 0.6, 0.8} 這組 ξ 值;而在兩跳均添加噪聲的情況下,則考察了 {0.05, 0.1, 0.2, 0.4} 這組 ξ 值。具體結(jié)果如下:

(1)圖 4 明確展示了僅在第二跳添加噪聲時(shí)對(duì)分布內(nèi)和分布外泛化能力的影響??傮w而言,模型在思維鏈訓(xùn)練條件下仍能從噪聲數(shù)據(jù)中實(shí)現(xiàn)系統(tǒng)性泛化,但其泛化能力會(huì)隨著噪聲比例的增加而逐漸下降。

更具體地說(shuō),隨著訓(xùn)練的推進(jìn),分布外泛化能力起初保持不變,隨后隨著噪聲比例的增加而逐步增強(qiáng),而分布內(nèi)泛化能力則呈現(xiàn)出先增加后減少的趨勢(shì)。這一變化趨勢(shì)表明,分布內(nèi)泛化的降低與分布外泛化的增強(qiáng)具有一定的對(duì)應(yīng)關(guān)系。

然而,隨著噪聲比例的進(jìn)一步增加,分布內(nèi)和分布外泛化的最終表現(xiàn)都會(huì)出現(xiàn)明顯下降。值得注意的是,當(dāng)噪聲比例低于 0.2 時(shí),模型的表現(xiàn)幾乎不受影響,這充分體現(xiàn)了思維鏈訓(xùn)練的魯棒性。

此外,我們還對(duì)泛化電路的性能進(jìn)行了考察。由于我們僅在第二跳添加噪聲,因此第一跳的電路學(xué)習(xí)表現(xiàn)相對(duì)較好,而第二跳的電路則受到更大的噪聲影響。

(2)圖 5 比較了兩跳噪聲 ξ 值為 0.05、0.1、0.2 和 0.4 時(shí)的實(shí)驗(yàn)結(jié)果。與僅在第二跳添加噪聲的情況相比,兩跳均添加噪聲時(shí)對(duì)模型泛化能力的抑制效果更加顯著。當(dāng)噪聲比例超過(guò) 0.2 時(shí),幾乎可以完全消除模型的分布內(nèi)和分布外泛化能力。

總而言之,即使在訓(xùn)練數(shù)據(jù)存在噪聲的情況下,只要噪聲比例控制在一定范圍內(nèi),思維鏈訓(xùn)練仍能使模型實(shí)現(xiàn)系統(tǒng)性泛化。特別值得一提的是,當(dāng)噪聲比例較小時(shí),這些噪聲數(shù)據(jù)仍然能夠幫助模型有效學(xué)習(xí)泛化電路。

五、討論

總結(jié)

本文深入探討了系統(tǒng)性組合泛化(CoT)在Transformer中的應(yīng)用,重點(diǎn)分析了通過(guò)顯式思維鏈(CoT)訓(xùn)練系統(tǒng)性組合泛化的機(jī)制。具體而言:

1. 思維鏈訓(xùn)練與無(wú)思維鏈訓(xùn)練相比,顯著提升了其在分布內(nèi)和分布外場(chǎng)景中的推理能力。

2. 通過(guò)logit lens和causal tracing實(shí)驗(yàn)發(fā)現(xiàn),思維鏈訓(xùn)練構(gòu)建了一個(gè)兩階段的泛化電路模型。然而,模型的推理能力受限于訓(xùn)練數(shù)據(jù)的復(fù)雜性,難以擴(kuò)展至更長(zhǎng)的推理步驟。

3. 進(jìn)一步研究表明,即使在存在一定噪聲的情況下,思維鏈訓(xùn)練仍可實(shí)現(xiàn)系統(tǒng)性泛化。這可能有助于構(gòu)建更有效的泛化電路。

4. 本文還揭示了思維鏈訓(xùn)練的關(guān)鍵局限性:訓(xùn)練數(shù)據(jù)分布(包括比例λ和模式)在引導(dǎo)模型構(gòu)建泛化電路方面起著決定性作用。模型需要在訓(xùn)練過(guò)程中接觸過(guò)相關(guān)的模式,特別是思維鏈步驟的數(shù)量。

這些發(fā)現(xiàn)為理解大語(yǔ)言模型(LLMs)的穩(wěn)健泛化提供了重要啟示。盡管取得了一定進(jìn)展,但仍存在一些局限性,例如實(shí)驗(yàn)基于合成數(shù)據(jù),可能無(wú)法完全反映現(xiàn)實(shí)世界中的復(fù)雜性。未來(lái)研究應(yīng)進(jìn)一步驗(yàn)證這些結(jié)論,并探索大語(yǔ)言模型在連續(xù)潛在空間中的推理潛力,以及反向信息流分析等新方法。

不足與未來(lái)展望:

1. 實(shí)驗(yàn)基于合成數(shù)據(jù),可能無(wú)法完全反映現(xiàn)實(shí)世界數(shù)據(jù)集和任務(wù)的復(fù)雜性。

2. 當(dāng)前分析僅限于自然語(yǔ)言,未來(lái)研究應(yīng)探索模型在連續(xù)潛在空間中的推理潛力。

3. 最近提出的新方法「backward lens」[20],為完善思維鏈訓(xùn)練的潛在機(jī)制分析提供了新視角。

作者簡(jiǎn)介

劉勇,現(xiàn)為中國(guó)人民大學(xué)正高級(jí)研究員,入選國(guó)家"青年人才計(jì)劃",擔(dān)任博士生導(dǎo)師。他的研究聚焦于機(jī)器學(xué)習(xí)理論基礎(chǔ),已在頂級(jí)期刊《機(jī)器學(xué)習(xí)》(JMLR)、《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)、以及人工智能領(lǐng)域頂級(jí)會(huì)議《人工智能》(Artificial Intelligence)發(fā)表論文近50篇。研究領(lǐng)域涵蓋機(jī)器學(xué)習(xí)領(lǐng)域的重要會(huì)議和期刊,如《機(jī)器學(xué)習(xí)》(JMLR)、《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)、《人工智能》(Artificial Intelligence)、《國(guó)際機(jī)器學(xué)習(xí)會(huì)議》(ICML)和《神經(jīng)信息處理系統(tǒng)》(NeurIPS)。劉勇曾榮獲多項(xiàng)重要獎(jiǎng)項(xiàng),包括"杰出學(xué)者"稱號(hào)、"青年創(chuàng)新促進(jìn)會(huì)"成員以及"引進(jìn)優(yōu)青"等榮譽(yù)稱號(hào)。他主持多項(xiàng)國(guó)家級(jí)項(xiàng)目,包括國(guó)家自然科學(xué)基金面上項(xiàng)目、北京市面上項(xiàng)目以及中國(guó)科學(xué)院基礎(chǔ)前沿研究計(jì)劃等。

姚鑫浩,現(xiàn)為中國(guó)人民大學(xué)高瓴人工智能學(xué)院博士研究生,本科期間亦就讀于該學(xué)院。其研究方向主要集中在大模型推理技術(shù)及其在機(jī)器學(xué)習(xí)理論中的應(yīng)用。

參考文獻(xiàn)

[1] OpenAI. "12 Days of OpenAI," https://openai.com/12-days, 2024a.

[2] Trung, L., Zhang, X., Jie, Z., Sun, P., Jin, X., and Li, H. "ReFT: Reasoning with Reinforced Fine-tuning." In the proceedings of the 62nd annual meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp.7601–7614, 2024.

[3] Wei, J., Wang, X., Schuurmans, D., Bosma, M., brian ichter, Xia, F., Chi, E. H., Le, Q. V., and Zhou, D. "Chain of Thought Prompting Elicits Reasoning in Large Language Models." In Advances in Neural Information Processing Systems, 2022.

[4] DeepSeek-R1: Incentivizing Reasoning in LLMs via Reinforcement Learning (2025). URL: https://arxiv.org/abs/2501.12948

[5] Lake, B. and Baroni, M. "Generalization without Systematicity: On the Compositional Skills of Sequence-to-Sequence Recurrent Networks." In Proceedings of the International Conference on Machine Learning, pp. 2873–2882, 2018a.

[6] Wang, B., Deng, X., and Sun, H. "Iteratively Prompt Pretrained Language Models for Chain of Thought." In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 2714–2730, 2022.

[7] Zelikman, E., Wu, Y., Mu, J., 和 Goodman, N. 提出了名為 STar 的方法,該方法通過(guò)自我重 bootstrapping 實(shí)現(xiàn)了推理能力的提升。該研究發(fā)表于 2022 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[8] Liu, J., Pasunuru, R., Hajishirzi, H., Choi, Y., 和 Celikyilmaz, A. 提出了 Crystal 方法,通過(guò)自我反饋機(jī)制增強(qiáng)了自反推理能力。該研究發(fā)表于 2023 年的《Empirical Methods in Natural Language Processing》會(huì)議論文。

[9] Li, Z., Wallace, E., Shen, S., Lin, K., Keutzer, K., Klein, D., 和 Gonzalez, J. 提出了重新思考模型大小的方法,以提高訓(xùn)練和推理效率。該研究發(fā)表于 2020 年的《機(jī)器學(xué)習(xí)年鑒》。

[10] Zhou, C., Liu, P., Xu, P., Iyer, S., Sun, J., Mao, Y., Ma, X., Efrat, A., Yu, P., YU, L., Zhang, S., Ghosh, G., Lewis, M., Zettlemoyer, L., 和 Levy, O. 提出了 Lima 方法,通過(guò)減少對(duì)對(duì)齊的需求提升了性能。該研究發(fā)表于 2023a 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[11] Press, O., Zhang, M., Min, S., Schmidt, L., Smith, N., 和 Lewis, M. 提出了衡量和縮小語(yǔ)言模型組合性差距的方法。該研究發(fā)表于 2023 年的《計(jì)算語(yǔ)言學(xué)協(xié)會(huì)會(huì)議論文》。

[12] Yang, S., Gribovskaya, E., Kassner, N., Geva, M., 和 Riedel, S. 探討了大型語(yǔ)言模型是否能夠進(jìn)行隱式多跳推理。該研究于 2024 年發(fā)布,詳細(xì)內(nèi)容見(jiàn) arXiv:2402.16837。

[13] Wang, B., Yue, X., Su, Y., 和 Sun, H. 通過(guò)機(jī)制研究揭示了隱式推理在變壓器中的表現(xiàn)。該研究發(fā)表于 2024a 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[14] Power, A., Burda, Y., Edwards, H., Babuschkin, I., 和 Misra, V. 探討了算法小數(shù)據(jù)集上的通用化能力。該研究于 2022 年發(fā)布,詳細(xì)內(nèi)容見(jiàn) arXiv:2201.02177。

[15] Cabannes, V., Arnal, C., Bouaziz, W., Yang, X. A., Charton, F., 和 Kempe, J. 提出了迭代頭方法,以深入研究鏈?zhǔn)剿伎?。該研究發(fā)表于 2024 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[16] Nostalgebraist. 解釋了 GPT 模型的工作原理,詳細(xì)內(nèi)容見(jiàn) arXiv:2010.00000。

Pearl, J. (2009). 因果關(guān)系模型、推理與推斷. 劍橋大學(xué)出版社.

Touvron, H., Lavril, T., Izacard, G., Martinet, X., Lachaux, M.-A., Lacroix, T., Roziere, B., Goyal, N., Hambro, E., Azhar, F., 等. Llama: 開(kāi)源高效的基礎(chǔ)語(yǔ)言模型. arXiv預(yù)印本 arXiv:2302.13971, 2023.

Hao, S., Sukhbaatar, S., Su, D., Li, X., Hu, Z., Weston, J., 和 Tian, Y. (2024b). 一種訓(xùn)練大型語(yǔ)言模型使其能夠在連續(xù)潛在空間中進(jìn)行推理的方法. arXiv預(yù)印本 https://arxiv.org/abs/2412.06769.

Katz, S., Belinkov, Y., Geva, M., 和 Wolf, L. (2024). 向詞匯空間投影語(yǔ)言模型梯度的技術(shù). 2024年Empirical Methods in Natural Language Processing會(huì)議論文集, 2390–2422.

Property Broker一個(gè)家庭主婦的百萬(wàn)年薪傳奇,43歲寶媽銷冠一年賣百套房,百萬(wàn)年薪!她為40+女性發(fā)聲:我們有韌性 兌換稀有船員東徹15000點(diǎn)數(shù)兌換,如龍8外傳船員東徹獲取方法解析 輕松下載《METAL EDEN》,METAL EDEN安裝教程 暢享模擬駕駛體驗(yàn),Off Road Together游戲配置要求說(shuō)明 探索寶箱與星星的位置指引,《開(kāi)放空間:貝海姆世界齒輪環(huán)道箱子與星星位置》 12部族敬重搭配策略解析,《英雄沒(méi)有閃》部族的敬重和元祖對(duì)比分析 硬直打擊,《街機(jī)恐龍》杰克·特里克英雄介紹 艾灸·王祖賢加拿大開(kāi)設(shè)養(yǎng)生館,王祖賢58歲終于曝光新身份,失蹤20年后終于有進(jìn)展! 青鬼藍(lán)莓溫泉之謎驚悚謎題開(kāi)發(fā)版配置要求,Blueberry Onsen《青鬼藍(lán)莓溫泉之謎》游戲配置要求解析 萌屬性戰(zhàn)斗終結(jié)者紅絨十字,《洛克王國(guó):世界》紅絨十字介紹
     
刷子刷b

刷子刷b

大?。?em>90mb更新:2025-03-12 21:43:37

類別:系統(tǒng):Android

立即下載(42.54MB)
  • 刷子刷b
  • 刷子刷b
  • 刷子刷b

游戲特色

之前是固定的3000公里,現(xiàn)在最大標(biāo)記范圍已經(jīng)到了3500公里。對(duì)于艾倫的表現(xiàn),曹星十分滿意?!澳阕龅煤芎?,艾倫,后面繼續(xù)努力學(xué)習(xí)上面的法術(shù)?!?/p>

“爭(zhēng)取早點(diǎn)將‘風(fēng)翼’,還有禁咒技能學(xué)會(huì)?!卑瑐愵D時(shí)恭敬道:“是,我一定不會(huì)辜負(fù)領(lǐng)主大人的期望?!辈苄亲屗仍谝慌缘却?,等一會(huì)給所有人刷新一遍狀態(tài),并且附加風(fēng)神之佑這個(gè)能力。

然后,又讓伯捷來(lái)領(lǐng)地中找他。一道瘦小的身影快步走了過(guò)來(lái)。他提著手里的巨斧,輕彎下腰,彬彬有禮的說(shuō)道:“領(lǐng)主大人,夜安。”

伯捷在平時(shí)的時(shí)候,顯得很紳士,和戰(zhàn)斗時(shí)那種狂野的畫(huà)風(fēng)完全不一樣。曹星直接說(shuō)道,“伯捷統(tǒng)帥,先將近期對(duì)付那些冰巢怪,獲取的戰(zhàn)利品給我吧?!?/p>

伯捷聽(tīng)罷也迅速?gòu)难g取出來(lái)一個(gè)小背包,里面裝著他這半個(gè)月以來(lái)的收獲。“都在這里了,請(qǐng)您過(guò)目。”曹星接過(guò)后迅速掃了一眼,臉上再次浮現(xiàn)出了一抹笑容。

然后便將里面的東西全部轉(zhuǎn)移到了【龍紋包】中。【獲得:五階龍血斗士招募卷軸*31】【獲得:五階精英龍血斗士招募卷軸*5】

【獲得……】…算上霄那里的27張,加起來(lái)一共有63張龍血斗士招募卷軸。而他的領(lǐng)地中,本身就有54名龍血斗士。

這下子,湊出個(gè)百人龍血斗士軍團(tuán),已經(jīng)完全足夠了。曹星心滿意足的點(diǎn)了點(diǎn)頭。然后將所有龍血斗士卷軸取了出來(lái),統(tǒng)一點(diǎn)擊了召喚。

這也是他有史以來(lái),一次性召喚龍血斗士最多的一次?!拔宋?!”天空中震動(dòng)不斷。一顆顆封印著龍血斗士的冰塊,劃破覆蓋迷霧的天空,落在了曹星面前。

“咔!咔嚓!”一個(gè)個(gè)龍血斗士擊碎冰塊,從封印中走去。作為戰(zhàn)斗名族,他們每個(gè)人身上都散發(fā)著強(qiáng)大的戰(zhàn)意。

游戲亮點(diǎn)

不過(guò)也就三階可以這么做,等到部分喪尸四階之后,覺(jué)醒千奇百怪,擁有遠(yuǎn)程攻擊能力的喪尸就會(huì)越來(lái)越多,王濤再想搞這種“萬(wàn)軍叢中取敵首級(jí)”行動(dòng)的難度就會(huì)大大增加了。

制定完接下來(lái)的計(jì)劃后,王濤又看了下那些三階領(lǐng)主喪尸爆出來(lái)的戰(zhàn)利品。這些三階領(lǐng)主喪尸爆出來(lái)的戰(zhàn)利品基本上都是異能晶核、藥劑、裝備什么的,雖然這些東西對(duì)王濤沒(méi)什么用,但東西本身都是好東西,他不用可以給其他人使用。

王濤仔細(xì)研究了一下,然后根據(jù)丁雨琴、衛(wèi)振國(guó)、白浩他們等人的特點(diǎn),進(jìn)行一番挑選,找出最適合他們使用的物品。王濤一向都是個(gè)大方的人,自然不會(huì)讓身邊人吃虧。

挑選完畢的時(shí)候。王濤又想到了藍(lán)玉蓮和陸英鳳。他也給二女準(zhǔn)備了一些好東西,不過(guò)她們現(xiàn)在還沒(méi)表明態(tài)度,就先不給她們了,等她們確定要追隨自己后再說(shuō)。

游戲玩法

這份函件是通過(guò)傳真遞送,而非由機(jī)要員攜帶過(guò)來(lái)的,因此密級(jí)有限,很多關(guān)系到具體技術(shù)的內(nèi)容都無(wú)法寫明?!跋魅蹙植坷走_(dá)特征?”

楊韋腦海中閃過(guò)了很多種可能。但這個(gè)說(shuō)法實(shí)在有些模糊,還不到做出更準(zhǔn)確判斷的時(shí)候。思索半晌之后,他最終做出決定:“你跟對(duì)方說(shuō),咱們微波測(cè)試團(tuán)隊(duì)的負(fù)責(zé)人今天正在所里開(kāi)會(huì),最晚后天就會(huì)回渝都,讓他們先帶一部分關(guān)鍵技術(shù)資料,還有詳細(xì)的測(cè)試需求過(guò)去那邊,先聯(lián)合電磁中心把測(cè)試方案給確定下來(lái)。”

“哦還有,記得把那份公函送到我這……”林孔二人此時(shí)正坐在辦公室另一頭的沙發(fā)上,沒(méi)辦法聽(tīng)到另一邊高文廣的聲音,但即便僅通過(guò)楊韋的反應(yīng)和只言片語(yǔ),也不難判斷出這通電話的主題。

評(píng)測(cè)

震驚蘇打綠貝斯手馨儀離婚,蘇打綠馨儀離婚案,男方婚內(nèi)出軌,10年內(nèi)禁止結(jié)婚,需支付贍養(yǎng)費(fèi)5000萬(wàn)

荒野珠子速成方法,怪物獵人荒野游戲畢業(yè)裝備珠子獲取方法及步驟解析

心動(dòng)小鎮(zhèn)注銷賬號(hào)操作指南,《心動(dòng)小鎮(zhèn)》賬號(hào)注銷方法

春風(fēng)神氣購(gòu)車狂歡,東風(fēng)風(fēng)神3月 present the 超值購(gòu)車狂歡季

美職籃全明星王朝策略技巧輕松挑戰(zhàn),《美職籃全明星》王朝排位玩法介紹

顯示全部

熱門推薦
玩家評(píng)論
我要跟貼
取消
最新手游