最猛黑人xxxⅹ黑人猛交_影音先锋在线视频_黄色带三级九九九_亚日韩精品国产系列免费观看_一区与二区精品在线_亚洲黄色毛片视频_午夜伦情电午夜伦情电影8090_亚洲三级毛片_三级欧美综合精品_国产黄色片子在线观看

站長之家 - 業(yè)界 2025-03-13 00:22:48

LLMs訓(xùn)練范式突破,顯式CoT訓(xùn)練如何提升推理泛化能力

聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。

基于逐步生成解決方案的大語言模型(LLMs)訓(xùn)練范式在人工智能領(lǐng)域引起了廣泛關(guān)注,并已發(fā)展成為行業(yè)內(nèi)的重要方法之一。

例如,OpenAI在其「12 Days of OpenAI」直播系列的第二天推出了針對O1模型的強(qiáng)化微調(diào)訓(xùn)練方案[1]。這一創(chuàng)新舉措推動了AI定制化的發(fā)展。值得注意的是,強(qiáng)化微調(diào)(RFT)/強(qiáng)化監(jiān)督微調(diào)(ReFT)[2]的核心在于使用思維鏈(CoT)注釋[3]進(jìn)行監(jiān)督微調(diào)。在DeepSeek-R1模型中,我們引入了少量長CoT指導(dǎo)的冷啟動數(shù)據(jù),以模擬強(qiáng)化學(xué)習(xí)的代理角色。

然而,為了全面解析采用CoT訓(xùn)練的策略,我們?nèi)孕杞鉀Q兩個關(guān)鍵問題:

由于實(shí)際訓(xùn)練過程中涉及諸多復(fù)雜因素,分析顯式CoT訓(xùn)練的優(yōu)勢及其潛在機(jī)制面臨分析難題。為此,我們采用了清晰且可控的數(shù)據(jù)分布進(jìn)行深入研究,并發(fā)現(xiàn)了以下有趣的現(xiàn)象:

(i)與無CoT訓(xùn)練相比,CoT訓(xùn)練顯著提升了推理能力的泛化性能,不僅限于分布內(nèi)(ID)場景,還擴(kuò)展到了分布外(OOD)場景,實(shí)現(xiàn)了系統(tǒng)性泛化(圖1)。同時,CoT訓(xùn)練還加速了收斂速度。

圖表1: 模型在優(yōu)化過程中對訓(xùn)練和測試兩跳推理事實(shí)的準(zhǔn)確率對比。

(ii)即使CoT訓(xùn)練中包含一定范圍的推理錯誤,模型仍能通過學(xué)習(xí)推理模式實(shí)現(xiàn)系統(tǒng)性泛化(圖4和圖5)。這一發(fā)現(xiàn)表明,數(shù)據(jù)質(zhì)量可能比訓(xùn)練方法本身更為重要。訓(xùn)練過程中,主要瓶頸在于收集復(fù)雜的長CoT解決方案,而推理步驟中的少量錯誤是可以被接受的。

(i)數(shù)據(jù)分布的關(guān)鍵因素(如比例λ和模式pattern)在決定模型系統(tǒng)性泛化能力方面起著決定性作用。換句話說,僅基于兩跳數(shù)據(jù)進(jìn)行訓(xùn)練的模型無法直接泛化到三跳情況,必須接觸過相關(guān)的模式才能實(shí)現(xiàn)。

(ii)通過運(yùn)用Logit lens和Causal tracing實(shí)驗,我們發(fā)現(xiàn),基于兩跳事實(shí)的CoT訓(xùn)練使推理步驟被模型內(nèi)化,形成一個兩階段的泛化電路。該電路的階段數(shù)量與訓(xùn)練過程中顯式推理步驟的數(shù)量保持一致。

進(jìn)一步地,我們將分析擴(kuò)展至包含推理錯誤的訓(xùn)練數(shù)據(jù)分布,并驗證了上述結(jié)論在現(xiàn)實(shí)數(shù)據(jù)集上的適用性,尤其是在更復(fù)雜架構(gòu)中。

從現(xiàn)有研究來看,我們首次在可控的實(shí)驗環(huán)境中探索了CoT訓(xùn)練的優(yōu)勢,并提出了基于電路的CoT訓(xùn)練機(jī)制的解釋模型。這些研究成果為CoT技術(shù)以及大語言模型實(shí)現(xiàn)穩(wěn)健泛化提供了重要的理論指導(dǎo)。

一、基本概念與定義

本節(jié)將介紹研究中所采用的核心符號定義,具體包括:

基本事實(shí)與多跳事實(shí):研究采用三元組形式表示單跳事實(shí),并通過原子事實(shí)與連接規(guī)則構(gòu)建兩跳事實(shí)及多跳事實(shí)。

二、系統(tǒng)性組合泛化能力研究

本研究的核心焦點(diǎn)是模型的組合能力,即模型需要將不同事實(shí)片段進(jìn)行有效串聯(lián)的能力。盡管顯式推理步驟(如思維鏈推理)能夠顯著提升任務(wù)性能[4-8],但這些方法在大規(guī)模預(yù)訓(xùn)練階段并不適用,而正是在這一關(guān)鍵時期,模型核心能力的形成與發(fā)展最為活躍[9-10]。已有研究表明,基于Transformer架構(gòu)的語言模型在執(zhí)行隱式組合能力方面存在明顯不足[11-12]。

更具體而言,"組合性鴻溝"現(xiàn)象普遍存在于各類大型語言模型中,盡管這些模型掌握了所有基礎(chǔ)事實(shí),但在實(shí)際應(yīng)用中仍無法實(shí)現(xiàn)有效的組合,這一問題并未因模型規(guī)模的擴(kuò)大而減弱。

更為準(zhǔn)確地說,Wang等人[13]的研究表明,Transformer模型在同分布泛化場景下能夠?qū)W習(xí)隱式推理能力,但在異分布泛化場景下表現(xiàn)欠佳(如圖1左所示)。

這一發(fā)現(xiàn)自然引出以下關(guān)鍵問題:在訓(xùn)練過程中引入顯式推理步驟(即思維鏈訓(xùn)練)會對模型的泛化能力產(chǎn)生什么影響?(即回答Q1:與無思維鏈訓(xùn)練相比,基于思維鏈的訓(xùn)練在哪些方面具有顯著優(yōu)勢?)

思維鏈訓(xùn)練顯著提升了模型在推理泛化能力方面的性能表現(xiàn)

如圖1所示,我們對模型在訓(xùn)練階段和測試階段兩跳事實(shí)上的準(zhǔn)確率隨優(yōu)化進(jìn)程的變化進(jìn)行了比較,其中λ值被設(shè)定為7.2。

關(guān)鍵影響因素進(jìn)一步探究

通過消融實(shí)驗分析,我們評估了不同因素在思維鏈訓(xùn)練中的作用。

圖表2展示了在分布外測試集上的推理能力發(fā)展速度。

適當(dāng)選擇的λ值能夠顯著提升模型的收斂速度。圖2(左)詳細(xì)比較了不同λ值下的分布外測試準(zhǔn)確率。研究發(fā)現(xiàn),λ值與推理能力的泛化速度呈現(xiàn)高度相關(guān)性。特別值得注意的是,較小的λ值不僅能夠加速思維鏈訓(xùn)練帶來的分布外泛化能力提升,還能有效減少長期訓(xùn)練的需求。然而,λ值并非越小越好,因為過小的λ值可能導(dǎo)致模型無法有效學(xué)習(xí)相關(guān)規(guī)則。

我們在模型層數(shù){2,4,8}和λ{(lán)3.6,7.2,12.6}的條件下進(jìn)行了實(shí)驗。研究結(jié)果表明,擴(kuò)大模型規(guī)模并不會顯著改變其泛化行為,主要表現(xiàn)為較大的模型在更少的優(yōu)化步驟中即可收斂。關(guān)于訓(xùn)練集大?。▅E|)的影響,我們的研究結(jié)果與文獻(xiàn)[13]一致,即當(dāng)固定λ值時,訓(xùn)練集大小不會對模型的泛化能力產(chǎn)生本質(zhì)性影響。

進(jìn)一步分析了兩跳事實(shí)到多跳事實(shí)的泛化能力。

總結(jié):通過顯式思維鏈訓(xùn)練,我們顯著提升了推理泛化能力,使其能夠同時涵蓋分布內(nèi)和分布外泛化。數(shù)據(jù)分布的關(guān)鍵因素(如比例和模式)在形成模型的系統(tǒng)性泛化能力中起到了決定性作用。然而,驅(qū)動這些改進(jìn)的內(nèi)在機(jī)制尚待深入探索,我們將對此進(jìn)行進(jìn)一步研究(回答問題Q2:顯式思維鏈訓(xùn)練的潛在機(jī)制是什么?)。

圖表3比較了兩跳事實(shí)訓(xùn)練對應(yīng)的兩階段泛化電路(模型層數(shù)為8)。

三、兩階段泛化電路

研究主要采用兩種主流方法:logit lens [16] 和 causal tracing [17],本部分研究重點(diǎn)采用兩跳推理作為分析工具。

系統(tǒng)性泛化解釋

(1)兩階段泛化電路表明,通過思維鏈訓(xùn)練可以將推理步驟內(nèi)化到模型中。這解釋了為什么模型在經(jīng)過思維鏈訓(xùn)練后能夠在跨分布測試數(shù)據(jù)上表現(xiàn)出良好的泛化能力。

(2)該電路由兩個階段組成,與模型在訓(xùn)練期間處理的顯式推理步驟保持一致。因此,在思維鏈訓(xùn)練期間,模型僅接觸兩跳數(shù)據(jù),但在測試階段無法直接泛化到三跳場景。

四、更普適的分析

總體而言,我們目前的研究為通過受控數(shù)據(jù)分布上的思維鏈訓(xùn)練來深入理解和增強(qiáng)Transformer的泛化能力奠定了基礎(chǔ)。然而,現(xiàn)實(shí)世界中的訓(xùn)練數(shù)據(jù)分布往往更為復(fù)雜。在本部分中,我們將探討在推理過程中存在錯誤的分布情況,并展示思維鏈訓(xùn)練能提高模型泛化能力的結(jié)論在更復(fù)雜場景中的適用性。

數(shù)據(jù)分布帶噪

方法:我們旨在探討思維鏈訓(xùn)練在噪聲訓(xùn)練數(shù)據(jù)下的魯棒性,即模型系統(tǒng)性泛化能力的穩(wěn)定性。具體而言,我們通過隨機(jī)選擇一個有效實(shí)體向引入噪聲(真實(shí)訓(xùn)練目標(biāo)為):

需要注意的是,噪聲的比例由變量ξ表示,我們將研究不同ξ值對模型性能的影響。

圖表4:僅第二跳噪聲對分布內(nèi)與分布外數(shù)據(jù)表現(xiàn)的影響。

圖表 5:模型在不同噪聲比例(兩跳均有噪聲)下的訓(xùn)練和測試推理事實(shí)的準(zhǔn)確率表現(xiàn)。

結(jié)果:我們對兩種情況進(jìn)行了深入考察,分別考察了不同 ξ 候選集的影響。其中,僅在第二跳添加噪聲時,考察了 {0.05, 0.2, 0.4, 0.6, 0.8} 這組 ξ 值;而在兩跳均添加噪聲的情況下,則考察了 {0.05, 0.1, 0.2, 0.4} 這組 ξ 值。具體結(jié)果如下:

(1)圖 4 明確展示了僅在第二跳添加噪聲時對分布內(nèi)和分布外泛化能力的影響??傮w而言,模型在思維鏈訓(xùn)練條件下仍能從噪聲數(shù)據(jù)中實(shí)現(xiàn)系統(tǒng)性泛化,但其泛化能力會隨著噪聲比例的增加而逐漸下降。

更具體地說,隨著訓(xùn)練的推進(jìn),分布外泛化能力起初保持不變,隨后隨著噪聲比例的增加而逐步增強(qiáng),而分布內(nèi)泛化能力則呈現(xiàn)出先增加后減少的趨勢。這一變化趨勢表明,分布內(nèi)泛化的降低與分布外泛化的增強(qiáng)具有一定的對應(yīng)關(guān)系。

然而,隨著噪聲比例的進(jìn)一步增加,分布內(nèi)和分布外泛化的最終表現(xiàn)都會出現(xiàn)明顯下降。值得注意的是,當(dāng)噪聲比例低于 0.2 時,模型的表現(xiàn)幾乎不受影響,這充分體現(xiàn)了思維鏈訓(xùn)練的魯棒性。

此外,我們還對泛化電路的性能進(jìn)行了考察。由于我們僅在第二跳添加噪聲,因此第一跳的電路學(xué)習(xí)表現(xiàn)相對較好,而第二跳的電路則受到更大的噪聲影響。

(2)圖 5 比較了兩跳噪聲 ξ 值為 0.05、0.1、0.2 和 0.4 時的實(shí)驗結(jié)果。與僅在第二跳添加噪聲的情況相比,兩跳均添加噪聲時對模型泛化能力的抑制效果更加顯著。當(dāng)噪聲比例超過 0.2 時,幾乎可以完全消除模型的分布內(nèi)和分布外泛化能力。

總而言之,即使在訓(xùn)練數(shù)據(jù)存在噪聲的情況下,只要噪聲比例控制在一定范圍內(nèi),思維鏈訓(xùn)練仍能使模型實(shí)現(xiàn)系統(tǒng)性泛化。特別值得一提的是,當(dāng)噪聲比例較小時,這些噪聲數(shù)據(jù)仍然能夠幫助模型有效學(xué)習(xí)泛化電路。

五、討論

總結(jié)

本文深入探討了系統(tǒng)性組合泛化(CoT)在Transformer中的應(yīng)用,重點(diǎn)分析了通過顯式思維鏈(CoT)訓(xùn)練系統(tǒng)性組合泛化的機(jī)制。具體而言:

1. 思維鏈訓(xùn)練與無思維鏈訓(xùn)練相比,顯著提升了其在分布內(nèi)和分布外場景中的推理能力。

2. 通過logit lens和causal tracing實(shí)驗發(fā)現(xiàn),思維鏈訓(xùn)練構(gòu)建了一個兩階段的泛化電路模型。然而,模型的推理能力受限于訓(xùn)練數(shù)據(jù)的復(fù)雜性,難以擴(kuò)展至更長的推理步驟。

3. 進(jìn)一步研究表明,即使在存在一定噪聲的情況下,思維鏈訓(xùn)練仍可實(shí)現(xiàn)系統(tǒng)性泛化。這可能有助于構(gòu)建更有效的泛化電路。

4. 本文還揭示了思維鏈訓(xùn)練的關(guān)鍵局限性:訓(xùn)練數(shù)據(jù)分布(包括比例λ和模式)在引導(dǎo)模型構(gòu)建泛化電路方面起著決定性作用。模型需要在訓(xùn)練過程中接觸過相關(guān)的模式,特別是思維鏈步驟的數(shù)量。

這些發(fā)現(xiàn)為理解大語言模型(LLMs)的穩(wěn)健泛化提供了重要啟示。盡管取得了一定進(jìn)展,但仍存在一些局限性,例如實(shí)驗基于合成數(shù)據(jù),可能無法完全反映現(xiàn)實(shí)世界中的復(fù)雜性。未來研究應(yīng)進(jìn)一步驗證這些結(jié)論,并探索大語言模型在連續(xù)潛在空間中的推理潛力,以及反向信息流分析等新方法。

不足與未來展望:

1. 實(shí)驗基于合成數(shù)據(jù),可能無法完全反映現(xiàn)實(shí)世界數(shù)據(jù)集和任務(wù)的復(fù)雜性。

2. 當(dāng)前分析僅限于自然語言,未來研究應(yīng)探索模型在連續(xù)潛在空間中的推理潛力。

3. 最近提出的新方法「backward lens」[20],為完善思維鏈訓(xùn)練的潛在機(jī)制分析提供了新視角。

作者簡介

劉勇,現(xiàn)為中國人民大學(xué)正高級研究員,入選國家"青年人才計劃",擔(dān)任博士生導(dǎo)師。他的研究聚焦于機(jī)器學(xué)習(xí)理論基礎(chǔ),已在頂級期刊《機(jī)器學(xué)習(xí)》(JMLR)、《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)、以及人工智能領(lǐng)域頂級會議《人工智能》(Artificial Intelligence)發(fā)表論文近50篇。研究領(lǐng)域涵蓋機(jī)器學(xué)習(xí)領(lǐng)域的重要會議和期刊,如《機(jī)器學(xué)習(xí)》(JMLR)、《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)、《人工智能》(Artificial Intelligence)、《國際機(jī)器學(xué)習(xí)會議》(ICML)和《神經(jīng)信息處理系統(tǒng)》(NeurIPS)。劉勇曾榮獲多項重要獎項,包括"杰出學(xué)者"稱號、"青年創(chuàng)新促進(jìn)會"成員以及"引進(jìn)優(yōu)青"等榮譽(yù)稱號。他主持多項國家級項目,包括國家自然科學(xué)基金面上項目、北京市面上項目以及中國科學(xué)院基礎(chǔ)前沿研究計劃等。

姚鑫浩,現(xiàn)為中國人民大學(xué)高瓴人工智能學(xué)院博士研究生,本科期間亦就讀于該學(xué)院。其研究方向主要集中在大模型推理技術(shù)及其在機(jī)器學(xué)習(xí)理論中的應(yīng)用。

參考文獻(xiàn)

[1] OpenAI. "12 Days of OpenAI," https://openai.com/12-days, 2024a.

[2] Trung, L., Zhang, X., Jie, Z., Sun, P., Jin, X., and Li, H. "ReFT: Reasoning with Reinforced Fine-tuning." In the proceedings of the 62nd annual meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp.7601–7614, 2024.

[3] Wei, J., Wang, X., Schuurmans, D., Bosma, M., brian ichter, Xia, F., Chi, E. H., Le, Q. V., and Zhou, D. "Chain of Thought Prompting Elicits Reasoning in Large Language Models." In Advances in Neural Information Processing Systems, 2022.

[4] DeepSeek-R1: Incentivizing Reasoning in LLMs via Reinforcement Learning (2025). URL: https://arxiv.org/abs/2501.12948

[5] Lake, B. and Baroni, M. "Generalization without Systematicity: On the Compositional Skills of Sequence-to-Sequence Recurrent Networks." In Proceedings of the International Conference on Machine Learning, pp. 2873–2882, 2018a.

[6] Wang, B., Deng, X., and Sun, H. "Iteratively Prompt Pretrained Language Models for Chain of Thought." In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 2714–2730, 2022.

[7] Zelikman, E., Wu, Y., Mu, J., 和 Goodman, N. 提出了名為 STar 的方法,該方法通過自我重 bootstrapping 實(shí)現(xiàn)了推理能力的提升。該研究發(fā)表于 2022 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[8] Liu, J., Pasunuru, R., Hajishirzi, H., Choi, Y., 和 Celikyilmaz, A. 提出了 Crystal 方法,通過自我反饋機(jī)制增強(qiáng)了自反推理能力。該研究發(fā)表于 2023 年的《Empirical Methods in Natural Language Processing》會議論文。

[9] Li, Z., Wallace, E., Shen, S., Lin, K., Keutzer, K., Klein, D., 和 Gonzalez, J. 提出了重新思考模型大小的方法,以提高訓(xùn)練和推理效率。該研究發(fā)表于 2020 年的《機(jī)器學(xué)習(xí)年鑒》。

[10] Zhou, C., Liu, P., Xu, P., Iyer, S., Sun, J., Mao, Y., Ma, X., Efrat, A., Yu, P., YU, L., Zhang, S., Ghosh, G., Lewis, M., Zettlemoyer, L., 和 Levy, O. 提出了 Lima 方法,通過減少對對齊的需求提升了性能。該研究發(fā)表于 2023a 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[11] Press, O., Zhang, M., Min, S., Schmidt, L., Smith, N., 和 Lewis, M. 提出了衡量和縮小語言模型組合性差距的方法。該研究發(fā)表于 2023 年的《計算語言學(xué)協(xié)會會議論文》。

[12] Yang, S., Gribovskaya, E., Kassner, N., Geva, M., 和 Riedel, S. 探討了大型語言模型是否能夠進(jìn)行隱式多跳推理。該研究于 2024 年發(fā)布,詳細(xì)內(nèi)容見 arXiv:2402.16837。

[13] Wang, B., Yue, X., Su, Y., 和 Sun, H. 通過機(jī)制研究揭示了隱式推理在變壓器中的表現(xiàn)。該研究發(fā)表于 2024a 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[14] Power, A., Burda, Y., Edwards, H., Babuschkin, I., 和 Misra, V. 探討了算法小數(shù)據(jù)集上的通用化能力。該研究于 2022 年發(fā)布,詳細(xì)內(nèi)容見 arXiv:2201.02177。

[15] Cabannes, V., Arnal, C., Bouaziz, W., Yang, X. A., Charton, F., 和 Kempe, J. 提出了迭代頭方法,以深入研究鏈?zhǔn)剿伎?。該研究發(fā)表于 2024 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[16] Nostalgebraist. 解釋了 GPT 模型的工作原理,詳細(xì)內(nèi)容見 arXiv:2010.00000。

Pearl, J. (2009). 因果關(guān)系模型、推理與推斷. 劍橋大學(xué)出版社.

Touvron, H., Lavril, T., Izacard, G., Martinet, X., Lachaux, M.-A., Lacroix, T., Roziere, B., Goyal, N., Hambro, E., Azhar, F., 等. Llama: 開源高效的基礎(chǔ)語言模型. arXiv預(yù)印本 arXiv:2302.13971, 2023.

Hao, S., Sukhbaatar, S., Su, D., Li, X., Hu, Z., Weston, J., 和 Tian, Y. (2024b). 一種訓(xùn)練大型語言模型使其能夠在連續(xù)潛在空間中進(jìn)行推理的方法. arXiv預(yù)印本 https://arxiv.org/abs/2412.06769.

Katz, S., Belinkov, Y., Geva, M., 和 Wolf, L. (2024). 向詞匯空間投影語言模型梯度的技術(shù). 2024年Empirical Methods in Natural Language Processing會議論文集, 2390–2422.

下載鏈接,Star Crafter下載網(wǎng)址分享-如何獲取游戲鏈接 50歲后的健康工作壽命,50歲后還能健康工作多久?研究給出答案 關(guān)鍵會談,美俄對話?烏克蘭讓步,和平主動權(quán)掌握在俄羅斯手中 如何用椰子和資源打造椰汁戒指,如龍8外傳椰子戒指獲取方法說明 美升級,"打針臉上鏡,戚薇在《妻子7》給娛樂行業(yè)上一課:大寫的慘" 戰(zhàn)士的分?jǐn)傊酰敦澙范纯摺冯p修流最強(qiáng)角色介紹 星際戰(zhàn)甲圣殿挑戰(zhàn),《星際戰(zhàn)甲》神殿玩法介紹 全熟肉的奇跡般的半自動給藥功能,全熟肉在荒野中的作用是什么 王鷗單親媽媽疑戀記,王鷗:在事業(yè)與家庭平衡中展現(xiàn)女性力量 重磅上市,星途星紀(jì)元增程版上市,售價15.28萬起
     
相麗君

相麗君

大小:50.7mb更新:2025-03-13 00:22:48

類別:系統(tǒng):Android

立即下載(42.54MB)
  • 相麗君
  • 相麗君
  • 相麗君

游戲特色

“就算我有份兒,我頂多只算是共犯。而羅杰,你可是主謀。”說完,兩人相視一笑,他們對剛剛的“犯案過程”非常滿意。

湖人隊更衣室內(nèi),菲爾.杰克遜正在經(jīng)歷NBA歷史上最離譜的鬧劇。剛剛在場上已經(jīng)爆發(fā)過一次的科比.布萊恩特像頭野獸一樣屢次朝詹姆斯發(fā)起沖鋒,隊友們瘋狂阻攔,而詹姆斯只是無辜的看著所有人,攤開手。

他越是這樣,科比越是憤怒。這個白癡攤手是什么意思?他居然還覺得自己很無辜?持續(xù)了很久依然沒能成功暴揍詹姆斯后,科比也累了。

他坐下,怒錘了一下更衣柜的大門:“告訴我勒布朗,你到底他媽的想不想贏!”詹姆斯眼神迷茫,幾秒鐘后才點(diǎn)頭:“當(dāng)然?!?/p>

“那就做好防守,認(rèn)真?zhèn)髑?,做你能做的,就像斯科?皮蓬在邁克爾和羅杰身邊做的那樣!別想那么多,別有那么大壓力,只要你別添亂,老子會帶你贏羅杰那坨狗屎的!我還是那句話,想清楚你想當(dāng)什么樣的人勒布朗。如果你想當(dāng)輸家,那你自便!”

說完,科比直接起身走進(jìn)了淋浴間,開始洗澡。這代表著他不是在和詹姆斯商量,而是命令。如果說剛剛還在場上,科比拿掉了詹姆斯的更衣室地位。

那此時,科比的言論無疑是在拿掉詹姆斯的戰(zhàn)術(shù)地位。戰(zhàn)術(shù)地位和更衣室地位是不一樣的,原本時間線的哈斯勒姆也許沒有什么戰(zhàn)術(shù)地位,但他在熱火隊更衣室內(nèi)的地位不可冒犯。

可現(xiàn)在科比的話,奪走了詹姆斯渴望的所有東西?!熬拖袼箍铺?皮蓬在邁克爾和羅杰身邊做的那樣”,這句話簡單明了的確立了詹姆斯以后扮演的角色。

他不能再領(lǐng)導(dǎo)球隊,他不能再獨(dú)攬大權(quán),不能再主導(dǎo)進(jìn)攻,科比需要他像個高級角色球員那樣打球。詹姆斯看了眼菲爾.杰克遜,但禪師什么也沒說,他默認(rèn)了科比的給詹姆斯的定位。

菲爾.杰克遜很清楚,如果自己想贏,如果湖人隊還想逆轉(zhuǎn),那他只有仰仗科比。勒布朗.詹姆斯根本靠不住。菲爾.杰克遜和大多數(shù)教練最大的區(qū)別其實(shí)不是三角進(jìn)攻,而是他善于掌控人心。

游戲亮點(diǎn)

“山河原的強(qiáng)大,建立在巨人身體上,相當(dāng)于比咱們多了一個體奇身,抹平體奇身的差距,一切都好說……”兩人回到明河武道館中的武道室,又切磋起來。

不多時,昨天吃飯的人陸續(xù)到來。周冷后退,由張星烈指點(diǎn)眾人。張星烈偶爾請周冷指導(dǎo),周冷婉拒。張星烈知道周冷不喜歡張揚(yáng),便沒有再邀請。

其余人則惋惜地看著周冷,身中劇毒,怕是再難寸進(jìn)。中午時分,眾人又簡單吃了個午飯,而后送張星烈離開。周冷和饒明賢相熟,一起跑步回如大。

兩人一邊跑,一邊聊天,從武道聊到學(xué)校,從人生聊到雜事。這兩天與其他朋友交流,兩人都收獲很多。有武道的,也有人生的。

游戲玩法

“只不過你們自己繃著,愣是不開口,人家總不能主動湊上來吧?”鐘玉磬沒所謂地說道:“要我說,你們就是死要面子活受罪?!?/p>

“可是我們中海御獸大學(xué)……”秦霄云還是有些顧慮。岳志杰則是毫不猶豫地擺了擺手,“秦老師,你們不必在意中海御獸大學(xué)的聲譽(yù)問題,尺有所長,寸有所短,學(xué)校也不可能做到每個方面都出類拔萃?!?/p>

“而且我們八大之間互通有無,取長補(bǔ)短,亦是常有之事?!痹乐窘芟肓讼牒螅_口說道:“現(xiàn)在,我們其實(shí)就兩條路子可以選擇,其一,就當(dāng)做什么都沒有發(fā)生,圣靈四階也好,圣靈六階也罷,其實(shí)差異并不大;其二,就是直接開口去問李謙同學(xué),這方面,你們?nèi)羰遣槐汩_口,就由我來吧?!?/p>

評測

3月11日X平臺遭網(wǎng)絡(luò)攻擊,馬斯克度過的艱難一天:特斯拉遭遇大規(guī)模網(wǎng)絡(luò)攻擊,股價暴跌14%

探索仙居原坐標(biāo)劉計劉笙劉祝奇遇任務(wù)流程來啦,《逆水寒手游》一沸聞水聲奇遇攻略

如何搭配雷鄂套組與防音裝維持最佳狀態(tài),怪物獵人荒野操作蟲棍配裝!全地形搭配技巧分享!

風(fēng)雪中的硬核起降,資深機(jī)長解密山航飛機(jī)暴雪中“硬核起降”

衰老的女性健康密碼,更年期女性常見癥狀有哪些?盤點(diǎn)多種癥狀

顯示全部

熱門推薦
玩家評論
我要跟貼
取消
最新手游