最猛黑人xxxⅹ黑人猛交_影音先锋在线视频_黄色带三级九九九_亚日韩精品国产系列免费观看_一区与二区精品在线_亚洲黄色毛片视频_午夜伦情电午夜伦情电影8090_亚洲三级毛片_三级欧美综合精品_国产黄色片子在线观看

站長之家 - 業(yè)界 2025-03-12 22:52:01

LLMs訓(xùn)練范式突破,顯式CoT訓(xùn)練如何提升推理泛化能力

聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。

基于逐步生成解決方案的大語言模型(LLMs)訓(xùn)練范式在人工智能領(lǐng)域引起了廣泛關(guān)注,并已發(fā)展成為行業(yè)內(nèi)的重要方法之一。

例如,OpenAI在其「12 Days of OpenAI」直播系列的第二天推出了針對O1模型的強(qiáng)化微調(diào)訓(xùn)練方案[1]。這一創(chuàng)新舉措推動了AI定制化的發(fā)展。值得注意的是,強(qiáng)化微調(diào)(RFT)/強(qiáng)化監(jiān)督微調(diào)(ReFT)[2]的核心在于使用思維鏈(CoT)注釋[3]進(jìn)行監(jiān)督微調(diào)。在DeepSeek-R1模型中,我們引入了少量長CoT指導(dǎo)的冷啟動數(shù)據(jù),以模擬強(qiáng)化學(xué)習(xí)的代理角色。

然而,為了全面解析采用CoT訓(xùn)練的策略,我們?nèi)孕杞鉀Q兩個關(guān)鍵問題:

由于實(shí)際訓(xùn)練過程中涉及諸多復(fù)雜因素,分析顯式CoT訓(xùn)練的優(yōu)勢及其潛在機(jī)制面臨分析難題。為此,我們采用了清晰且可控的數(shù)據(jù)分布進(jìn)行深入研究,并發(fā)現(xiàn)了以下有趣的現(xiàn)象:

(i)與無CoT訓(xùn)練相比,CoT訓(xùn)練顯著提升了推理能力的泛化性能,不僅限于分布內(nèi)(ID)場景,還擴(kuò)展到了分布外(OOD)場景,實(shí)現(xiàn)了系統(tǒng)性泛化(圖1)。同時,CoT訓(xùn)練還加速了收斂速度。

圖表1: 模型在優(yōu)化過程中對訓(xùn)練和測試兩跳推理事實(shí)的準(zhǔn)確率對比。

(ii)即使CoT訓(xùn)練中包含一定范圍的推理錯誤,模型仍能通過學(xué)習(xí)推理模式實(shí)現(xiàn)系統(tǒng)性泛化(圖4和圖5)。這一發(fā)現(xiàn)表明,數(shù)據(jù)質(zhì)量可能比訓(xùn)練方法本身更為重要。訓(xùn)練過程中,主要瓶頸在于收集復(fù)雜的長CoT解決方案,而推理步驟中的少量錯誤是可以被接受的。

(i)數(shù)據(jù)分布的關(guān)鍵因素(如比例λ和模式pattern)在決定模型系統(tǒng)性泛化能力方面起著決定性作用。換句話說,僅基于兩跳數(shù)據(jù)進(jìn)行訓(xùn)練的模型無法直接泛化到三跳情況,必須接觸過相關(guān)的模式才能實(shí)現(xiàn)。

(ii)通過運(yùn)用Logit lens和Causal tracing實(shí)驗(yàn),我們發(fā)現(xiàn),基于兩跳事實(shí)的CoT訓(xùn)練使推理步驟被模型內(nèi)化,形成一個兩階段的泛化電路。該電路的階段數(shù)量與訓(xùn)練過程中顯式推理步驟的數(shù)量保持一致。

進(jìn)一步地,我們將分析擴(kuò)展至包含推理錯誤的訓(xùn)練數(shù)據(jù)分布,并驗(yàn)證了上述結(jié)論在現(xiàn)實(shí)數(shù)據(jù)集上的適用性,尤其是在更復(fù)雜架構(gòu)中。

從現(xiàn)有研究來看,我們首次在可控的實(shí)驗(yàn)環(huán)境中探索了CoT訓(xùn)練的優(yōu)勢,并提出了基于電路的CoT訓(xùn)練機(jī)制的解釋模型。這些研究成果為CoT技術(shù)以及大語言模型實(shí)現(xiàn)穩(wěn)健泛化提供了重要的理論指導(dǎo)。

一、基本概念與定義

本節(jié)將介紹研究中所采用的核心符號定義,具體包括:

基本事實(shí)與多跳事實(shí):研究采用三元組形式表示單跳事實(shí),并通過原子事實(shí)與連接規(guī)則構(gòu)建兩跳事實(shí)及多跳事實(shí)。

二、系統(tǒng)性組合泛化能力研究

本研究的核心焦點(diǎn)是模型的組合能力,即模型需要將不同事實(shí)片段進(jìn)行有效串聯(lián)的能力。盡管顯式推理步驟(如思維鏈推理)能夠顯著提升任務(wù)性能[4-8],但這些方法在大規(guī)模預(yù)訓(xùn)練階段并不適用,而正是在這一關(guān)鍵時期,模型核心能力的形成與發(fā)展最為活躍[9-10]。已有研究表明,基于Transformer架構(gòu)的語言模型在執(zhí)行隱式組合能力方面存在明顯不足[11-12]。

更具體而言,"組合性鴻溝"現(xiàn)象普遍存在于各類大型語言模型中,盡管這些模型掌握了所有基礎(chǔ)事實(shí),但在實(shí)際應(yīng)用中仍無法實(shí)現(xiàn)有效的組合,這一問題并未因模型規(guī)模的擴(kuò)大而減弱。

更為準(zhǔn)確地說,Wang等人[13]的研究表明,Transformer模型在同分布泛化場景下能夠?qū)W習(xí)隱式推理能力,但在異分布泛化場景下表現(xiàn)欠佳(如圖1左所示)。

這一發(fā)現(xiàn)自然引出以下關(guān)鍵問題:在訓(xùn)練過程中引入顯式推理步驟(即思維鏈訓(xùn)練)會對模型的泛化能力產(chǎn)生什么影響?(即回答Q1:與無思維鏈訓(xùn)練相比,基于思維鏈的訓(xùn)練在哪些方面具有顯著優(yōu)勢?)

思維鏈訓(xùn)練顯著提升了模型在推理泛化能力方面的性能表現(xiàn)

如圖1所示,我們對模型在訓(xùn)練階段和測試階段兩跳事實(shí)上的準(zhǔn)確率隨優(yōu)化進(jìn)程的變化進(jìn)行了比較,其中λ值被設(shè)定為7.2。

關(guān)鍵影響因素進(jìn)一步探究

通過消融實(shí)驗(yàn)分析,我們評估了不同因素在思維鏈訓(xùn)練中的作用。

圖表2展示了在分布外測試集上的推理能力發(fā)展速度。

適當(dāng)選擇的λ值能夠顯著提升模型的收斂速度。圖2(左)詳細(xì)比較了不同λ值下的分布外測試準(zhǔn)確率。研究發(fā)現(xiàn),λ值與推理能力的泛化速度呈現(xiàn)高度相關(guān)性。特別值得注意的是,較小的λ值不僅能夠加速思維鏈訓(xùn)練帶來的分布外泛化能力提升,還能有效減少長期訓(xùn)練的需求。然而,λ值并非越小越好,因?yàn)檫^小的λ值可能導(dǎo)致模型無法有效學(xué)習(xí)相關(guān)規(guī)則。

我們在模型層數(shù){2,4,8}和λ{(lán)3.6,7.2,12.6}的條件下進(jìn)行了實(shí)驗(yàn)。研究結(jié)果表明,擴(kuò)大模型規(guī)模并不會顯著改變其泛化行為,主要表現(xiàn)為較大的模型在更少的優(yōu)化步驟中即可收斂。關(guān)于訓(xùn)練集大?。▅E|)的影響,我們的研究結(jié)果與文獻(xiàn)[13]一致,即當(dāng)固定λ值時,訓(xùn)練集大小不會對模型的泛化能力產(chǎn)生本質(zhì)性影響。

進(jìn)一步分析了兩跳事實(shí)到多跳事實(shí)的泛化能力。

總結(jié):通過顯式思維鏈訓(xùn)練,我們顯著提升了推理泛化能力,使其能夠同時涵蓋分布內(nèi)和分布外泛化。數(shù)據(jù)分布的關(guān)鍵因素(如比例和模式)在形成模型的系統(tǒng)性泛化能力中起到了決定性作用。然而,驅(qū)動這些改進(jìn)的內(nèi)在機(jī)制尚待深入探索,我們將對此進(jìn)行進(jìn)一步研究(回答問題Q2:顯式思維鏈訓(xùn)練的潛在機(jī)制是什么?)。

圖表3比較了兩跳事實(shí)訓(xùn)練對應(yīng)的兩階段泛化電路(模型層數(shù)為8)。

三、兩階段泛化電路

研究主要采用兩種主流方法:logit lens [16] 和 causal tracing [17],本部分研究重點(diǎn)采用兩跳推理作為分析工具。

系統(tǒng)性泛化解釋

(1)兩階段泛化電路表明,通過思維鏈訓(xùn)練可以將推理步驟內(nèi)化到模型中。這解釋了為什么模型在經(jīng)過思維鏈訓(xùn)練后能夠在跨分布測試數(shù)據(jù)上表現(xiàn)出良好的泛化能力。

(2)該電路由兩個階段組成,與模型在訓(xùn)練期間處理的顯式推理步驟保持一致。因此,在思維鏈訓(xùn)練期間,模型僅接觸兩跳數(shù)據(jù),但在測試階段無法直接泛化到三跳場景。

四、更普適的分析

總體而言,我們目前的研究為通過受控數(shù)據(jù)分布上的思維鏈訓(xùn)練來深入理解和增強(qiáng)Transformer的泛化能力奠定了基礎(chǔ)。然而,現(xiàn)實(shí)世界中的訓(xùn)練數(shù)據(jù)分布往往更為復(fù)雜。在本部分中,我們將探討在推理過程中存在錯誤的分布情況,并展示思維鏈訓(xùn)練能提高模型泛化能力的結(jié)論在更復(fù)雜場景中的適用性。

數(shù)據(jù)分布帶噪

方法:我們旨在探討思維鏈訓(xùn)練在噪聲訓(xùn)練數(shù)據(jù)下的魯棒性,即模型系統(tǒng)性泛化能力的穩(wěn)定性。具體而言,我們通過隨機(jī)選擇一個有效實(shí)體向引入噪聲(真實(shí)訓(xùn)練目標(biāo)為):

需要注意的是,噪聲的比例由變量ξ表示,我們將研究不同ξ值對模型性能的影響。

圖表4:僅第二跳噪聲對分布內(nèi)與分布外數(shù)據(jù)表現(xiàn)的影響。

圖表 5:模型在不同噪聲比例(兩跳均有噪聲)下的訓(xùn)練和測試推理事實(shí)的準(zhǔn)確率表現(xiàn)。

結(jié)果:我們對兩種情況進(jìn)行了深入考察,分別考察了不同 ξ 候選集的影響。其中,僅在第二跳添加噪聲時,考察了 {0.05, 0.2, 0.4, 0.6, 0.8} 這組 ξ 值;而在兩跳均添加噪聲的情況下,則考察了 {0.05, 0.1, 0.2, 0.4} 這組 ξ 值。具體結(jié)果如下:

(1)圖 4 明確展示了僅在第二跳添加噪聲時對分布內(nèi)和分布外泛化能力的影響??傮w而言,模型在思維鏈訓(xùn)練條件下仍能從噪聲數(shù)據(jù)中實(shí)現(xiàn)系統(tǒng)性泛化,但其泛化能力會隨著噪聲比例的增加而逐漸下降。

更具體地說,隨著訓(xùn)練的推進(jìn),分布外泛化能力起初保持不變,隨后隨著噪聲比例的增加而逐步增強(qiáng),而分布內(nèi)泛化能力則呈現(xiàn)出先增加后減少的趨勢。這一變化趨勢表明,分布內(nèi)泛化的降低與分布外泛化的增強(qiáng)具有一定的對應(yīng)關(guān)系。

然而,隨著噪聲比例的進(jìn)一步增加,分布內(nèi)和分布外泛化的最終表現(xiàn)都會出現(xiàn)明顯下降。值得注意的是,當(dāng)噪聲比例低于 0.2 時,模型的表現(xiàn)幾乎不受影響,這充分體現(xiàn)了思維鏈訓(xùn)練的魯棒性。

此外,我們還對泛化電路的性能進(jìn)行了考察。由于我們僅在第二跳添加噪聲,因此第一跳的電路學(xué)習(xí)表現(xiàn)相對較好,而第二跳的電路則受到更大的噪聲影響。

(2)圖 5 比較了兩跳噪聲 ξ 值為 0.05、0.1、0.2 和 0.4 時的實(shí)驗(yàn)結(jié)果。與僅在第二跳添加噪聲的情況相比,兩跳均添加噪聲時對模型泛化能力的抑制效果更加顯著。當(dāng)噪聲比例超過 0.2 時,幾乎可以完全消除模型的分布內(nèi)和分布外泛化能力。

總而言之,即使在訓(xùn)練數(shù)據(jù)存在噪聲的情況下,只要噪聲比例控制在一定范圍內(nèi),思維鏈訓(xùn)練仍能使模型實(shí)現(xiàn)系統(tǒng)性泛化。特別值得一提的是,當(dāng)噪聲比例較小時,這些噪聲數(shù)據(jù)仍然能夠幫助模型有效學(xué)習(xí)泛化電路。

五、討論

總結(jié)

本文深入探討了系統(tǒng)性組合泛化(CoT)在Transformer中的應(yīng)用,重點(diǎn)分析了通過顯式思維鏈(CoT)訓(xùn)練系統(tǒng)性組合泛化的機(jī)制。具體而言:

1. 思維鏈訓(xùn)練與無思維鏈訓(xùn)練相比,顯著提升了其在分布內(nèi)和分布外場景中的推理能力。

2. 通過logit lens和causal tracing實(shí)驗(yàn)發(fā)現(xiàn),思維鏈訓(xùn)練構(gòu)建了一個兩階段的泛化電路模型。然而,模型的推理能力受限于訓(xùn)練數(shù)據(jù)的復(fù)雜性,難以擴(kuò)展至更長的推理步驟。

3. 進(jìn)一步研究表明,即使在存在一定噪聲的情況下,思維鏈訓(xùn)練仍可實(shí)現(xiàn)系統(tǒng)性泛化。這可能有助于構(gòu)建更有效的泛化電路。

4. 本文還揭示了思維鏈訓(xùn)練的關(guān)鍵局限性:訓(xùn)練數(shù)據(jù)分布(包括比例λ和模式)在引導(dǎo)模型構(gòu)建泛化電路方面起著決定性作用。模型需要在訓(xùn)練過程中接觸過相關(guān)的模式,特別是思維鏈步驟的數(shù)量。

這些發(fā)現(xiàn)為理解大語言模型(LLMs)的穩(wěn)健泛化提供了重要啟示。盡管取得了一定進(jìn)展,但仍存在一些局限性,例如實(shí)驗(yàn)基于合成數(shù)據(jù),可能無法完全反映現(xiàn)實(shí)世界中的復(fù)雜性。未來研究應(yīng)進(jìn)一步驗(yàn)證這些結(jié)論,并探索大語言模型在連續(xù)潛在空間中的推理潛力,以及反向信息流分析等新方法。

不足與未來展望:

1. 實(shí)驗(yàn)基于合成數(shù)據(jù),可能無法完全反映現(xiàn)實(shí)世界數(shù)據(jù)集和任務(wù)的復(fù)雜性。

2. 當(dāng)前分析僅限于自然語言,未來研究應(yīng)探索模型在連續(xù)潛在空間中的推理潛力。

3. 最近提出的新方法「backward lens」[20],為完善思維鏈訓(xùn)練的潛在機(jī)制分析提供了新視角。

作者簡介

劉勇,現(xiàn)為中國人民大學(xué)正高級研究員,入選國家"青年人才計劃",擔(dān)任博士生導(dǎo)師。他的研究聚焦于機(jī)器學(xué)習(xí)理論基礎(chǔ),已在頂級期刊《機(jī)器學(xué)習(xí)》(JMLR)、《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)、以及人工智能領(lǐng)域頂級會議《人工智能》(Artificial Intelligence)發(fā)表論文近50篇。研究領(lǐng)域涵蓋機(jī)器學(xué)習(xí)領(lǐng)域的重要會議和期刊,如《機(jī)器學(xué)習(xí)》(JMLR)、《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)、《人工智能》(Artificial Intelligence)、《國際機(jī)器學(xué)習(xí)會議》(ICML)和《神經(jīng)信息處理系統(tǒng)》(NeurIPS)。劉勇曾榮獲多項(xiàng)重要獎項(xiàng),包括"杰出學(xué)者"稱號、"青年創(chuàng)新促進(jìn)會"成員以及"引進(jìn)優(yōu)青"等榮譽(yù)稱號。他主持多項(xiàng)國家級項(xiàng)目,包括國家自然科學(xué)基金面上項(xiàng)目、北京市面上項(xiàng)目以及中國科學(xué)院基礎(chǔ)前沿研究計劃等。

姚鑫浩,現(xiàn)為中國人民大學(xué)高瓴人工智能學(xué)院博士研究生,本科期間亦就讀于該學(xué)院。其研究方向主要集中在大模型推理技術(shù)及其在機(jī)器學(xué)習(xí)理論中的應(yīng)用。

參考文獻(xiàn)

[1] OpenAI. "12 Days of OpenAI," https://openai.com/12-days, 2024a.

[2] Trung, L., Zhang, X., Jie, Z., Sun, P., Jin, X., and Li, H. "ReFT: Reasoning with Reinforced Fine-tuning." In the proceedings of the 62nd annual meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp.7601–7614, 2024.

[3] Wei, J., Wang, X., Schuurmans, D., Bosma, M., brian ichter, Xia, F., Chi, E. H., Le, Q. V., and Zhou, D. "Chain of Thought Prompting Elicits Reasoning in Large Language Models." In Advances in Neural Information Processing Systems, 2022.

[4] DeepSeek-R1: Incentivizing Reasoning in LLMs via Reinforcement Learning (2025). URL: https://arxiv.org/abs/2501.12948

[5] Lake, B. and Baroni, M. "Generalization without Systematicity: On the Compositional Skills of Sequence-to-Sequence Recurrent Networks." In Proceedings of the International Conference on Machine Learning, pp. 2873–2882, 2018a.

[6] Wang, B., Deng, X., and Sun, H. "Iteratively Prompt Pretrained Language Models for Chain of Thought." In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 2714–2730, 2022.

[7] Zelikman, E., Wu, Y., Mu, J., 和 Goodman, N. 提出了名為 STar 的方法,該方法通過自我重 bootstrapping 實(shí)現(xiàn)了推理能力的提升。該研究發(fā)表于 2022 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[8] Liu, J., Pasunuru, R., Hajishirzi, H., Choi, Y., 和 Celikyilmaz, A. 提出了 Crystal 方法,通過自我反饋機(jī)制增強(qiáng)了自反推理能力。該研究發(fā)表于 2023 年的《Empirical Methods in Natural Language Processing》會議論文。

[9] Li, Z., Wallace, E., Shen, S., Lin, K., Keutzer, K., Klein, D., 和 Gonzalez, J. 提出了重新思考模型大小的方法,以提高訓(xùn)練和推理效率。該研究發(fā)表于 2020 年的《機(jī)器學(xué)習(xí)年鑒》。

[10] Zhou, C., Liu, P., Xu, P., Iyer, S., Sun, J., Mao, Y., Ma, X., Efrat, A., Yu, P., YU, L., Zhang, S., Ghosh, G., Lewis, M., Zettlemoyer, L., 和 Levy, O. 提出了 Lima 方法,通過減少對對齊的需求提升了性能。該研究發(fā)表于 2023a 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[11] Press, O., Zhang, M., Min, S., Schmidt, L., Smith, N., 和 Lewis, M. 提出了衡量和縮小語言模型組合性差距的方法。該研究發(fā)表于 2023 年的《計算語言學(xué)協(xié)會會議論文》。

[12] Yang, S., Gribovskaya, E., Kassner, N., Geva, M., 和 Riedel, S. 探討了大型語言模型是否能夠進(jìn)行隱式多跳推理。該研究于 2024 年發(fā)布,詳細(xì)內(nèi)容見 arXiv:2402.16837。

[13] Wang, B., Yue, X., Su, Y., 和 Sun, H. 通過機(jī)制研究揭示了隱式推理在變壓器中的表現(xiàn)。該研究發(fā)表于 2024a 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[14] Power, A., Burda, Y., Edwards, H., Babuschkin, I., 和 Misra, V. 探討了算法小數(shù)據(jù)集上的通用化能力。該研究于 2022 年發(fā)布,詳細(xì)內(nèi)容見 arXiv:2201.02177。

[15] Cabannes, V., Arnal, C., Bouaziz, W., Yang, X. A., Charton, F., 和 Kempe, J. 提出了迭代頭方法,以深入研究鏈?zhǔn)剿伎肌T撗芯堪l(fā)表于 2024 年的《神經(jīng)信息處理系統(tǒng)進(jìn)展》。

[16] Nostalgebraist. 解釋了 GPT 模型的工作原理,詳細(xì)內(nèi)容見 arXiv:2010.00000。

Pearl, J. (2009). 因果關(guān)系模型、推理與推斷. 劍橋大學(xué)出版社.

Touvron, H., Lavril, T., Izacard, G., Martinet, X., Lachaux, M.-A., Lacroix, T., Roziere, B., Goyal, N., Hambro, E., Azhar, F., 等. Llama: 開源高效的基礎(chǔ)語言模型. arXiv預(yù)印本 arXiv:2302.13971, 2023.

Hao, S., Sukhbaatar, S., Su, D., Li, X., Hu, Z., Weston, J., 和 Tian, Y. (2024b). 一種訓(xùn)練大型語言模型使其能夠在連續(xù)潛在空間中進(jìn)行推理的方法. arXiv預(yù)印本 https://arxiv.org/abs/2412.06769.

Katz, S., Belinkov, Y., Geva, M., 和 Wolf, L. (2024). 向詞匯空間投影語言模型梯度的技術(shù). 2024年Empirical Methods in Natural Language Processing會議論文集, 2390–2422.

探案小能手,《腦洞非常大》寶娟我的嗓子通關(guān)攻略 限時限定·劍網(wǎng)3經(jīng)典外裝復(fù)刻外觀全覽,《劍網(wǎng)3》經(jīng)典復(fù)刻外裝策馬彎弓外觀一覽 標(biāo)題前綴限時首發(fā),Odynfall下載指南:安裝教程全解析 《驅(qū)入虛空》加班怒意斬技能解析,《驅(qū)入虛空》金牌執(zhí)勤官邵凱琳技能介紹 指環(huán)搭配,標(biāo)題改寫建議:如龍8戒指搭配:實(shí)用推薦 聚賢林新手指南江湖大冒險,《大江湖之蒼龍與白鳥》聚賢林任務(wù)攻略 絕區(qū)零扳機(jī)技能搭配解析,《絕區(qū)零》扳機(jī)技能介紹 打工人的啟示錄,TVB演員:血汗錢打工,苦盡天人 豪華版/升級包解鎖,如龍8外傳船員桐生一馬獲取方法 冒險探索全球平臺,Despelote游戲官方指南:如何獲取游戲詳細(xì)地址
     
大練兵

大練兵

大?。?em>77mb更新:2025-03-12 22:52:01

類別:系統(tǒng):Android

立即下載(42.54MB)
  • 大練兵
  • 大練兵
  • 大練兵

游戲特色

【還規(guī)定地方官能招徠墾荒者升遷,否則罷黜?!俊緦?shí)行“更名田”,將明藩王土地給與原種之人,改為民戶,承為世業(yè),使耕種藩田的農(nóng)民成為自耕農(nóng)?!?/p>

【實(shí)行蠲免政策,以鼓勵農(nóng)業(yè)生產(chǎn)?!俊居中肌白躺硕。啦患淤x”,從而將全國人丁稅固定下來,減輕了百姓負(fù)擔(dān)?!?/p>

【經(jīng)過幾十年的努力,全國墾田面積由順治末年的五億五千萬畝到康熙末年超過了八億畝,生產(chǎn)發(fā)展,人口迅速增長,出現(xiàn)了所謂的“康熙盛世”】

【評價A級·得四分】……{分高了。}{康熙雖然在統(tǒng)一政治、廓清邊疆方面功績顯赫,不過在皇權(quán)不下鄉(xiāng)的農(nóng)村土地上,成千上萬中國人依然在痛苦的深淵中奮力掙扎。}{在稅制與鄉(xiāng)村行政等重要領(lǐng)域,康熙最終也未能做出積極有效的改變。}{他似乎認(rèn)為,在既存的社會環(huán)境下,不可能普查土地所有權(quán)。}{在稅制方面,他也遵循晚明舊制,以丁役折換等值銀兩來納稅。}{稅銀僅有少部分留在地方,用以支付官吏與仆役的薪俸,或用作地方上的災(zāi)難救助和建設(shè)經(jīng)費(fèi)。}{所以,地方官吏必須另行征收大量的額外費(fèi)用補(bǔ)充財政,不過大部分錢款都被官吏中飽私囊,給上級送禮,或孝敬京城官員,以期相關(guān)衙署對他們的行為進(jìn)行考課時能寬松一點(diǎn)。}{這種松懈狀態(tài),怕是擔(dān)不起盛世二字。}{這話也不能這么說,還是要看是在什么角度看問題。}{就以當(dāng)時的歷史背景,能符合國家統(tǒng)一,疆域廣大,民族協(xié)和,文化融合,人口眾多,經(jīng)濟(jì)發(fā)展,社會安定,萬國來朝。就算是盛世了。}{況且,在中國皇朝史上,統(tǒng)一王朝皇帝在位四十年以上的有六位:漢武帝、唐玄宗、明世宗、明神宗、清圣祖和清高宗。}{漢武帝有天漢民變、唐玄宗有安史之亂、明世宗嘉靖帝有庚戌之變、明神宗萬歷帝有薩爾滸之戰(zhàn)、清高宗乾隆帝有王倫起義,而中原地區(qū)連續(xù)四十多年無戰(zhàn)爭的“太平之世”,只有康熙朝。}{五分摸不上是因?yàn)闆]清田地,但四分還是手拿把掐的。}……

大清·乾隆時期無視掉那刺眼的高字。乾隆嘆了口氣。“清田……”前腳清田后腳就民變了!“哪那么容易啊。”

……【用人識人:康熙用人不拘一格】【行兵打仗所用之人暫且不提?!俊局挥幸皇?,就可奠基康熙用人之能?!?/p>

【那就是治理黃河。】【《清圣祖實(shí)錄》,留下了他大量關(guān)于治河問題的上諭。且每一項(xiàng)治河計劃都由康熙帝直接裁定?!?/p>

【且六次南巡主要目的都是視察河防。】【尤其是諸河臣的一系列重大治河決策,更多為康熙帝指授?!俊究滴醯郾救硕弥魏?,因而任用河臣也多得其人?!?/p>

【有清一代治河名臣,如靳輔、于成龍、張鵬翮、趙世顯,基本都出現(xiàn)在康熙時期,這不是偶然的。】【只有深明其事,才能深知善事之才?!?/p>

【在康熙帝和治河諸臣的努力下,河工取得了很大成績?!俊究滴跏暌院螅S河大勢平穩(wěn),雖有幾次大雨大水之年,但極少發(fā)生決口,出現(xiàn)了四十年的安瀾局面。】

游戲亮點(diǎn)

喪波就更不用說了,什么江湖規(guī)矩,不禍及家人,他根本不會遵從。只要喪波出來,一定會報復(fù),狠狠的報復(fù),不止是對他,還會對孩子以及Ruby,摧毀一切。

他要面臨的,要么進(jìn)赤柱,要么進(jìn)墓地山。無論那一條路,都是死路。至于帶著孩子和ruby跑路,他這些年身無分文,路費(fèi)都拿不出來。

真的窮途末路了。過了許久,包廂里一片沉寂。終于,韋吉祥深吸一口氣,看向陳世賢:“賢哥,你給我指一條明路吧!”

陳世賢撇了一眼爆珠的傻樣,一臉無奈:“你也知道太簡單粗暴啊?”“那,賢哥,我們要怎么做?”爆珠臉上一紅問道。

游戲玩法

她春天種下的戕蕪草籽還沒發(fā)芽,分株繁殖出來的三株小戕蕪草雖然活了,但生長速度很慢,想割葉子最快也得等到明年這個時候。

也就是說,她山洞里的戕蕪草生長速度,根本追不上烈火那幫變態(tài)下毒的速度!夏青戕蕪草葉子分別用小號透明包裝袋單獨(dú)密封,混入毛豆中。戕蕪草的葉子大小跟大拇指差不多,又是無色透明的,混在裝著的兩斤多毛豆的黑色袋子中很容易蒙混過關(guān)。

“那只鷹的羽毛顏色對比明顯,有后腦勺,應(yīng)該是一只雄鷹?!毙凌つ弥秸锏赜玫钠襟?,跟夏青一起平整剛剛施肥翻耕過的,要扦插無花果樹枝的地塊,“那片區(qū)域的每根石柱頂部都住著鷹類,占據(jù)最高的石柱的肯定是實(shí)力最強(qiáng)的鷹?!?/p>

評測

烏克蘭與俄羅斯?;穑瑸豕賳T:烏或?qū)⑻嶙h與俄達(dá)成空中海上?;?/a>

武宗流派與法宗流派的選擇技巧,《踏風(fēng)行》開局流派選擇

專家權(quán)威解讀急救指南,被蜱咬后別大意!專家提醒急救小妙招

爭議背后特斯拉電池系統(tǒng)選擇的深層分析,為什么特斯拉選擇寧德時代供應(yīng)電池,卻為何還在全球范圍內(nèi)使用LG的電池?

雙倍位面分裂飾品推薦,《崩壞:星穹鐵道:位面分裂雙倍飾品刷取優(yōu)先級推薦》

顯示全部

熱門推薦
玩家評論
我要跟貼
取消
最新手游