<?xml version="1.0"?>
<?xml-stylesheet type="text/css" href="http://cslt.org/mediawiki/skins/common/feed.css?303"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-cn">
		<id>http://cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=%E7%AC%AC%E5%8D%81%E4%B8%89%E7%AB%A0_%E5%AD%A6%E4%B9%A0%E7%AD%96%E7%95%A5</id>
		<title>第十三章 学习策略 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=%E7%AC%AC%E5%8D%81%E4%B8%89%E7%AB%A0_%E5%AD%A6%E4%B9%A0%E7%AD%96%E7%95%A5"/>
		<link rel="alternate" type="text/html" href="http://cslt.org/mediawiki/index.php?title=%E7%AC%AC%E5%8D%81%E4%B8%89%E7%AB%A0_%E5%AD%A6%E4%B9%A0%E7%AD%96%E7%95%A5&amp;action=history"/>
		<updated>2026-04-04T09:06:50Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.23.3</generator>

	<entry>
		<id>http://cslt.org/mediawiki/index.php?title=%E7%AC%AC%E5%8D%81%E4%B8%89%E7%AB%A0_%E5%AD%A6%E4%B9%A0%E7%AD%96%E7%95%A5&amp;diff=38819&amp;oldid=prev</id>
		<title>Cslt：以“==教学资料== *教学参考 *[http://aigraph.cslt.org/courses/12/course-13.pptx 课件] *小清爱提问：什么是爬山法？[https://mp.we...”为内容创建页面</title>
		<link rel="alternate" type="text/html" href="http://cslt.org/mediawiki/index.php?title=%E7%AC%AC%E5%8D%81%E4%B8%89%E7%AB%A0_%E5%AD%A6%E4%B9%A0%E7%AD%96%E7%95%A5&amp;diff=38819&amp;oldid=prev"/>
				<updated>2022-08-03T03:03:17Z</updated>
		
		<summary type="html">&lt;p&gt;以“==教学资料== *&lt;a href=&quot;/mediawiki/index.php/%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-13&quot; title=&quot;教学参考-13&quot;&gt;教学参考&lt;/a&gt; *[http://aigraph.cslt.org/courses/12/course-13.pptx 课件] *小清爱提问：什么是爬山法？[https://mp.we...”为内容创建页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;==教学资料==&lt;br /&gt;
*[[教学参考-13|教学参考]]&lt;br /&gt;
*[http://aigraph.cslt.org/courses/12/course-13.pptx 课件]&lt;br /&gt;
*小清爱提问：什么是爬山法？[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&amp;amp;mid=2247486886&amp;amp;idx=1&amp;amp;sn=a9959dfb953fd7383589236676d6bb08&amp;amp;chksm=c3080764f47f8e72809d3502ecdd0da6940d680fc9ecb0423f7aeec504bcb83026cdb544a11a&amp;amp;scene=178#rd]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==扩展阅读==&lt;br /&gt;
&lt;br /&gt;
* 维基百科：没有免费的午餐定理 [http://aigraph.cslt.org/courses/12/No_free_lunch_theorem.pdf]&lt;br /&gt;
* 维基百科：梯度下降法[http://aigraph.cslt.org/courses/12/梯度下降法.pdf][http://aigraph.cslt.org/courses/12/Gradient_descent.pdf]&lt;br /&gt;
* 百度百科：梯度下降法[https://baike.baidu.com/item/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D/4864937][http://baike.baidu.com/l/FdY9mFXE]&lt;br /&gt;
* 知乎：梯度下降法[https://zhuanlan.zhihu.com/p/36902908]&lt;br /&gt;
* 知乎：小批量梯度下降法[https://zhuanlan.zhihu.com/p/72929546]&lt;br /&gt;
* 知乎：动量梯度下降法[https://www.jiqizhixin.com/graph/technologies/d6ee5e5b-43ff-4c41-87ff-f34c234d0e32][]&lt;br /&gt;
* 维基百科：模拟退火算法 [http://aigraph.cslt.org/courses/12/模拟退.pdf火][http://aigraph.cslt.org/courses/12/Simulated_annealing.pdf]&lt;br /&gt;
* 百度百科：模拟退火算法[https://baike.baidu.com/item/%E6%A8%A1%E6%8B%9F%E9%80%80%E7%81%AB%E7%AE%97%E6%B3%95/355508][http://baike.baidu.com/l/Smyp3NfN]&lt;br /&gt;
* 知乎：模拟退火详解 [https://zhuanlan.zhihu.com/p/266874840]&lt;br /&gt;
* 维基百科：牛顿法 [http://aigraph.cslt.org/courses/12/Newton's_method.pdf][http://aigraph.cslt.org/courses/12/牛顿法.pdf]&lt;br /&gt;
* 维基百科：奥卡姆剃刀[http://aigraph.cslt.org/courses/12/奥卡姆剃刀.pdf][http://aigraph.cslt.org/courses/12/Occam's_razor.pdf]&lt;br /&gt;
* 百度百科：奥卡姆剃刀[https://baike.baidu.com/item/%E5%A5%A5%E5%8D%A1%E5%A7%86%E5%89%83%E5%88%80%E5%8E%9F%E7%90%86/10900565][http://baike.baidu.com/l/HUkXrXzT]&lt;br /&gt;
* 维基百科：过拟合[http://aigraph.cslt.org/courses/12/Overfitting.pdf][http://aigraph.cslt.org/courses/12/過適.pdf]&lt;br /&gt;
* 维基百科：GPT-3 [http://aigraph.cslt.org/courses/12/GPT-3-zh.pdf][http://aigraph.cslt.org/courses/12GPT-3-zh.pdf/]&lt;br /&gt;
* 机器之心：当谈论机器学习中的公平公正时，我们该谈论些什么？[https://www.jiqizhixin.com/articles/2020-06-03-11]&lt;br /&gt;
* 机器之心：数据增强 [https://www.jiqizhixin.com/articles/2019-12-04-10]&lt;br /&gt;
* 知乎：数据增强 [https://zhuanlan.zhihu.com/p/38345420][https://zhuanlan.zhihu.com/p/41679153]&lt;br /&gt;
* 什么是模型预训练[https://paddlepedia.readthedocs.io/en/latest/tutorials/pretrain_model/pretrain_model_description.html]&lt;br /&gt;
* 迁移学习 [https://baike.baidu.com/item/%E8%BF%81%E7%A7%BB%E5%AD%A6%E4%B9%A0/22768151]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==演示链接==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* 优化方法在线演示 [https://www.benfrederickson.com/numerical-optimization/]&lt;br /&gt;
* 基于神经网络的二分类任务演示 [https://cs.stanford.edu/people/karpathy/convnetjs/demo/classify2d.html]&lt;br /&gt;
&lt;br /&gt;
==开发者资源==&lt;br /&gt;
&lt;br /&gt;
==高级读者==&lt;br /&gt;
&lt;br /&gt;
* 王东，机器学习导论,第一章“绪论”，第十一章“优化方法”[http://mlbook.cslt.org]&lt;br /&gt;
* Wolpert, David (1996), &amp;quot;The Lack of A Priori Distinctions between Learning Algorithms&amp;quot;, Neural Computation, pp. 1341–1390 [https://web.archive.org/web/20161220125415/http://www.zabaras.com/Courses/BayesianComputing/Papers/lack_of_a_priori_distinctions_wolpert.pdf]&lt;br /&gt;
* Sebastian Ruder, An overview of gradient descend algorithms,2017 [https://arxiv.org/pdf/1609.04747.pdf]&lt;br /&gt;
* Kirkpatrick, S.; Gelatt Jr, C. D.; Vecchi, M. P. (1983). &amp;quot;Optimization by Simulated Annealing&amp;quot;. Science. 220 (4598): 671–680. [https://sci2s.ugr.es/sites/default/files/files/Teaching/GraduatesCourses/Metaheuristicas/Bibliography/1983-Science-Kirkpatrick-sim_anneal.pdf]&lt;br /&gt;
* Brown et al., Language Models are Few-Shot Learners [https://arxiv.org/pdf/2005.14165.pdf]&lt;/div&gt;</summary>
		<author><name>Cslt</name></author>	</entry>

	</feed>