<?xml version="1.0"?>
<?xml-stylesheet type="text/css" href="http://cslt.org/mediawiki/skins/common/feed.css?303"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-cn">
		<id>http://cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-09</id>
		<title>教学参考-09 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-09"/>
		<link rel="alternate" type="text/html" href="http://cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-09&amp;action=history"/>
		<updated>2026-04-04T11:06:28Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.23.3</generator>

	<entry>
		<id>http://cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-09&amp;diff=38725&amp;oldid=prev</id>
		<title>Cslt：以“==教学目标==  *引导学生理解人工智能的潜在风险和现实风险，理清两者的差别，正确判断风险的危害 *树立正确的风险观，意...”为内容创建页面</title>
		<link rel="alternate" type="text/html" href="http://cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-09&amp;diff=38725&amp;oldid=prev"/>
				<updated>2022-08-01T01:08:06Z</updated>
		
		<summary type="html">&lt;p&gt;以“==教学目标==  *引导学生理解人工智能的潜在风险和现实风险，理清两者的差别，正确判断风险的危害 *树立正确的风险观，意...”为内容创建页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;==教学目标==&lt;br /&gt;
&lt;br /&gt;
*引导学生理解人工智能的潜在风险和现实风险，理清两者的差别，正确判断风险的危害&lt;br /&gt;
*树立正确的风险观，意识到风险是发展过程中必需要面对的问题&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==教学内容==&lt;br /&gt;
&lt;br /&gt;
===AI的潜在风险===&lt;br /&gt;
&lt;br /&gt;
* AI的潜在风险有两个主要根源：一是人为对人工智能技术的滥用，危力越大，滥用起来越严重。二是人工智能技的不可控性。当前人工智能技术是通过学习获得能力的，学成什么样是不确定的，有时候人们难以控制结果。特别是通过学习，机器可能获得超过人的能力，这样无形中就放大了不可控带来的后果。&lt;br /&gt;
* 目前来看，还没有迹象表明AI会学成一个攻击人类的“社会败类”，但学成一个熊孩子还是有可能的。&lt;br /&gt;
* 事实上，AI的行为是由训练数据决定的，什么样的训练数据得到什么样的智能系统。所以只要控制好了数据，机器的学习行为总体上还是可控的。困难在于，当数据量过于庞大时，往往很难对训练数据进行检查。同时，大数据训练出的模型确实有可能产生让人意料之外的行为，导致潜在风险。&lt;br /&gt;
* 最后，一些智能系统具有自适应能力，在和用户的互动中会改变自己的行为。这种自适应学习增加了学成熊孩子的风险。例如，2016年，微软的聊天机器人Tay被用户调教成了不良少女，无奈下线。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===机器人三定率===&lt;br /&gt;
&lt;br /&gt;
* 阿西莫夫于1942年发表科幻小说《转圈圈》（后收录于小说集《我，机器人》 ），首次就未来社会的人机伦理关系进行了思考，提出了著名的“机器人三定律”。&lt;br /&gt;
:*第一定律：机器人不得伤害人，也不得见人受到伤害而袖手旁观；&lt;br /&gt;
:*第二定律：机器人应服从人的一切命令，但不得违反第一定律；&lt;br /&gt;
:*第三定律：在不违反第一定律和第二定律的情况下，机器人应保护自身的安全。&lt;br /&gt;
&lt;br /&gt;
* 然而，这些定律存在一些问题，执行起来比较困难。比如当机器人遇到坏人行凶时，依第一定律，机器人不能伤害坏人，也不能看到好人受到伤害而袖手旁观，这是让机器人非常矛盾的事情。&lt;br /&gt;
* 有人担心，如果机器真的聪明到需要用三定律来约束他们的时候，恐怕这三定律也起不到什么效果。未来恐怕还需要探索更合理的准则和方式来约束人与人工智能之间的关系，保证机器永远是人类的助手和伙伴 。&lt;br /&gt;
&lt;br /&gt;
===AI的现实风险===&lt;br /&gt;
&lt;br /&gt;
* 虽然人工智能还没有发展到威胁人类的地步，但一些现实风险已经出现，包括隐私泄露风险、法律风险、伦理风险等。&lt;br /&gt;
* 人脸识别被滥用的可能性正在增加。在对方不知情的前提下对人脸进行扫描和识别，可能严重侵犯个人隐私，也可能被不法分子仿冒攻击，造成财产损失和安全隐患。&lt;br /&gt;
* 人工智能技术可以轻松改变视频中的人脸和声音，生成高度逼真的伪造视频。这些伪造视频不仅带来社会混乱，还可能被不法分子用作诈骗工具。&lt;br /&gt;
* 自动驾驶汽车发生车祸，责任主体不明确。因为没有直接责任人，需要设计多方参与的保险体系，以便及时对事故损失方进行赔偿。另外，事故处理流程也需要完善，以防二次损失出现。&lt;br /&gt;
&lt;br /&gt;
===AI抢人饭碗===&lt;br /&gt;
&lt;br /&gt;
* 2019年1月8号，英国的BBC网站发布了未来会被人工智能取代的七大“高危”职业，其中不乏我们眼中的铁饭碗：医生、律师、建筑师、飞行员、警察、房地产中介。&lt;br /&gt;
* 未来可能会有更多职业被人工智能取代，包括很多专业性很强、需要长时间经验积累的岗位。&lt;br /&gt;
* 历史上每次技术革命都会取代一些旧岗位，同时催生一些新的岗位，人工智能也是如此。人们应该对这一变化有足够的心理准备，并及时调整职业规划，选择更具有创造性的行业。&lt;/div&gt;</summary>
		<author><name>Cslt</name></author>	</entry>

	</feed>