当前位置:首页 » 法学百科 » 不道德AI

不道德AI

发布时间: 2022-04-26 16:09:51

① 如何培养ai的道德

哲学家和计算机科学家的关注点往往是,如何将微妙的人类道德观灌输给只回能理解字面答意思的机器。但是在此之前,还有另外一个问题,一个我们必须首先考虑清楚的问题:我们真的应该把自己的道德观强加于机器上吗?实际上,我认为这样做很可能会产生反效果,而且也许是不道德的。真正的问题不在机器身上,而在我们自己身上:我们能够接受和一种新生的、有道德的生命共享这个世界吗?
我们想象中的人工智能(AI)往往和我们自己差不多,毕竟人类是我们已知的唯一一种拥有高级智慧的生命。实际上,真正的AI很有可能和我们极其不同。我们可能会很难理解它的思维方式和它做出的选择

② 韩国棋手AI作弊事件层出不穷,职业道德问题应该如何规范

柯洁进了清华以后学习什么专业?也是网友关心的话题。媒体报道,柯洁的父亲透露儿子报的是工商管理类专业,但具体的专业和上课方式还是未知数。作为在人类棋坛战无不胜的棋手,柯洁有个“不是人”的对手。2017年,他与AI阿尔法狗对战三局,均以失败告终。这对“一生之敌”看来暂时还不能解绑,因为阿尔法狗已经被网友“分配”去了北大。 曾经被阿尔法狗击败的柯洁,难道不想“以彼之道,还施彼身”?他还真想过。

柯洁曾考虑过选择AI专业,以另外一种方式击败阿尔法狗。但AI学科需要很深的基础知识,在这方面他相对薄弱。听取了计算机领域专家的建议后,放弃了这个想法,不然头发“真的是要全部秃掉了”。对于柯洁来说,他上清华这件事,本来没有想过会如此“欢乐”。他在接受专访时曾表示“因为我一直都是觉得,我是除了围棋之外,其他事情几乎什么都不懂的,也有很多欠缺的地方。不论是做事,还是说话的方式。


柯洁在迈进LG杯决赛的那场比赛,这是一场过山车式的绞杀胜仗,卞相壹差一步就迈过通往决赛的门槛,却硬生生被柯洁出的刁钻难题给迷住,最终倒在了距离胜利的咫尺之遥。与其说连番逆转是拥有不可能的运气,还不如直接赞美柯洁的大心脏,那战斗到最后一刻的勇气和泰山崩于前而色不变的自信心。事后采访他是,他也是回答道:“今天一度觉得要输,后来抓到对方的失误,从而逆转比赛。断线让我很难受,但不能因此影响心态。”这是柯洁首次闯进第25届LG杯,八冠王柯洁突破了自我,突破了韩国布下的第4道防线,朝着最后一道关卡决赛冲去。

③ 未来,AI机器人是否应该具备伦理道德

机器人伦理学家就是那些为机器人和人工智能的伦理和社会影响及其后果而担忧的人。所以,从某种程度上说,我是一个专业的担忧者。

探寻人类——包括人类工程师、机器人制造商和维护者、维修人员等等,也就是每个与人工智能和机器人有关的人,应该如何采取负责任和道德的行为,尽量减少人工智能和机器人对我们的社会,我们每一个人以及我们的星球带来的不必要的道德后果和危害,如果人们愿意的话。


目前,唯一的完整意义上的道德主体是像你我一样的成年人类,当然不是所有的人类,是心智健全的成年人类。当然,我们并不能人工建立一个类似的道德主体,所以,我们目前能做到的就是在有限的意义上建立较低级别的道德机器人,它们可以根据特定的伦理规则来选择它们的行为。但是,不像你我,它们不能决定是否要遵守道德,当然也不能在事后证明它们自己的行为是正确的。

④ 如何培养AI的道德观

“天理派”的代表人物之一是伊曼努尔·康德(Immanuel Kant)。康德认为,道德准则就是一个绝对理智的人会做的事,而绝对的理智则指跳出自我、凭借理性和普世的规则来行事的思维方式。另外,普世的规则(例如“不可以撒谎”)并不局限于人类,而是适用于所有有理性的生命。所以,虽然在两个世纪以前康德无须考虑智慧机器人的事,但是我们可以推测出他对这个问题会有什么看法:如果机器人拥有了独立思考、理智选择的能力,那么适用于人类的普世规则同样适用于它们。

另一个“天理派”学说的代表人物是19世纪的功利主义哲学家亨利·西奇威克(Henry Sidgwick)。他认为,一个有道德的行为“从全宇宙的角度看”都应该是正当的。也就是说,一个行为道德与否不取决于任何个人的看法;一个有道德的行为应该能把全人类的利益最大化。

因此,“天理派”认为,只有当人类自己已经基本搞清普世道德的真理时,我们才能把人类的道德观灌输给AI。如果我们自己已经明白得差不多了,那么机器人们和我们一样就好;但是如果我们没搞明白,那它们就不应该像我们:它们应该比我们更好。

实际上, “天理派”的理论之中已经内置了一种可能性:我们此刻拥有的局限道德观,还可以变得更好。比如,当代功利主义哲学家彼得·辛格(Peter Singer)提出,我们对自己孩子的关爱不应该超出对其他任何儿童的关爱。进化带来的适应性使得我们更关注自己的孩子,但是从宇宙的角度看,适应性并不重要。然而,鉴于我们没有更好的选择(没法把所有孩子集中起来平等对待),我们只能按照进化遗留的、不完美的方式继续生活下去。

然而智能机器可没有进化遗留问题;关于道德,它们有个崭新的开始。如果我们能教会它们从宇宙的角度思考,那么会发生什么呢?

当AI拥有了“上帝视角”:它作出的道德抉择,能够被人类接受吗?

请想象一下,现在是2026年。一辆无人驾驶的汽车载着你的两个孩子去上学,这时三个你不认识的小孩突然出现在前方的路上。刹车也来不及了,唯一救那三个小孩的方法就是拐进路边的水沟里,而这样做的话你的两个孩子就会淹死。你不会做这样的决定,因为你被自己对自己孩子的无逻辑的感情蒙蔽了双眼;但是这辆自驾车的道德观告诉它,从全宇宙的角度看,两个儿童的死亡好过三个的。它会拐进沟里,将全人类的利益最大化;对于“天理派”,智能机器必须做出道德上客观正确的选择,即使这种选择是我们这些有缺陷的人类无法做出的。

然而,即使你能接受“天理派”的观点,我们还有一个问题有待解决:作为有道德缺陷的人类,我们如何才能制造出道德正确的智能机器?

让我们回想一下AlphaGo和它的第37手:AlphaGo证明了对于复杂的游戏,AI玩得可以比我们能教给它的还好。因此,也许AI可以自己学会更好的道德推论。人类可以训练它们对简单的场景做出合适的回应,以此带它们“入门”;之后就是它们自我学习的过程了。实际上,现在最复杂的机器已经在跟着其它机器或自己的软件学习了。这种自我训练可能会导致AI理论家们口中的“智慧爆发”:机器的智能在自我学习下突飞猛进,以至于突然变得比我们聪明很多。这样一来,AI可能就能达到人类所达不到的道德水准了。

然而,这种方法会带来更多问题。首当其冲的是:机器如何学习道德?道德并不像围棋一样有着明确的规则框架,标示着输赢。确实,”天理派”理论提出,世界上存在着一系列客观正确的行为准则,学会了这些的机器就能“赢”。然而我们有道德缺陷,所以并不知道这些准则是什么。显然,如果我们已经知道了的话,就不需要超级智能的机器帮我们找到它们了。

也许我们可以设定一些初始条件,比如“不能随意伤害有感知力的生物”,然后让AI开始自我训练。然而,这样就引出了第二个问题:当AI的行为开始与我们自己的道德观相悖时,我们该怎么做?人类有着很明确的标准来判断AlphaGo是否下得好(赢过人类顶级棋手即是好),但是我们该怎么判断AI那些看起来不合理的选择是否是“赢”?我们该怎么确定AI没有严重背离“道德”之路?当AI开始出于大义淹死我们的孩子时,我们会怎么做?

所以,这就是为什么“天理派”理论对机器人道德问题并没有帮助:如果真的存在人类无法理解的、客观的道德准则,那么我们不会自愿允许我们的机器学到它。它们离我们的常态越远,我们就越难判断它们的所作所为是否正确。我们不会允许它们比我们强太多,因为我们不允许它们和我们的差别太大。

⑤ AI的发明真的是完全颠覆了伦理的认知吗

AI的发明不会完全颠覆了伦理的认知。人工智能技术正变得越来越强大,那些最早开发和部署机器学习、人工智能的企业现在也开始公开讨论其创造的智能机器给伦理道德带来的挑战。去年和今年两次的围棋“人机大战”都以人类失败告终,这让许多人质疑人类智慧不如机器,人类可能被人工智能所取代。随着技术的发展,人工智能在陪伴机器人领域中的应用已走入越来越多的家庭,机器承担着越来越多(来自人类)的决策任务,更多人担忧的是,有一天会不会真出现如美国大片里机器人失控追杀人类的场面?人工智能技术正变得越来越强大,那些最早开发和部署机器学习、人工智能的企业现在也开始公开讨论其创造的智能机器给伦理道德带来的挑战。

中国社会科学院哲学研究所研究员甘绍平:机器人与具有自由选择能力的人有根本的区别。前者的行为取决于原因,后者的自主决断取决于理由,而决定意味着对不同理由的思考和选择。原因从属于自然界的必然性,理由则起源于人际交往、社会关联的运行规则和对文化历史经验累积的反思与醒悟。道德选择的前提是自由意志。意志自由只属于能够对理由进行思考、判定、权衡与抉择的人。机器人不可能拥有自由意志,也不可能具备伦理决策的理解力。

⑥ 人工智能发展的最大障碍是什么

人工智能发展的障碍主要有三个,技术、法律和伦理。

技术肯定是最大的障碍,很多人将人工智能称之为人工智障,就是由于AI技术还处在发展的初级阶段,很多技术还远远谈不上智能,只能算是稍具智能的自动化罢了。

技术的发展需要时间的积累,是不能一蹴而就的,需要时间、资本、人才和政策的综合作用。目前世界上很多国家都将人工智能作为国家级战略,就是在加大政策支持力度和资本支持力度,从而引导更多的优秀人才进入这个领域,剩下的就看时间站在谁的一边了,但至少目前看,在人工智能领域,基本上是中美两个玩家一统天下了。

根据西方的观点,人是上帝创造的,是上帝造出来放在伊甸园内的“人工智能”机器,但忽然有一天这个机器人亚当和夏娃偷吃了苹果,有了羞耻心,有了独立意识,于是就被上帝赶出了伊甸园。那么我们的人工智能会不会有一天也会这样。毕竟我们没有“上帝”那么强大的法力,会不会被我们所造的机器人给消灭掉?这一直是机器人阴谋论者的最大担心。

⑦ 人工智能负面影响

1、劳务就业问题

由于人工智能能够代替人类进行各种脑力劳动和体力劳动,例如,用工业机器人代替工人从事焊接、喷漆、搬运、装配和加工作业,用服务机器人从事医护、保姆、娱乐、文秘、记者、会计、清扫和消防等工作,用海空探索机器人替代宇航员和潜水员进行太空和深海勘探和救援。

机器人将可能引发就业市场的变动并影响人类生活。因此,将有一部分人员可能把自己的工作让位给机器人,造成他们的下岗和再就业,甚至造成失业。

2、社会结构、思维方式与观念的变化

人—机器的社会结构,终将为人—智能机器—机器的社会结构所取代。智能机器人就是一种智能机器。

从发展的角度看,从医院里看病的“医生”、护理病人的“护士”,旅馆、饭店和商店的“服务员”,办公室的“秘书”,指挥交通的“警察”,到家庭的“勤杂工”和“保姆”等等,将均由机器人来担任。因此,人们将不得不学会与智能机器相处,并适应这种变化了的社会结构。

(7)不道德AI扩展阅读:

人工智能技术的发展给人类带来福祉,但需要谨慎地对待智能机器发展过程中可能出现的问题,尤其要考虑如何编制友好的人工智能算法来使智能机器按照伦理道德标准行事。

有必要把人工智能的社会学问题提上议事日程。政府部门、科研机构和学术团体,都要把人工智能社会学研究纳入相应计划,研究解决对策与办法。人工智能可能出现的一些负面效应或新问题,如利用人工智能技术进行金融犯罪,智能驾驶车辆需要出台相应的交通法规等。

因此,需要建立相关的政策和法律法规,避免可能风险,确保人工智能的正面效应。只有人工智能应用得好、把握得好,才能确保人工智能不被滥用,确保人工智能是天使而不是魔鬼。

热点内容
一般行政法规 发布:2024-11-07 09:16:49 浏览:284
法官员额制考试试题 发布:2024-11-07 08:30:08 浏览:493
劳动法里对工龄工资 发布:2024-11-07 08:30:08 浏览:773
立法强制生育 发布:2024-11-07 08:25:02 浏览:794
清华法律硕士考研 发布:2024-11-07 08:09:00 浏览:378
在职法律硕士面试题目 发布:2024-11-07 08:06:16 浏览:990
公务员法属于社会法吗 发布:2024-11-07 07:53:10 浏览:227
执行行政诉讼法解释79条 发布:2024-11-07 07:39:34 浏览:708
山东师范大学法律硕士复试题 发布:2024-11-07 07:13:29 浏览:877
太原法律援助中心地址查询 发布:2024-11-07 07:11:16 浏览:782