當前位置:首頁 » 法學百科 » ai不道德

ai不道德

發布時間: 2022-01-29 04:40:04

『壹』 AI的發明真的是完全顛覆了倫理的認知嗎

AI的發明不會完全顛覆了倫理的認知。人工智慧技術正變得越來越強大,那些最早開發和部署機器學習、人工智慧的企業現在也開始公開討論其創造的智能機器給倫理道德帶來的挑戰。去年和今年兩次的圍棋「人機大戰」都以人類失敗告終,這讓許多人質疑人類智慧不如機器,人類可能被人工智慧所取代。隨著技術的發展,人工智慧在陪伴機器人領域中的應用已走入越來越多的家庭,機器承擔著越來越多(來自人類)的決策任務,更多人擔憂的是,有一天會不會真出現如美國大片里機器人失控追殺人類的場面?人工智慧技術正變得越來越強大,那些最早開發和部署機器學習、人工智慧的企業現在也開始公開討論其創造的智能機器給倫理道德帶來的挑戰。

中國社會科學院哲學研究所研究員甘紹平:機器人與具有自由選擇能力的人有根本的區別。前者的行為取決於原因,後者的自主決斷取決於理由,而決定意味著對不同理由的思考和選擇。原因從屬於自然界的必然性,理由則起源於人際交往、社會關聯的運行規則和對文化歷史經驗累積的反思與醒悟。道德選擇的前提是自由意志。意志自由只屬於能夠對理由進行思考、判定、權衡與抉擇的人。機器人不可能擁有自由意志,也不可能具備倫理決策的理解力。

『貳』 未來,AI機器人是否應該具備倫理道德

機器人倫理學家就是那些為機器人和人工智慧的倫理和社會影響及其後果而擔憂的人。所以,從某種程度上說,我是一個專業的擔憂者。

探尋人類——包括人類工程師、機器人製造商和維護者、維修人員等等,也就是每個與人工智慧和機器人有關的人,應該如何採取負責任和道德的行為,盡量減少人工智慧和機器人對我們的社會,我們每一個人以及我們的星球帶來的不必要的道德後果和危害,如果人們願意的話。


目前,唯一的完整意義上的道德主體是像你我一樣的成年人類,當然不是所有的人類,是心智健全的成年人類。當然,我們並不能人工建立一個類似的道德主體,所以,我們目前能做到的就是在有限的意義上建立較低級別的道德機器人,它們可以根據特定的倫理規則來選擇它們的行為。但是,不像你我,它們不能決定是否要遵守道德,當然也不能在事後證明它們自己的行為是正確的。

『叄』 韓國棋手AI作弊事件層出不窮,職業道德問題應該如何規范

柯潔進了清華以後學習什麼專業?也是網友關心的話題。媒體報道,柯潔的父親透露兒子報的是工商管理類專業,但具體的專業和上課方式還是未知數。作為在人類棋壇戰無不勝的棋手,柯潔有個“不是人”的對手。2017年,他與AI阿爾法狗對戰三局,均以失敗告終。這對“一生之敵”看來暫時還不能解綁,因為阿爾法狗已經被網友“分配”去了北大。 曾經被阿爾法狗擊敗的柯潔,難道不想“以彼之道,還施彼身”?他還真想過。

柯潔曾考慮過選擇AI專業,以另外一種方式擊敗阿爾法狗。但AI學科需要很深的基礎知識,在這方面他相對薄弱。聽取了計算機領域專家的建議後,放棄了這個想法,不然頭發“真的是要全部禿掉了”。對於柯潔來說,他上清華這件事,本來沒有想過會如此“歡樂”。他在接受專訪時曾表示“因為我一直都是覺得,我是除了圍棋之外,其他事情幾乎什麼都不懂的,也有很多欠缺的地方。不論是做事,還是說話的方式。


柯潔在邁進LG杯決賽的那場比賽,這是一場過山車式的絞殺勝仗,卞相壹差一步就邁過通往決賽的門檻,卻硬生生被柯潔出的刁鑽難題給迷住,最終倒在了距離勝利的咫尺之遙。與其說連番逆轉是擁有不可能的運氣,還不如直接贊美柯潔的大心臟,那戰斗到最後一刻的勇氣和泰山崩於前而色不變的自信心。事後采訪他是,他也是回答道:“今天一度覺得要輸,後來抓到對方的失誤,從而逆轉比賽。斷線讓我很難受,但不能因此影響心態。”這是柯潔首次闖進第25屆LG杯,八冠王柯潔突破了自我,突破了韓國布下的第4道防線,朝著最後一道關卡決賽沖去。

『肆』 人工智慧的利與弊分別是什麼

1、人工智慧的利

目前人工智慧已經為人類創造出了非常可觀的經濟效益,人工智慧可以代替人類做大量人類不想做、不能做的工作,而且機器犯錯誤的概率比人低,並且能夠持續工作,大大的提升工作效率。

雖然可能會帶來大量的失業,但是這本來就是社會前進必須經歷的過程,當新技術被發明出來時一定會影響某些群體的既得利益,然而只要這個前進的方向是對的,也就無可厚非了,畢竟被取代的是所需能力不高的工種,只能怨自身沒有什麼不可替代的價值了。



『伍』 如何培養ai的道德觀

哲學家和計算機科學家的關注點往往是,如何將微妙的人類道德觀灌輸給只回能理解字面答意思的機器。但是在此之前,還有另外一個問題,一個我們必須首先考慮清楚的問題:我們真的應該把自己的道德觀強加於機器上嗎?實際上,我認為這樣做很可能會產生反效果,而且也許是不道德的。真正的問題不在機器身上,而在我們自己身上:我們能夠接受和一種新生的、有道德的生命共享這個世界嗎?
我們想像中的人工智慧(AI)往往和我們自己差不多,畢竟人類是我們已知的唯一一種擁有高級智慧的生命。實際上,真正的AI很有可能和我們極其不同。我們可能會很難理解它的思維方式和它做出的選擇

『陸』 怎麼解決Ai撒謊的問題

撒謊到底是一種病,還是一種人際技巧呢?在生活中的絕大多數情形,撒謊是一種人際溝通技巧。麻省大學的心理學家羅伯特·費得蒙研究表明,60%的人在10分鍾的交談中撒謊2到3次,男人和女人的撒謊頻率差不多,但他發現一個有趣男女差別:女人傾向於為了取悅對方而撒謊,男人傾向於自吹而撒謊。
他還發現撒謊高手通常人緣比較好。這個研究結果似乎違背社會道德常識,但卻不難在生活中得到印證。美國前總統柯林頓在電視前向全國人民公開撒謊,但他的人緣卻是無人可及。在西方社會,政治人物撒謊成性是人所皆知的事,但卻沒有一個政治人物公開承認自己是個謊言家。
研究發現,康乃爾大學的心理學家傑夫漢考克研究發現,大學生四分之一的人際交往含有撒謊行為,撒謊最頻繁的是在電話里,而電子郵件撒謊的比例最低,原因很簡單,電子郵件留下記錄,撒謊者不喜歡留下記錄,所以傾向於在電話里撒謊。這個四分之一是日常生活所為,如果在特定的有目的性的場合,撒謊的比例大幅度上升便是很自然的事情。

『柒』 人工智慧負面影響

1、勞務就業問題

由於人工智慧能夠代替人類進行各種腦力勞動和體力勞動,例如,用工業機器人代替工人從事焊接、噴漆、搬運、裝配和加工作業,用服務機器人從事醫護、保姆、娛樂、文秘、記者、會計、清掃和消防等工作,用海空探索機器人替代宇航員和潛水員進行太空和深海勘探和救援。

機器人將可能引發就業市場的變動並影響人類生活。因此,將有一部分人員可能把自己的工作讓位給機器人,造成他們的下崗和再就業,甚至造成失業。

2、社會結構、思維方式與觀念的變化

人—機器的社會結構,終將為人—智能機器—機器的社會結構所取代。智能機器人就是一種智能機器。

從發展的角度看,從醫院里看病的「醫生」、護理病人的「護士」,旅館、飯店和商店的「服務員」,辦公室的「秘書」,指揮交通的「警察」,到家庭的「勤雜工」和「保姆」等等,將均由機器人來擔任。因此,人們將不得不學會與智能機器相處,並適應這種變化了的社會結構。

(7)ai不道德擴展閱讀:

人工智慧技術的發展給人類帶來福祉,但需要謹慎地對待智能機器發展過程中可能出現的問題,尤其要考慮如何編制友好的人工智慧演算法來使智能機器按照倫理道德標准行事。

有必要把人工智慧的社會學問題提上議事日程。政府部門、科研機構和學術團體,都要把人工智慧社會學研究納入相應計劃,研究解決對策與辦法。人工智慧可能出現的一些負面效應或新問題,如利用人工智慧技術進行金融犯罪,智能駕駛車輛需要出台相應的交通法規等。

因此,需要建立相關的政策和法律法規,避免可能風險,確保人工智慧的正面效應。只有人工智慧應用得好、把握得好,才能確保人工智慧不被濫用,確保人工智慧是天使而不是魔鬼。

『捌』 如何培養AI的道德觀

「天理派」的代表人物之一是伊曼努爾·康德(Immanuel Kant)。康德認為,道德准則就是一個絕對理智的人會做的事,而絕對的理智則指跳出自我、憑借理性和普世的規則來行事的思維方式。另外,普世的規則(例如「不可以撒謊」)並不局限於人類,而是適用於所有有理性的生命。所以,雖然在兩個世紀以前康德無須考慮智慧機器人的事,但是我們可以推測出他對這個問題會有什麼看法:如果機器人擁有了獨立思考、理智選擇的能力,那麼適用於人類的普世規則同樣適用於它們。

另一個「天理派」學說的代表人物是19世紀的功利主義哲學家亨利·西奇威克(Henry Sidgwick)。他認為,一個有道德的行為「從全宇宙的角度看」都應該是正當的。也就是說,一個行為道德與否不取決於任何個人的看法;一個有道德的行為應該能把全人類的利益最大化。

因此,「天理派」認為,只有當人類自己已經基本搞清普世道德的真理時,我們才能把人類的道德觀灌輸給AI。如果我們自己已經明白得差不多了,那麼機器人們和我們一樣就好;但是如果我們沒搞明白,那它們就不應該像我們:它們應該比我們更好。

實際上, 「天理派」的理論之中已經內置了一種可能性:我們此刻擁有的局限道德觀,還可以變得更好。比如,當代功利主義哲學家彼得·辛格(Peter Singer)提出,我們對自己孩子的關愛不應該超出對其他任何兒童的關愛。進化帶來的適應性使得我們更關注自己的孩子,但是從宇宙的角度看,適應性並不重要。然而,鑒於我們沒有更好的選擇(沒法把所有孩子集中起來平等對待),我們只能按照進化遺留的、不完美的方式繼續生活下去。

然而智能機器可沒有進化遺留問題;關於道德,它們有個嶄新的開始。如果我們能教會它們從宇宙的角度思考,那麼會發生什麼呢?

當AI擁有了「上帝視角」:它作出的道德抉擇,能夠被人類接受嗎?

請想像一下,現在是2026年。一輛無人駕駛的汽車載著你的兩個孩子去上學,這時三個你不認識的小孩突然出現在前方的路上。剎車也來不及了,唯一救那三個小孩的方法就是拐進路邊的水溝里,而這樣做的話你的兩個孩子就會淹死。你不會做這樣的決定,因為你被自己對自己孩子的無邏輯的感情蒙蔽了雙眼;但是這輛自駕車的道德觀告訴它,從全宇宙的角度看,兩個兒童的死亡好過三個的。它會拐進溝里,將全人類的利益最大化;對於「天理派」,智能機器必須做出道德上客觀正確的選擇,即使這種選擇是我們這些有缺陷的人類無法做出的。

然而,即使你能接受「天理派」的觀點,我們還有一個問題有待解決:作為有道德缺陷的人類,我們如何才能製造出道德正確的智能機器?

讓我們回想一下AlphaGo和它的第37手:AlphaGo證明了對於復雜的游戲,AI玩得可以比我們能教給它的還好。因此,也許AI可以自己學會更好的道德推論。人類可以訓練它們對簡單的場景做出合適的回應,以此帶它們「入門」;之後就是它們自我學習的過程了。實際上,現在最復雜的機器已經在跟著其它機器或自己的軟體學習了。這種自我訓練可能會導致AI理論家們口中的「智慧爆發」:機器的智能在自我學習下突飛猛進,以至於突然變得比我們聰明很多。這樣一來,AI可能就能達到人類所達不到的道德水準了。

然而,這種方法會帶來更多問題。首當其沖的是:機器如何學習道德?道德並不像圍棋一樣有著明確的規則框架,標示著輸贏。確實,」天理派」理論提出,世界上存在著一系列客觀正確的行為准則,學會了這些的機器就能「贏」。然而我們有道德缺陷,所以並不知道這些准則是什麼。顯然,如果我們已經知道了的話,就不需要超級智能的機器幫我們找到它們了。

也許我們可以設定一些初始條件,比如「不能隨意傷害有感知力的生物」,然後讓AI開始自我訓練。然而,這樣就引出了第二個問題:當AI的行為開始與我們自己的道德觀相悖時,我們該怎麼做?人類有著很明確的標准來判斷AlphaGo是否下得好(贏過人類頂級棋手即是好),但是我們該怎麼判斷AI那些看起來不合理的選擇是否是「贏」?我們該怎麼確定AI沒有嚴重背離「道德」之路?當AI開始出於大義淹死我們的孩子時,我們會怎麼做?

所以,這就是為什麼「天理派」理論對機器人道德問題並沒有幫助:如果真的存在人類無法理解的、客觀的道德准則,那麼我們不會自願允許我們的機器學到它。它們離我們的常態越遠,我們就越難判斷它們的所作所為是否正確。我們不會允許它們比我們強太多,因為我們不允許它們和我們的差別太大。

『玖』 ai為什麼可以這么傻

這。我說這世界需要改變,人需要更有責任感和善良,不應該思想僵化止步不前,這是根本原因,素質問題,道德問題!說說我的看法吧,這些所謂傻X們,都是些的人,完全不顧後代,也不想負責,年輕人性X本來就是個錯,只是都覺得沒什麼罷了,所謂的前衛,就是一天到晚睡來睡去,然後去個小診otai?無奈

『拾』 人工智慧利與弊。

人工智慧的利:

1、人工智慧可以使我們的生活變得更加便利,減輕人們的負擔。人工智慧應用後,各行業的生產效率大幅提高,人類財富會快速增長,為人類的美好生活提供了堅實的物質基礎。

2、人工智慧機器人具有一定的危險性。如果在未來人工智慧自我意識覺醒反過來攻擊人類,我們該如何應對? 畢竟我們沒有機器人聰明,沒有它們強壯的力量,更沒有它們恐怖的學習能力,似乎機器人的出現意味著人類將會被淘汰。 著名科學家史蒂芬·霍金更是認為:未來一百年內,人工智慧將比人類更聰明,機器人將控制人類。

熱點內容
行政法3大塊 發布:2025-02-08 10:09:47 瀏覽:333
遼寧大學法律碩士排名 發布:2025-02-08 09:38:54 瀏覽:8
應寶市法律援助志願者章程 發布:2025-02-08 09:30:28 瀏覽:259
法治是制度嗎 發布:2025-02-08 09:16:40 瀏覽:55
網約車中的行政法問題 發布:2025-02-08 08:26:50 瀏覽:263
貴州計生條例2017 發布:2025-02-08 08:06:35 瀏覽:8
公司大股東需要承擔法律責任嗎 發布:2025-02-08 08:02:52 瀏覽:202
遺囑律師咨詢電話 發布:2025-02-08 07:45:20 瀏覽:178
勞工道德風險評估表 發布:2025-02-08 07:38:32 瀏覽:821
人大最高立法權包括 發布:2025-02-08 07:25:34 瀏覽:485