當前位置:首頁 » 法學百科 » 不道德AI

不道德AI

發布時間: 2022-04-26 16:09:51

① 如何培養ai的道德

哲學家和計算機科學家的關注點往往是,如何將微妙的人類道德觀灌輸給只回能理解字面答意思的機器。但是在此之前,還有另外一個問題,一個我們必須首先考慮清楚的問題:我們真的應該把自己的道德觀強加於機器上嗎?實際上,我認為這樣做很可能會產生反效果,而且也許是不道德的。真正的問題不在機器身上,而在我們自己身上:我們能夠接受和一種新生的、有道德的生命共享這個世界嗎?
我們想像中的人工智慧(AI)往往和我們自己差不多,畢竟人類是我們已知的唯一一種擁有高級智慧的生命。實際上,真正的AI很有可能和我們極其不同。我們可能會很難理解它的思維方式和它做出的選擇

② 韓國棋手AI作弊事件層出不窮,職業道德問題應該如何規范

柯潔進了清華以後學習什麼專業?也是網友關心的話題。媒體報道,柯潔的父親透露兒子報的是工商管理類專業,但具體的專業和上課方式還是未知數。作為在人類棋壇戰無不勝的棋手,柯潔有個“不是人”的對手。2017年,他與AI阿爾法狗對戰三局,均以失敗告終。這對“一生之敵”看來暫時還不能解綁,因為阿爾法狗已經被網友“分配”去了北大。 曾經被阿爾法狗擊敗的柯潔,難道不想“以彼之道,還施彼身”?他還真想過。

柯潔曾考慮過選擇AI專業,以另外一種方式擊敗阿爾法狗。但AI學科需要很深的基礎知識,在這方面他相對薄弱。聽取了計算機領域專家的建議後,放棄了這個想法,不然頭發“真的是要全部禿掉了”。對於柯潔來說,他上清華這件事,本來沒有想過會如此“歡樂”。他在接受專訪時曾表示“因為我一直都是覺得,我是除了圍棋之外,其他事情幾乎什麼都不懂的,也有很多欠缺的地方。不論是做事,還是說話的方式。


柯潔在邁進LG杯決賽的那場比賽,這是一場過山車式的絞殺勝仗,卞相壹差一步就邁過通往決賽的門檻,卻硬生生被柯潔出的刁鑽難題給迷住,最終倒在了距離勝利的咫尺之遙。與其說連番逆轉是擁有不可能的運氣,還不如直接贊美柯潔的大心臟,那戰斗到最後一刻的勇氣和泰山崩於前而色不變的自信心。事後采訪他是,他也是回答道:“今天一度覺得要輸,後來抓到對方的失誤,從而逆轉比賽。斷線讓我很難受,但不能因此影響心態。”這是柯潔首次闖進第25屆LG杯,八冠王柯潔突破了自我,突破了韓國布下的第4道防線,朝著最後一道關卡決賽沖去。

③ 未來,AI機器人是否應該具備倫理道德

機器人倫理學家就是那些為機器人和人工智慧的倫理和社會影響及其後果而擔憂的人。所以,從某種程度上說,我是一個專業的擔憂者。

探尋人類——包括人類工程師、機器人製造商和維護者、維修人員等等,也就是每個與人工智慧和機器人有關的人,應該如何採取負責任和道德的行為,盡量減少人工智慧和機器人對我們的社會,我們每一個人以及我們的星球帶來的不必要的道德後果和危害,如果人們願意的話。


目前,唯一的完整意義上的道德主體是像你我一樣的成年人類,當然不是所有的人類,是心智健全的成年人類。當然,我們並不能人工建立一個類似的道德主體,所以,我們目前能做到的就是在有限的意義上建立較低級別的道德機器人,它們可以根據特定的倫理規則來選擇它們的行為。但是,不像你我,它們不能決定是否要遵守道德,當然也不能在事後證明它們自己的行為是正確的。

④ 如何培養AI的道德觀

「天理派」的代表人物之一是伊曼努爾·康德(Immanuel Kant)。康德認為,道德准則就是一個絕對理智的人會做的事,而絕對的理智則指跳出自我、憑借理性和普世的規則來行事的思維方式。另外,普世的規則(例如「不可以撒謊」)並不局限於人類,而是適用於所有有理性的生命。所以,雖然在兩個世紀以前康德無須考慮智慧機器人的事,但是我們可以推測出他對這個問題會有什麼看法:如果機器人擁有了獨立思考、理智選擇的能力,那麼適用於人類的普世規則同樣適用於它們。

另一個「天理派」學說的代表人物是19世紀的功利主義哲學家亨利·西奇威克(Henry Sidgwick)。他認為,一個有道德的行為「從全宇宙的角度看」都應該是正當的。也就是說,一個行為道德與否不取決於任何個人的看法;一個有道德的行為應該能把全人類的利益最大化。

因此,「天理派」認為,只有當人類自己已經基本搞清普世道德的真理時,我們才能把人類的道德觀灌輸給AI。如果我們自己已經明白得差不多了,那麼機器人們和我們一樣就好;但是如果我們沒搞明白,那它們就不應該像我們:它們應該比我們更好。

實際上, 「天理派」的理論之中已經內置了一種可能性:我們此刻擁有的局限道德觀,還可以變得更好。比如,當代功利主義哲學家彼得·辛格(Peter Singer)提出,我們對自己孩子的關愛不應該超出對其他任何兒童的關愛。進化帶來的適應性使得我們更關注自己的孩子,但是從宇宙的角度看,適應性並不重要。然而,鑒於我們沒有更好的選擇(沒法把所有孩子集中起來平等對待),我們只能按照進化遺留的、不完美的方式繼續生活下去。

然而智能機器可沒有進化遺留問題;關於道德,它們有個嶄新的開始。如果我們能教會它們從宇宙的角度思考,那麼會發生什麼呢?

當AI擁有了「上帝視角」:它作出的道德抉擇,能夠被人類接受嗎?

請想像一下,現在是2026年。一輛無人駕駛的汽車載著你的兩個孩子去上學,這時三個你不認識的小孩突然出現在前方的路上。剎車也來不及了,唯一救那三個小孩的方法就是拐進路邊的水溝里,而這樣做的話你的兩個孩子就會淹死。你不會做這樣的決定,因為你被自己對自己孩子的無邏輯的感情蒙蔽了雙眼;但是這輛自駕車的道德觀告訴它,從全宇宙的角度看,兩個兒童的死亡好過三個的。它會拐進溝里,將全人類的利益最大化;對於「天理派」,智能機器必須做出道德上客觀正確的選擇,即使這種選擇是我們這些有缺陷的人類無法做出的。

然而,即使你能接受「天理派」的觀點,我們還有一個問題有待解決:作為有道德缺陷的人類,我們如何才能製造出道德正確的智能機器?

讓我們回想一下AlphaGo和它的第37手:AlphaGo證明了對於復雜的游戲,AI玩得可以比我們能教給它的還好。因此,也許AI可以自己學會更好的道德推論。人類可以訓練它們對簡單的場景做出合適的回應,以此帶它們「入門」;之後就是它們自我學習的過程了。實際上,現在最復雜的機器已經在跟著其它機器或自己的軟體學習了。這種自我訓練可能會導致AI理論家們口中的「智慧爆發」:機器的智能在自我學習下突飛猛進,以至於突然變得比我們聰明很多。這樣一來,AI可能就能達到人類所達不到的道德水準了。

然而,這種方法會帶來更多問題。首當其沖的是:機器如何學習道德?道德並不像圍棋一樣有著明確的規則框架,標示著輸贏。確實,」天理派」理論提出,世界上存在著一系列客觀正確的行為准則,學會了這些的機器就能「贏」。然而我們有道德缺陷,所以並不知道這些准則是什麼。顯然,如果我們已經知道了的話,就不需要超級智能的機器幫我們找到它們了。

也許我們可以設定一些初始條件,比如「不能隨意傷害有感知力的生物」,然後讓AI開始自我訓練。然而,這樣就引出了第二個問題:當AI的行為開始與我們自己的道德觀相悖時,我們該怎麼做?人類有著很明確的標准來判斷AlphaGo是否下得好(贏過人類頂級棋手即是好),但是我們該怎麼判斷AI那些看起來不合理的選擇是否是「贏」?我們該怎麼確定AI沒有嚴重背離「道德」之路?當AI開始出於大義淹死我們的孩子時,我們會怎麼做?

所以,這就是為什麼「天理派」理論對機器人道德問題並沒有幫助:如果真的存在人類無法理解的、客觀的道德准則,那麼我們不會自願允許我們的機器學到它。它們離我們的常態越遠,我們就越難判斷它們的所作所為是否正確。我們不會允許它們比我們強太多,因為我們不允許它們和我們的差別太大。

⑤ AI的發明真的是完全顛覆了倫理的認知嗎

AI的發明不會完全顛覆了倫理的認知。人工智慧技術正變得越來越強大,那些最早開發和部署機器學習、人工智慧的企業現在也開始公開討論其創造的智能機器給倫理道德帶來的挑戰。去年和今年兩次的圍棋「人機大戰」都以人類失敗告終,這讓許多人質疑人類智慧不如機器,人類可能被人工智慧所取代。隨著技術的發展,人工智慧在陪伴機器人領域中的應用已走入越來越多的家庭,機器承擔著越來越多(來自人類)的決策任務,更多人擔憂的是,有一天會不會真出現如美國大片里機器人失控追殺人類的場面?人工智慧技術正變得越來越強大,那些最早開發和部署機器學習、人工智慧的企業現在也開始公開討論其創造的智能機器給倫理道德帶來的挑戰。

中國社會科學院哲學研究所研究員甘紹平:機器人與具有自由選擇能力的人有根本的區別。前者的行為取決於原因,後者的自主決斷取決於理由,而決定意味著對不同理由的思考和選擇。原因從屬於自然界的必然性,理由則起源於人際交往、社會關聯的運行規則和對文化歷史經驗累積的反思與醒悟。道德選擇的前提是自由意志。意志自由只屬於能夠對理由進行思考、判定、權衡與抉擇的人。機器人不可能擁有自由意志,也不可能具備倫理決策的理解力。

⑥ 人工智慧發展的最大障礙是什麼

人工智慧發展的障礙主要有三個,技術、法律和倫理。

技術肯定是最大的障礙,很多人將人工智慧稱之為人工智障,就是由於AI技術還處在發展的初級階段,很多技術還遠遠談不上智能,只能算是稍具智能的自動化罷了。

技術的發展需要時間的積累,是不能一蹴而就的,需要時間、資本、人才和政策的綜合作用。目前世界上很多國家都將人工智慧作為國家級戰略,就是在加大政策支持力度和資本支持力度,從而引導更多的優秀人才進入這個領域,剩下的就看時間站在誰的一邊了,但至少目前看,在人工智慧領域,基本上是中美兩個玩家一統天下了。

根據西方的觀點,人是上帝創造的,是上帝造出來放在伊甸園內的“人工智慧”機器,但忽然有一天這個機器人亞當和夏娃偷吃了蘋果,有了羞恥心,有了獨立意識,於是就被上帝趕出了伊甸園。那麼我們的人工智慧會不會有一天也會這樣。畢竟我們沒有“上帝”那麼強大的法力,會不會被我們所造的機器人給消滅掉?這一直是機器人陰謀論者的最大擔心。

⑦ 人工智慧負面影響

1、勞務就業問題

由於人工智慧能夠代替人類進行各種腦力勞動和體力勞動,例如,用工業機器人代替工人從事焊接、噴漆、搬運、裝配和加工作業,用服務機器人從事醫護、保姆、娛樂、文秘、記者、會計、清掃和消防等工作,用海空探索機器人替代宇航員和潛水員進行太空和深海勘探和救援。

機器人將可能引發就業市場的變動並影響人類生活。因此,將有一部分人員可能把自己的工作讓位給機器人,造成他們的下崗和再就業,甚至造成失業。

2、社會結構、思維方式與觀念的變化

人—機器的社會結構,終將為人—智能機器—機器的社會結構所取代。智能機器人就是一種智能機器。

從發展的角度看,從醫院里看病的「醫生」、護理病人的「護士」,旅館、飯店和商店的「服務員」,辦公室的「秘書」,指揮交通的「警察」,到家庭的「勤雜工」和「保姆」等等,將均由機器人來擔任。因此,人們將不得不學會與智能機器相處,並適應這種變化了的社會結構。

(7)不道德AI擴展閱讀:

人工智慧技術的發展給人類帶來福祉,但需要謹慎地對待智能機器發展過程中可能出現的問題,尤其要考慮如何編制友好的人工智慧演算法來使智能機器按照倫理道德標准行事。

有必要把人工智慧的社會學問題提上議事日程。政府部門、科研機構和學術團體,都要把人工智慧社會學研究納入相應計劃,研究解決對策與辦法。人工智慧可能出現的一些負面效應或新問題,如利用人工智慧技術進行金融犯罪,智能駕駛車輛需要出台相應的交通法規等。

因此,需要建立相關的政策和法律法規,避免可能風險,確保人工智慧的正面效應。只有人工智慧應用得好、把握得好,才能確保人工智慧不被濫用,確保人工智慧是天使而不是魔鬼。

熱點內容
伊川法院投訴 發布:2024-11-07 11:15:25 瀏覽:202
昨天社會為法欄目組 發布:2024-11-07 11:07:25 瀏覽:196
行政審批改革行政法 發布:2024-11-07 10:51:19 瀏覽:895
2019年司法考試報名時間 發布:2024-11-07 10:44:41 瀏覽:955
法律碩士在法院有用嗎 發布:2024-11-07 10:40:53 瀏覽:167
德國法學淵源 發布:2024-11-07 10:18:12 瀏覽:593
催繳物業費律師函 發布:2024-11-07 09:50:31 瀏覽:741
司法所手機定位 發布:2024-11-07 09:48:42 瀏覽:169
12年刑事訴訟法修改地方 發布:2024-11-07 09:41:29 瀏覽:102
一般行政法規 發布:2024-11-07 09:16:49 瀏覽:284