人工智慧的道德困境
1. 與人工智慧創業者道德困境聯系較為間接的是
摘要 您好,歡迎使用網路知道在線一對一咨詢服務,我是網路知道答主「海哲瀚寶Mn」接下來將由我為您解答,很榮幸為您服務,我將認真且仔細對待您的問題,打字和整理資料可能需要幾分鍾,請您耐心等待哦
2. 人工智慧時代的倫理道德面臨哪些挑戰
數字信息技術使幾乎任何人、任何時間、任何地點都能輕易獲得信息。這對我們社會的各個方面,從工業生產到分配、到商品和服務的消費,都產生了深遠的影響。就像之前的技術革命一樣,數字信息技術的影響如此廣泛,我們不再只是簡單地利用它——做我們以前做過的事情——而是通過改變我們的行為方式來適應它。
今天,數字信息技術已經重新定義了人們如何與他人進行社交互動,甚至如何找到伴侶。消費者、生產者和供應商、實業家和勞動者、服務提供者和客戶、朋友和合作夥伴之間重新定義的關系,已經在社會上造成一場劇變,正在改變後工業時代對道德理性的定義。
我們正站在下一波科技革命的風口浪尖:人工智慧。20世紀晚期的數字革命將信息帶到了我們的指尖,讓我們能夠快速做出決定,而機構做出決定,從根本上說,取決於我們。人工智慧正在通過自動化決策過程來改變這一狀況,它有望帶來更好的定性結果和更高的效率。人工智慧游戲系統在擊敗國際象棋世界冠軍卡斯帕羅夫(Gary Kasparov)和圍棋世界冠軍柯潔(Ke Jie)方面取得的成功,突顯出人工智慧在計算當前決策對潛在未來棋步的影響方面,在質量方面優於人類專家。
然而,在這個決策過程中,人工智慧也帶走了人類行為的透明性、可解釋性、可預測性、可教性和可審核性,取而代之的是不透明性。這一舉動的邏輯不僅不為參與者所知,也不為程序的創造者所知。隨著人工智慧為我們做出決策,決策的透明度和可預測性可能會成為過去。
想像一下這樣的情景:你的孩子回家找你,要求你給她零花錢,讓她和朋友一起去看電影。你允許了。一周後,你的另一個孩子帶著同樣的要求來找你,但這次,你拒絕了。這將立即引起不公平和偏袒的問題。為了避免受到偏袒的指責,你要向孩子解釋,她必須完成家庭作業,才有資格獲得零花錢。
沒有任何解釋,家裡一定會有緊張的氣氛。現在想像一下用一個人工智慧系統取代你的角色,這個系統已經收集了成千上萬個處於類似情況的家庭的數據。通過研究其他家庭的零花錢決定的後果,得出結論,一個兄弟姐妹應該得到零用錢,而另一個兄弟姐妹不應該。
但人工智慧系統無法真正解釋其中的原因,只能說它衡量了你孩子的頭發顏色、身高、體重以及其他所有它能獲得的屬性,以便做出對其他家庭似乎最有效的決定。那又怎麼會有效呢?
在法庭上,過去的判決約束法官遵循先例,即使情況不完全相同,但大致相似。一致性在司法、政府、關系和道德規范中都很重要。AI沒有遵守先例的法律要求。人類往往只有有限的直接或間接經驗,而機器可能可以訪問大量數據。
人類無法在一個長期的時間尺度內篩選他們的經歷,而機器可以很容易地做到這一點。人類會排除那些被認為對決策無關緊要的因素,而機器不會排除任何因素。這可能導致不尊重先例的決定,其規模之大是人類可以理解的。隨著企業和社會迅速轉向人工智慧,人工智慧實際上可能比人類在更長的時間范圍內做出更好的決策,而人類在更短的時間范圍內就會感到困惑和沮喪,並侵蝕一個正常運轉的社會的唯一貨幣,信任。
要理解基於人工智慧的決策可能有多人工,研究人類如何做出決策是很重要的。人類的決策可能由一組明確的規則,或者僅僅基於結果論的關聯,或者由組合來指導。人類對於與決策相關的信息也是有選擇性的。由於缺乏選擇性,機器在做決定時可能會考慮人類認為不恰當的因素。
有無數這樣的例子,從微軟(Microsoft)在其聊天機器人Tay開始在Twitter上發表煽動性反猶太言論後關閉它,到波士頓大學(Boston University)的一項研究,該研究發現「老闆」(boss)、「建築師」(architect)和「金融家」(financier)等詞與男性、「護士」(nurse)和「接待員」(接待員)等詞與女性之間存在性別關聯。這可能是數據造成的,但它與我們的顯式值形成了對比。如果數據驅動的過程依賴於這些人工智慧演算法生成的輸出,它們將產生有偏見的決策,往往違背我們的道德價值觀。
ProPublica在2016年提供了明顯的證據。美國法院使用的一種電腦程序錯誤地將兩年之內沒有再犯的黑人被告標記為「慣犯」,其再次犯案的可能性幾乎是白人被告的兩倍——前者為45%,後者為23%。如果一個人也這么做,就會被譴責為種族主義者。人工智慧揭示了我們明確的價值觀和集體經驗之間的分裂。我們的集體經驗不是一成不變的。它們是由重要的社會決定所決定的,而這些決定又由我們的道德價值觀所指導。我們真的想把決策過程留給那些只從過去學習、因而受制於過去的機器,而不是塑造未來的機器嗎?
鑒於人工智慧在醫療診斷、金融服務和就業篩查等領域的應用規模之大,任何一個偶然事件的後果都是巨大的。隨著演算法越來越依賴於提高可預測性的特性,控制這類決策的邏輯變得越來越不可思議。因此,我們失去了決策的全局性,拋棄了所有的原則來支持過去的觀察。在某些情況下,這可能是不道德的,在某些情況下是非法的,在某些情況下是短視的。「慣犯演算法」公然藐視無罪推定、機會均等等原則。
一致性是道德和正直不可或缺的。我們的決定必須遵循一個高於統計准確性的標准;幾個世紀以來,相互信任、減少危害、公平和平等的共同美德已被證明是任何推理系統生存的基本基石。沒有內部邏輯的一致性,人工智慧系統缺乏健壯性和可問責性——這是在社會中建立信任的兩個關鍵措施。通過在道德情感和邏輯推理之間製造裂痕,數據驅動決策的不可知性阻礙了批判性地參與決策過程的能力。
這是我們生活的新世界,復雜的決定被削減成反射性的選擇,並被觀察到的結果所強化;把復雜的東西簡化成簡單的東西,把道德簡化成實用的東西。今天,我們的道德感為我們的決策提供了一個框架。也許不久之後,我們的決定就會讓人們對我們的道德產生懷疑
3. 人工智慧的發展可能對道德及法治帶來的影響
理論上人工智慧將來有了思想就會被當成一種生物但不算人,這時人工智慧就會向政府和社會所要權力,想要成為國家的公民。不過目前還無法達到這么高的智能,僅僅是一種電器。
4. 人工智慧的發展會面臨哪些問題
隨著人工智慧在最近這幾年愈演愈烈,各大公司紛紛投向人工智慧行業,國內外多家公司都加入了人工智慧俱樂部。在國內,像網路、阿里巴巴; 在國外,像微軟、谷歌、Facebook等。一場人工智慧技術的挑戰已經開始。人工智慧技術的發展前景廣闊啊,但是就目前來說人工智慧領域也面臨著不小的挑戰和難題。
讓機器理解人類自然語言
雖然人工智慧發展很快,人工智慧學術進步,一些人工智慧擁有深度學習演算法,擁有較強的語音識別和圖像識別能力。但是人工智慧還不能真正地理解我們所看、所說、所思、所想,就特么像個弱智。所以說,人工智慧的發展面臨瓶頸,如何讓機器擁有常識,熟悉我們的思維世界,這將是一項技術難題。國外,比如Facebook研究人員試圖通過讓機器觀看視頻來讓機器學習和理解現實世界。
硬體技術與軟體技術發展的差距
現在的硬體技術發展可以說相當迅速,但是我們的社會生活中還沒有普遍使用機器人助手。很大程度上是因為相關軟體技術的不成熟,使得機器缺少一個系統性的思維過程去指揮復雜的組織結構。目前人們已經開展了在這方面的研究,使機器在模擬世界中訓練來加速機器學習。
防範人工智慧被"暗箱操作"
我們知道只要是人設計出來的軟體就會有各種各樣的漏洞,人工智慧也不例外。這樣會導致黑客的攻擊行為,通過使用各種小把戲來欺騙人工智慧。而且這種漏洞一旦被居心叵測的人發現,這傢伙就會利用人工智慧進行破壞行動,後果可想而知。比如說,2016總統大選期間,俄羅斯的"假訊息活動"就是人工智慧強化的信息站的一個預演。
讓人工智慧做個"好人"
有人可能認為我們生活中可能很少看見人工智慧,但是人工智慧就在我們身邊。就比如說我們的手機,手機上有許多關於人工智慧的軟體,像siri、Alexa、微軟小冰、淘寶個性化推薦、滴滴智能出行、今日頭條新聞智能推薦、prisma人工智慧圖像處理等等。但是隨著人工智慧的發展,人們擔心人工智慧可能會帶給我們的傷害。在2017年的網路入侵防護系統機器學習會議上,人們就在討論如何將人工智慧技術控制在安全和人類倫理道德范圍內,換句話說,就是讓人工智慧成為一個"好人",能確保人工智慧技術能在關鍵行業能起到公正的決策。就如何讓人工智慧保持美好的一面。微軟、谷歌、Facebook和其他公司都在討論這樣的話題。像"人工智慧合作"一個新型非盈利組織、"人工智慧道德與行業管理基金"、紐約大學一個新的研究機構AI Now都在這方面做出了努力。AI Now最近發布報告,呼籲各國政府在刑事司法或福利等領域應堅決放棄使用不接受公眾審查的"黑箱"演算法。
5. 人工智慧負面影響
1、勞務就業問題
由於人工智慧能夠代替人類進行各種腦力勞動和體力勞動,例如,用工業機器人代替工人從事焊接、噴漆、搬運、裝配和加工作業,用服務機器人從事醫護、保姆、娛樂、文秘、記者、會計、清掃和消防等工作,用海空探索機器人替代宇航員和潛水員進行太空和深海勘探和救援。
機器人將可能引發就業市場的變動並影響人類生活。因此,將有一部分人員可能把自己的工作讓位給機器人,造成他們的下崗和再就業,甚至造成失業。
2、社會結構、思維方式與觀念的變化
人—機器的社會結構,終將為人—智能機器—機器的社會結構所取代。智能機器人就是一種智能機器。
從發展的角度看,從醫院里看病的「醫生」、護理病人的「護士」,旅館、飯店和商店的「服務員」,辦公室的「秘書」,指揮交通的「警察」,到家庭的「勤雜工」和「保姆」等等,將均由機器人來擔任。因此,人們將不得不學會與智能機器相處,並適應這種變化了的社會結構。
(5)人工智慧的道德困境擴展閱讀:
人工智慧技術的發展給人類帶來福祉,但需要謹慎地對待智能機器發展過程中可能出現的問題,尤其要考慮如何編制友好的人工智慧演算法來使智能機器按照倫理道德標准行事。
有必要把人工智慧的社會學問題提上議事日程。政府部門、科研機構和學術團體,都要把人工智慧社會學研究納入相應計劃,研究解決對策與辦法。人工智慧可能出現的一些負面效應或新問題,如利用人工智慧技術進行金融犯罪,智能駕駛車輛需要出台相應的交通法規等。
因此,需要建立相關的政策和法律法規,避免可能風險,確保人工智慧的正面效應。只有人工智慧應用得好、把握得好,才能確保人工智慧不被濫用,確保人工智慧是天使而不是魔鬼。
6. 人們對人工智慧的快速發展產生了哪些憂慮
中國人工智慧發展迅猛,政府對人工智慧也是很重視的。人工智慧的專業方向有科學研究、工程開發、計算機方向、軟體工程、應用數學、電氣自動化、通信、機械製造,人工智慧的前景雖然很好,但是它的難度系數很高,目前人工智慧的人才需求量很大,相比於其他技術崗位,競爭度降低,薪資相對來說是較高的,因此,現在是進入人工智慧領域的大好時機。人工智慧的發展前景還是很不錯的,原因有幾點,智能化是未來的重要趨勢之一、產業互聯網的發展必然帶動人工智慧的發展、人工智慧技術將成為職場人的必備技能之一。
目前,人工智慧在計算機領域得到了廣泛的重視,我相信在未來的應用前景也會更加廣泛。
7. 為什麼人工智慧面臨的最大挑戰是道德問題
該問題與一個歷史事件很相象:
哥白尼的「日心說」,導致了建立在版「地心說」上的一切觀念隨權之崩塌。包括科學與宗教。
人工智慧將導致建立在「只有人才會思考」這一觀念上的所有概念崩塌。包括以此為基礎的道德、宗教。
對於一個與自己相同的異類,為了方便思考,假設「人工智慧」是會思考的「猴子」,而且是人類創造出來的,並且會很快超過人類,視人類為草芥的生物。
人們應該對「它」示好,還是對「它」打壓?
「它」會不會為了生存,害怕被人打壓,而採取先手打壓人類?
假如,它的智能完全復制於一個自然人,二者同時存在,那麼,我是誰?誰是我?
假如,人工智慧通過精確的計算,判斷某個人A,在未來某個時間點,99.9999999%的可能,會做出殺死某人B。那麼,在A殺死B之前,他到底有沒有違法??我們有沒有資格抓他?
以現有的道德理論來說,我們無權抓他,那麼,對於B來說,一個接近於100%會殺死自己的人,在無時無刻想著殺自己,而法律與道德卻無動於衷。法律何在?人心道德何在?
若我們決定抓他,那麼對於A來說,我仍然是有0.0000001%的可能是無辜的,你們憑什麼以我未來可能會做某事而抓我?