機器人倫理準則官方解析:不要歧視,不做傷害人的事
matthew 2016.09.21 08:18 人工智能概念股
美國著名小說家艾薩克·阿西莫夫(Isaac Asimov)曾為我們指出過機器人的基本行為規(guī)則:不傷害人類、服從命令和保護機器人自己。最近,英國標準研究院( BSI )發(fā)布了一份更為官方的機器人倫理準則文件,旨在幫助設計者創(chuàng)造合乎倫理的機器人。
BSI 發(fā)布的這份文件叫作“BS8611 機器人和機器人設備”,這是一份用干巴巴的語言編寫的健康和安全手冊,但里面所強調的不良場景可能直接取自科幻小說。機器人欺騙、過度依賴機器人和自主學習系統(tǒng)可能會超出他們的權限,這些都是制造商應該考慮到的危害。
這份文件是在牛津?Social Robotics and AI?大會上提出的,是英格蘭大學的機器人技術教授 Alan Winfield 指出,這些準則代表了將倫理價值嵌入機器人和人工智能的第一步。這是第一個公開發(fā)表的、針對機器人設計的倫理標準,比阿西莫夫的法則更為復雜,提出了如何對機器人的倫理風險進行評估。
BSI 文件的內容一開始是一系列寬泛的倫理原則:設計機器人的目的不應該是為了殺死或傷害人類;負責任的主體應該是人,而不是機器人;要能夠找出對機器人及其行為負責的主體。
接下來的內容重點強調了一系列更具爭議性的問題,比如同機器人建立感情紐帶是否可取,尤其是設計的機器人是用來與兒童或老年人進行互動的。
謝菲爾德大學機器人和人工智能名譽教授 Noel Sharkey 舉了一個例子,說明機器人可以無意地欺騙我們。在一個幼兒園配備有小機器人,孩子們很喜歡它,認為機器人比他們的家庭寵物認知性更強,實際上就是和機器人建立了情感紐帶。
該準則表明設計者應該致力于透明化,但科學家們卻說,在實際操作中這可能是非常困難的,因為目前 AI 系統(tǒng)的問題,特別是這些深度學習系統(tǒng),是不可能知道為什么他們會做出這樣或那樣決定的。比方說,深度學習代理在完成某一項具體任務時,并不是按設定的方式;他們會嘗試數(shù)百萬次,來找到一個成功的策略,以此來執(zhí)行任務——有時候這些策略是設計者都預想不到和無法理解的。
該準則甚至暗示了可能會出現(xiàn)帶有性別歧視或種族歧視的機器人,并警惕大家:這些機器人可能會缺乏對文化多樣性和多元主義的尊重。這一現(xiàn)象已經出現(xiàn)在警察所使用的技術上,比方說機場應用該類技術識別出可疑的人,并將其進行攔截,這就是一種種族歧視的評判。
并且,深度學習系統(tǒng)基本上使用互聯(lián)網上的全部數(shù)據(jù),但問題是,這些數(shù)據(jù)是帶有傾向性的,就像這些系統(tǒng)傾向于支持中年白人男子。所有人類的偏見都有可能被納入系統(tǒng),這非常危險。
未來的醫(yī)學應用程序還存在一種風險,即在診斷女性或少數(shù)民族患者時,系統(tǒng)可能不太熟練。已經有這樣的例子:語音識別軟件在理解女性時表現(xiàn)較差;面部識別項目在識別黑人面孔時,不像識別白人那樣簡單。
Sharkey 建議給機器人也安裝一個黑匣子,可以打開和檢查。如果一個機器人存在種族歧視,可以關掉它,并將它撤回。
該文件也關注了更廣泛的社會問題,如對機器人的過渡依賴,但沒有就如何處理這些問題,給設計者一個明確的引導。
當您在一定時間內使用一個機器,它給你正確的答案,你就會信任它,,并且變得懶惰,但是之后它提供給你的東西可能會非常愚蠢,這也是過度依賴自動化的一種形式。
也許著眼于更遙遠的將來,BSI 文件也提醒我們警惕流氓機器的危險,這些機器可能開發(fā)或修訂行動計劃,可能帶來無法預料的后果和潛在法律責任。
BSI 制造業(yè)主管 Dan Palmer 表示,機器人和自動化技術的應用,能夠使各種流程更有效率、更靈活,適應性更強,是制造業(yè)增長的重要支柱。但是,反人性或過分依賴機器人等倫理問題和危害是確實存在的,并亟待解決。這份關于如何處理各種機器人應用程序的準則,將幫助設計者和機器人用戶以及自動化系統(tǒng)建立一個新的工作領域。
人工智能概念股:埃斯頓、科大智能、漢王科技、江南化工、華東數(shù)控、和而泰、中科曙光、永創(chuàng)智能、北京君正、通富微電、永創(chuàng)智能、勁拓股份。
人工智能概念股
那么問題來了:最值得配置的人工智能概念股是哪只?即刻申請進入國內首個免費的非公開主題投資交流社區(qū)概念股論壇參與討論!
申明:本文為作者投稿或轉載,在概念股網 http://m.chiang1015.com/ 上發(fā)表,為其獨立觀點。不代表本網立場,不代表本網贊同其觀點,亦不對其真實性負責,投資決策請建立在獨立思考之上。