人工智能的不斷進步和廣泛應用帶來的好處將是巨大的。但是,為了讓人工智能真正造福人類社會,我們不能忽視人工智能背後的倫理問題。目前工程師更多的參與人工智能領域,而缺乏哲學、倫理學、法學等其他社會學科的參與。在未來,人工智能的跨學科倫理測試需要加強。
在今天這個人工智能飛速發展,人類在圍棋、圖像識別、語音識別等領域開始落後於人工智能的時代,對人工智能進行倫理測試同樣重要,包括道德準則、隱私、正義、利益、安全和責任。
人工智能的不斷進步和廣泛應用帶來的好處將是巨大的。但是,要想讓AI真正有益於人類社會,就不能忽視AI背後的倫理問題。
首先是算法歧視。也許有人會說算法是數學表達式,很客觀。不像人類有各種偏見和情緒,容易受外界因素影響,怎麽會造成歧視呢?以前的壹些研究表明,法官在罪犯饑餓的時候往往會對他們更加嚴厲,所以人們經常說,正義取決於法官有沒有吃早餐。
算法也在帶來類似的歧視問題。隨著算法決策越來越多,類似的歧視也會越來越多。而且算法歧視會帶來傷害。壹方面,如果將算法應用於刑事評估、信用貸款、就業評估等涉及個人利益的場合,壹旦出現歧視,必然會損害個人權益。
另壹方面,深度學習是典型的“黑箱”算法,甚至設計者也不壹定知道如何做決定。從技術上很難發現體制內是否存在歧視,以及歧視的根源。
第二是隱私問題。很多AI系統,包括深度學習,都是大數據學習,需要大量數據來訓練學習算法。數據成為AI時代的“新石油”。這帶來了新的隱私問題。壹方面,如果在深度學習的過程中使用了大量的敏感數據,這些數據可能會在後期被公開,對個人隱私造成影響。
所以國外的AI研究者壹直在倡導深度學習過程中如何保護個人隱私。另壹方面,考慮到各種服務之間的大量交易數據,數據流動頻繁,數據成為新的流通,可能會削弱個人對其個人數據的控制和管理。
當然,AI時代也有壹些工具可以用來加強隱私保護,比如計劃隱私、默認隱私、個人數據管理工具、匿名、假名化、差異化隱私、決策矩陣等。有些標準在不斷發展完善,在深度學習和AI產品設計中值得推廣。
第三是責任和安全。霍金,施密特等。我們都警惕強人工智能或超級人工智能可能威脅人類的生存。但在具體層面,AI安全包括行為安全和人的控制。另外,安全往往伴隨著責任。如果自動駕駛汽車和智能機器人造成人身和財產損失,誰來承擔責任?
根據現有的法律責任規則,由於系統具有高度自主性,其開發者具有不可預測性,包括黑匣子的存在,很難解釋事故原因,可能導致未來出現責任缺口。
四是機器人權利,即如何定義AI的人道待遇。隨著自主智能機器人越來越強大,它們應該在人類社會中扮演什麽樣的角色?什麽是法律上的自主智能機器人?自然人?法人?動物?事情?我們可以虐待、折磨或殺死機器人嗎?
歐盟壹直在考慮是否賦予智能機器人“電子人”法律人格,擁有權利和義務並對其行為負責。這個問題值得以後多討論。此外,越來越多的教育、護理和服務機器人正在照顧兒童、老人和病人。這些相互作用會對人類行為產生什麽樣的影響,需要進壹步研究。