「人工智慧與法律」對AI產品經理有何實際借鑒意義

前言

AI和法律、倫理、安全等方面的交叉領域,我個人一直是比較關注,因為一方面,這些基礎設施會對人類產生很大影響,並直接影響部分AI領域落地的時機,另一方面,對於AI產品經理來說,在認知深度和廣度方面,需要吸取這種跨領域信息,並且還要有能力將看似high level的感性/文科觀點落地成非常具體的產品體驗feature

「人工智慧與法律」對AI產品經理有何實際借鑒意義

目錄

一、案例 | AI應用時面臨的法律問題和風險

二、現狀 | 各國對AI法律政策問題的探索

三、未來 | AI可能如何影響法律

四、落地 | 以上內容對AI產品經理有何實際借鑒意義

五、附錄 | 相關資料推薦(2本書籍、7篇文章、5個相關產品/公司)


一、案例 | AI應用時面臨的法律問題和風險

1、圖像識別領域

1)種族歧視問題:谷歌公司的圖片軟體曾錯將黑人的照片標記為「大猩猩」。

2)用戶隱私保護問題:2011年,Facebook就曾因其「人臉識別和標記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式」被訴,隨後又因「採集面部特徵前未能明確提醒用戶並徵得用戶同意」而遭到愛爾蘭和德國有關部門的調查。

註:儘管Facebook辯稱默認開啟該功能是因為用戶通常不會拒絕進行人臉識別,並且用戶有權隨時取消這一功能,但德國漢堡市數據保護與信息安全局堅持Facebook的面部識別技術違反了歐洲和德國的數據保護法,Facebook應刪除相關數據。最終,Facebook被迫在歐洲地區關閉了人臉識別功能,並刪除了針對歐洲用戶建立的人臉資料庫。

2、語音識別領域

模擬人聲詐騙:有朝一日,如果TTS技術效果非常好了,可能會有人用假的聲音去詐騙,比如模仿子女的聲音,給其父母打電話……

3、自然語言處理領域

AI被人「教壞」:2016年3月23日,微軟的人工智慧聊天機器人Tay上線一天就被緊急下線,因為她被用戶「教壞」了——她成了一個集反猶太人、性別歧視、種族歧視等於一身的「不良少女」。

「人工智慧與法律」對AI產品經理有何實際借鑒意義

4、廣告投放領域

種族歧視問題:研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現暗示具有犯罪歷史的廣告。


二、現狀 | 各國對AI法律政策問題的探索

1、知識產權

國際標準化組織IEEE在其標準文件草案《合倫理設計:利用人工智慧和自主系統(AI/AS)最大化人類福祉的願景》中提出了一個基本原則:如果AI依靠人類的交互而實現新內容或者發明創造,那麼使用AI的人應作為作者或發明者。

2、隱私和數據保護

在2016年通過的《一般數據保護條例》(簡稱GDPR)中,歐盟就加強了個人隱私和數據保護,其中關於用戶畫像等自動化決策的規定,將對基於大數據的互聯網行業實踐產生重大影響,即用戶有權拒絕企業對其進行畫像等自動化決策,而且用於用戶畫像的數據不能包括人種或者種族起源、政治意見、宗教或者哲學信仰、商會會員、基因、生物特徵、健康狀況、性生活等特殊類別的個人數據。這將對個性化服務的提供產生重大影響。

監管部門和司法機關對透明性和舉證責任的要求,與機器學習結果的不確定性和演算法保密要求之間,存在著一種結構性的緊張關係。……2016年阿肯色州發生的一起謀殺案中,警方希望獲取Alexa語音助手收集的語音數據,該請求遭到了亞馬遜公司的拒絕,理由是警方沒有出具有效的法律文件。

3、標準化建設

美國在去年出台的《聯邦自動駕駛汽車政策》、《美國國家人工智慧研發戰略計劃》等報告中,也要求加強並統一技術、數據使用、安全等標準建設,避免造成碎片化的問題,影響人工智慧研發和應用。

4、「阿西洛馬人工智慧原則」(Asilomar AI Principles)

2017年1月,在美國加州Asilomar召開的「阿西洛馬會議」上,由「生命未來研究所」(Future of Life Institute,FLI) 牽頭,844名AI專家聯合簽署了「阿西洛馬人工智慧原則」(Asilomar AI Principles)(23條),其核心思想是Beneficial AI,有人解讀為 「為了人和人類的AI」。


三、未來 | AI可能如何影響法律

1、有人預測,在強人工智慧和超人工智慧階段,現有法律已經基本無法直接套用,人工智慧將對傳統法律體系產生巨大的衝擊和顛覆。越來越多的極其複雜的新問題將迅速出現,成文法將會萎縮甚至消亡。

2、未來的人們在作出法律決定時,他們既不需要檢索法律,也無須理解法律,更無須權衡行為的合法性,他們所遵循的不過是經由人工智慧優化了的微指令而已。更多內容,詳見《人工智慧對法律提出了哪些挑戰?》。

3、如果人工智慧的歧視行為給用戶造成了實際或精神損害,相關的法律責任應當首先由人工智慧服務的最終使用者承擔,人工智慧開發者有過錯的,最終使用者承擔責任后可以向開發者追償。

在判斷開發者過錯程度時,可能需要區分不同演算法:如果技術開發者主動設立了演算法中的規則,那麼對最終出現的歧視風險預見和控制程度也更高,如果最終因系統的「歧視」或者「偏見」損害了第三方的合法權益,難辭其咎。但如果採取的深度學習等演算法,由系統自身探索並形成規則,所以開發者對歧視風險的控制程度是比較低的,主觀惡意和過錯都較小,可能具有一定的免責空間。

更多「事故責任和產品責任」相關的探討,詳見《人工智慧發展面臨的法律挑戰》。


四、落地 | 以上內容對AI產品經理有何實際借鑒意義

1、行業前景判斷

比如自動駕駛,由於法律、倫理、安全,以及道路基礎設施等問題,短期內肯定是不可能大規模普及民用的。(當然,以前也說過,卡車的自動駕駛,短期內是可以做的)

多說一句,科技圈公司,更多面臨生存壓力,首先考慮賺錢,所以倫理、安全、法律等問題的優先順序不高——這些問題,至少在行業早期,需要由政府、高校、學術界來推動

2、產品理念和需求討論時,需要check倫理問題,足夠警惕。

這是因為人工智慧系統並非表面看起來那麼「技術中立」,如果輸入的數據代表性不足或存在偏差,訓練出的結果將可能將偏差放大並呈現出某種非中立特徵,比如歧視。

所以,最好將倫理委員會常態化,研究產品中的倫理問題及其影響。比如,Google DeepMind、Lucid AI等機構已經設立了倫理審查委員會。該審查委員會由具有不同知識背景和經驗的專家組成,在審查時需要參考一定的行業標準,並最大限度地考慮安全和倫理問題。

3、產品思路:AI輔助人工,不能自行決策。

在重要領域,不能將AI的運算結果當然作為最終且唯一的決策依據。例如在關於人工智慧醫療輔助診斷的規定中,就明確了人工智慧輔助診斷技術不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質的臨床醫師確定。

4、產品體驗細節設計

1)充分考慮女性、兒童、殘疾人、少數族群等易被忽視群體的利益,並對道德和法律的極端情況設置特別的判斷規則。特別是聊天對話類產品。

2)體驗流程中,如果涉及隱私,需要「明確提醒用戶並徵得用戶同意」,以及「告知用戶收集XX隱私信息的期限和方式」,而且,用戶有權(有操作入口)拒絕企業對其進行畫像等自動化決策(即,不能先斬後奏,讓用戶先使用、然後再關閉相關功能)。

「人工智慧與法律」對AI產品經理有何實際借鑒意義

具體設計細節示例

另外分享一點,AI正在快速進入司法領域(「智慧法庭建設」),「截至今年6月,超過100家法院應用了科大訊飛智慧法庭庭審系統……阿里雲的語音技術已快速滲透進300多家法院、6000多個法庭。而今年夏季才入場的騰訊和國雙科技,在短短几個月時間中,至少與40家法院達成了合作。」詳見《保衛科大訊飛》 。


結語

數據科學家凱西•歐尼爾在其著作《數學武器:大數據如何加劇不平等、威脅民主》中,將造成歧視、個體損害等不利後果的人工智慧稱為「殺傷性數學武器」(Weapons of Math Destruction),認為因其不透明性、規模效應及損害性而應當引起足夠關注。

我想說的是,作為AI產品經理和先行者,我們應該抱著責任感,甚至悲憫、敬畏之心來真正重視AI的倫理和法律問題,因為這些真的會影響我們和後代的未來。


附錄一:相關資料推薦

1、2本書籍

數學武器:大數據如何加劇不平等、威脅民主》和《發明倫理:科技和人類未來》,獲評《麻省理工科技評論》2016年最佳圖書,涉及技術性失業、致命性自主武器、演算法公平、道德判斷、價值一致性等AI倫理問題。

2、7篇文章

1)20171206-《從律師到法律機器人,法律行業未來二十年的機遇和挑戰 | AI觀察

2)20170805-《法律人工智慧十大趨勢|AI觀察

3)20170612-《全球視野:人工智慧的前沿法律政策問題思考

4)20170413-《2017人工智慧:技術、倫理與法律研討會(AITEL2017)》(含內容紀要和與會專家名單)

5)20170320-《人工智慧法律服務的前景與挑戰| AI觀察

6)20170106-《人工智慧倫理法律問題最全解讀:IEEE發布首份人工智慧合倫理設計指南

7)20161009-《阿里研究院聶東明:人工智慧或將徹底顛覆人類現行法律體系

3、5個「AI+法律」相關的產品/公司

1)ROSS。AI+法律領域,全球最知名&有代表性的創業公司,詳見《Ross Intelligence:世界首個人工智慧律師是如何煉成的?

2)DoNotPay。在英國,一款名為DoNotPay的機器人律師可以幫助用戶挑戰交通罰單並準備所需的法律文件,現在已經擴大到了政府住房申請、難民申請等法律服務。詳見《免費法律機器人DoNotPay能處理1000種案件!

3)法里。北京創業公司,詳見《原人人網總經理創業,研發AI機器人可解答90%離婚法律問題,半年獲得兩輪投資》 ;官網

4)藍燈魚Lanternfish。今年在香港成立的公司,主要領域是專利(涉及NLP技術)和商標(涉及CV技術)兩方面;官網

5)ULegal(有法務)。騰訊投資的互聯網法律科技公司,創始人趙小彬(Marcus)是前騰訊微信法務團隊創始人,致力於通過法律科技手段,探索法律服務創新和產品化的新思路。公眾號「有法務」、官網 ,詳見《ULegal 從成本、效率著手,為B端企業提供法務支持》。

附錄二:阿西莫夫機器人三定律的英文原文

Law Ⅰ: A Robot may not injure a human being or, through inaction, allow a human being to come to harm.

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;

Law Ⅱ: A robot must obey orders given it by human beings except where such orders would conflict with the first law.

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;

Law Ⅲ: A robot must protect its own existence as long as such protection does not conflict with the first or second law.

第三定律:機器人在不違反第一、第二定律情況下要儘可能保護自己的生存。

說明:這三條法則實際是把機器對人的服從作為機器的設計和製造的原則,並沒考慮具有「自主能力」、甚或「自我意識」等超級人工智慧的問題。


註:飯糰「AI產品經理大本營」 ,是黃釗hanniman建立的、行業內第一個「AI產品經理成長交流社區」,通過每天乾貨分享、每月線下交流、每季職位內推等方式,幫助大家完成「AI產品經理成長的實操路徑」,詳情可見 http://fantuan.guokr.net/groups/219/ 。

---------------------

作者:黃釗hanniman,圖靈機器人-人才戰略官,前騰訊產品經理,5年AI實戰經驗,8年互聯網背景,微信公眾號/知乎/在行ID「hanniman」,飯糰「AI產品經理大本營」,分享人工智慧相關原創乾貨,200頁PPT《人工智慧產品經理的新起點》被業內廣泛好評,下載量1萬+。



← 返回文章列表