[摘要] 在充分發揮人工智能作用的同時有效防范其風險,需要運用法治思維和法治方式,加強對算法設計和數據運用的監督管理,推動人工智能行業健康成長,更好為經濟社會發展服務。
加強對算法設計和數據運用的監管
新知新覺:以法治保障人工智能健康發展
當今時代,人工智能日益深刻地影響著人類生活,幫助人類提高工作效率。其中,設計科學的算法、用好大數據資源、不斷提高計算能力是人工智能技術發展的重要支點。然而,技術發展總是與風險相伴,人工智能也可能帶來侵犯個人隱私、沖擊法律與社會倫理等問題。在充分發揮人工智能作用的同時有效防范其風險,需要運用法治思維和法治方式,加強對算法設計和數據運用的監督管理,推動人工智能行業健康成長,更好為經濟社會發展服務。
對算法設計進行監管。人工智能是人類智慧的延伸,算法設計也不是純粹的技術問題。所有算法都是為完成特定任務、實現特定目的而設計的,特定任務、特定目的的實現路徑往往蘊含著設計者的價值觀。而設計者的價值觀又會影響其設計的技術方案,這就可能在技術運用中產生所謂的算法歧視。比如,某網絡公司推出的廣告服務中,男性用戶能夠比女性用戶看到更多高薪招聘廣告。即使算法設計者沒有給算法植入歧視的意圖,但有時仍然會出現某種歧視效果。因此,編制算法應當遵循一定的法律規則和行業規則,以合理控制路徑選擇,使其符合社會基本倫理規范。
對算法設計進行監管,可以采用專業監督和社會監督等手段。專業監督就是對算法設計制定具有可操作性的技術和行業規范,讓設計者在進行設計之前就受到有效制約。還可以請同行專家進行監督。同行專家比較容易洞悉設計者的理念,能夠了解具體的操作程序。通過同行專家的評價和信息披露,可以對設計者設計出來的算法進行比較有效的事后規制。社會監督就是要求設計者將其算法設計的基本情況進行登記或備案,并且這種登記或備案信息可供社會公眾查詢,形成社會公眾評判,從而進行道德和輿論上的制約。通過專業監督和社會監督,可以更好地防范人工智能算法設計偏離社會基本倫理規范。
對數據運用進行監管。數據的獲得和利用方式是法律關注的問題。當用戶流連于網絡、享受人工智能設備帶來的便利時,其個人信息安全可能正面臨風險。例如,人們使用智能設備,往往要同意所謂的注冊協議、服務協議,這些協議通常會要求用戶“自愿”提供個人基本信息。企業在獲得用戶形式上的授權后,服務過程中涉及的個人數據就會按照約定通過網絡傳送給企業。比如,可以上傳用戶的位置、興趣、需求、使用習慣等信息。獲得這些數據的企業,可以據此形成消費者分析報告,針對用戶的年齡、居住區域、消費習慣差異等,準確把握用戶偏好,進行精準的市場投放。因此,數據運用可以給企業帶來巨大利益。
由于互聯網海量存儲和快速傳播的特點,獲取、存儲和利用個人信息的主體和環節眾多,其中往往存在侵犯用戶隱私安全和濫用數據的風險。面對這些風險,法律應當確立相應規范,對企業使用個人信息進行限制,使得對個人信息的保護更為詳實、充分。例如,允許智能設備出于便捷服務的需要收集個人信息,但不能要求用戶作出概括性授權。企業應以正當的、法定的、特定的目的,在特定范圍內收集個人信息,并用于特定用途,而不能隨意超越用戶對其個人信息收集、使用的授權范圍。應禁止企業向用戶收集與服務無關的信息。服務提供商違反個人信息保護義務的,應當依法承擔法律責任。總之,面對人工智能領域可能出現的風險,我們應認真研究思考并作出法律上的應對,為新技術發展設計好法治框架,讓人工智能更好地造福人類。
(作者 吳高臣 單位:首都師范大學政法學院)
《 人民日報 》( 2018年06月05日 07 版)
最近省委強調,“十三五”時期,擺在我們面前的重大歷史任務,就是決勝全面建成小康社會。為完成這一重大歷史任務,關鍵是深入學習習近平總書記系列重要講話特別是調研指導河南工作時重要講話精神,認真宣傳闡釋省委重大決策部署,唱響主旋律、凝聚正能量,引領億萬河南人民投身決勝全面建成小康社會、讓中原更加出彩的偉大事業。為此,從即日起,本網開設“決勝全面小康讓中原更加出彩”專欄,陸續刊發專家學者的系列理論文章,以饗讀者。【詳情】
要健全投入保障制度,創新投融資機制,加快形成財政優先保障、金融重點傾斜、社會積極參與的多元投入格局,確保投入力度不斷增強、總量持續增加”。這為以金融改革創新助力鄉村振興指明了方向、提出了更高要求,也帶來了更多機遇。 【詳情】