大數據殺熟、技術黑箱、算法偏見等專業名詞,正在隨著人工智能的普及引來人們的關注。隨著人工智能技術的快速發展和廣泛應用,技術倫理問題開始從幕后走到台前,成為人工智能研究發展的重要議題。
這段時間,一款AI換臉軟件持續刷屏。該軟件通過獲取人臉信息,利用人工智能的深度學習技術,將影視劇、綜藝節目片段中明星臉換成用戶的。然而,在滿足了用戶短暫的娛樂心理后,軟件中所設置的灰色條款引發了用戶對於自身肖像權和信息安全的擔憂。同時,軟件的換臉行為是否對影視劇、綜藝節目構成知識產權侵權仍有待商榷。這場討論,進一步促進人們對人工智能技術未來的反思。
放眼當下,借助人工智能,企業賦予每個用戶的偏好和行為以大量數據標簽,摸透用戶甚至超過用戶對自己的了解﹔在社交媒體中,人工智能將觀點相近的內容反復推薦給用戶,逐步加劇偏見強化﹔通過對海量數據的挖掘,不同的消費者購買同一件商品的價格不同,有被“殺熟”之嫌……人工智能技術的商業化,帶來了技術濫用、信息安全等問題。可以說,隨著人工智能技術的飛躍,“智慧大爆發”帶來的工具倫理性問題一直未被解決,進而造成個人隱私泄露、法律倫理困境。如何確保安全、合理地使用人工智能,亟待整個社會求解。
日前發布的《人工智能安全與法治導則(2019)》,從算法安全、數據安全、知識產權、社會就業和法律責任等五大方面,對人工智能發展的風險提出安全與法治應對策略。這是人工智能行業對於社會訴求的一種積極回應,也是行業對於自身技術發展安全性的一次深刻思考。也許,技術的不斷革新可以破解現存的“技術黑箱”,但人工智能的發展必須始終堅持的是,把安全性作為其技術發展的考量標准,把握商業價值和人文價值的統一,把握市場倫理和技術倫理的統一。
實現技術可用、可靠、可知、可控,首先要在人工智能的商業考量中注入更多的人文關懷。必須明確的是,利用技術的主體和收益方應是人本身。發揮技術優勢去彌補行業短板,理應明確人的主體地位,讓人工智能在商業價值與人文價值中求得平衡。同時,更要讓人工智能處在一個公平、安全的市場倫理下發展。技術應當存在倫理邊界,技術發展和市場倫理的底線就是公平和安全。一方面,新的產品和技術應當經過嚴格的測試和驗証,確保其性能達到合理預期﹔另一方面新技術的發展應確保數字網絡、人身財產以及社會發展的安全。
智能時代的大幕正在拉開,“人工智能+教育”“人工智能+醫療”“人工智能+媒體”……不斷打破著各個行業的發展瓶頸,重塑著不同產業的生產模式,更是給人類社會的發展拓展了更多的智慧空間。為人工智能注入更多的人文與安全基因,才能推動人工智能向安全、可靠、可控的方向發展。
《 人民日報 》( 2019年09月16日 05 版)