(資料圖)
原標題:規范人工智能須“防”“護”并重
最近,人工智能產品ChatGPT橫空出世。由于具有語言理解和文本生成能力,特別是能夠從事論文寫作、翻譯以及制作司法裁判文書等工作,該產品引發了人們對人工智能在經濟社會發展中應用的廣泛討論。與此同時,我國工業和信息化部等部門聯合印發了《“機器人+”應用行動實施方案》,明確了人工智能機器人應用的10大重點領域,提出推動各行業、各地方結合行業發展階段和區域發展特色,開展“機器人+”應用創新實踐;搭建國際國內交流平臺,形成全面推進機器人應用的濃厚氛圍。這都預示著人工智能加快應用的時代正在到來。
人工智能作為一種戰略性新興技術,其蓬勃發展和廣泛應用,將塑造和賦能越來越多的行業、領域和應用場景,形成“人工智能賦能+”效應,為經濟社會發展注入強勁動能。不過,人工智能應用是一把“雙刃劍”,它在賦能經濟社會發展的同時也可能引發風險。一是新型法律糾紛風險,比如人工智能侵權糾紛、著作權糾紛、人工智能技術濫用帶來的權益糾紛等。二是道德風險。人工智能不能進行價值判斷,但它是在研發人員價值觀念支配下設計開發出來的,容易受研發者秉持的價值觀念影響。三是人工智能技術不完善造成的社會公害風險,比如算法歧視、泄露隱私信息等。對此,必須加強對人工智能潛在風險的研判和防范,確保人工智能安全、可靠、可控。
在規范策略上,應堅持規制與保障并重。一項新技術從研發到進入市場,再到融入社會生產、生活,產生風險是難以避免的,不能因為風險而放棄新技術的研發和應用。理想目標應是把風險最小化,把技術獲利最大化。這就要求法律和政策做到規制與保障并重。要通過法律與政策手段解決人工智能引發的風險,實現有序發展;同時,要確保人工智能創新發展,更好賦能經濟社會。不過,規制與保障之間可能存在價值沖突,規制不當可能扼殺人工智能的創新發展,必須審慎地處理好二者之間的關系。
在規范手段上,注重軟性引導與硬性約束同向發力。應根據人工智能應用產生風險的原因,有針對性地采用不同規范手段。對人工智能因技術不完善引發的風險,主要依靠軟性規范。軟性規范具有倡導性、靈活性強的特點。可以通過制定指南或行業自律等方式引導技術向善,防范潛在風險發生。這是防范人工智能風險不可或缺的手段。
對濫用人工智能技術引發的風險,則要依靠硬性約束。硬性約束規定明確,可操作性強,能夠為人們如何行為提供具體指引,并且有強制力保障。隨著人工智能廣泛應用于各行業,濫用人工智能技術多發頻發,這就需要通過硬性約束,規范治理人工智能濫用問題。目前,我國專門針對人工智能技術濫用而出臺的法律數量少、位階低,亟需加大立法步伐。
在規范方式上,強化政府與企業治理協同,相輔相成,相互保障。具體而言,政府應扮演人工智能發展政策的制定者、治理議程的設置者以及法律法規實施的監督者等角色。企業是人工智能技術、產品或服務研發和使用的主體,也是發展人工智能的責任主體,必須擔負起人工智能風險防范的社會責任。應加強人工智能技術企業間的合作,依靠技術手段防范人工智能風險。(楊福忠)
關鍵詞:
責任編輯:Rex_05