當下,人工智能(AI)的快速發展,超乎想象。數據顯示,2025年,我國人工智能企業數量超6000家,AI核心產業規模預計突破1.2萬億元,同比增長近30%;我國成為全球AI專利最大擁有國,占比達60%。然而,從世界范圍來看,與產業蓬勃共生的,還有不時出現的新問題與法律糾紛。一面是千帆競發的創新浪潮,一面是破規越界的各類亂象。要在人工智能發展中興利除弊,就必須堅持“AI為人賦能,人為AI賦魂”。
人工智能是新一輪科技革命與產業變革的核心引擎,其正以前所未有的深度重塑社會生產與生活方式。以生成式AI為例,它以“智能助手”之形融入通信、辦公、創作等諸多場景,極大地提升了效率與體驗。但技術的快速迭代,也常將倫理與規則拋在身后:AI換臉濫用如何規制?生成內容的權利屬于誰?是否應強制標識?這些問題,既叩問技術倫理的底線,也迫切呼喚法治的回應。
技術出題,法治作答。我國已初步構建起適應生成式AI發展的規范框架:新修訂的網絡安全法既鼓勵創新,也強調要完善人工智能倫理規范、加強風險監測評估和安全監管;《生成式人工智能服務管理暫行辦法》明確要求提供和使用生成式人工智能服務,需堅守社會主義核心價值觀;《人工智能生成合成內容標識辦法》則建立起為生成式AI生成合成內容添加標識的制度。不難發現,這種“包容審慎”的監管理念,既沒有因噎廢食限制技術創新,也沒有放任自流留下監管空白,而是通過明確權利與義務的范圍、劃定禁止與允許的邊界,讓技術在法治的沃土上有序生長。


