当前,全球人工智能产业规模已达1.8万亿美元,人工智能技术在各行各业的渗透融合逐步深入,核心领域呈现三大特征:一是认知智能跨越。GPT-5等大模型在医疗诊断、法律咨询等专业领域准确率超过90%,引发教育、医疗等行业结构性变革。二是实体智能融合。美国波士顿动力的Atlas机器人已实现建筑工地全场景作业,中国“天工”机器人突破柔性抓取技术,推动制造业自动化率提升至68%。三是公共决策参与度增强。比如,美国的法院已开始试点AI量刑辅助系统,我国杭州的城市大脑3.0启动建设,迈入“AI智办”时代。
在人工智能技术不断推动颠覆性创新的同时,也给社会治理乃至人类文明带来了新问题和新挑战。主要表现在算法权力问题、真实世界中的人际关系出现“数字真空”、人类创造力的异化等。对此,要加快探索完善人工智能伦理准则、规范及问责机制,明确人工智能的价值底线。
建立完善伦理约束框架。首先要坚持立法先行,研究制定《人工智能伦理审查法》,设立算法透明度、公平性、可问责性的法定标准,对医疗诊断等高风险系统实施准入审查。其次是进行分级监管,建立分级风险清单,按照风险程度初步可分为禁止、限制和鼓励三个级别,比如,禁止AI操控核设施,限制情绪识别技术商业应用,鼓励气候预测模型开发等。
重塑技术治理体系。建立完善权力制衡机制,吸纳哲学家、社会学家(占比不低于40%)参与国家人工智能伦理和治理机构,对公共领域AI系统实施动态伦理评估。建设技术免疫工程,在自动驾驶等系统中强制植入生命优先权、公平性原则,从硬件层面约束算法逻辑。
推进全球协同治理。推动国际规则对接,在G20等框架下探索建立人工智能伦理互认机制,统一跨境数据流动、知识产权保护等标准,减少“监管套利”空间。建立完善风险联防机制,创建国际AI安全预警网络,对自主武器、基因编辑等高风险研发行为实施全球溯源追踪与联合惩戒。
总之,守牢人工智能的价值底线是事关人类文明主导权的重要课题。只有通过前瞻性的制度设计、穿透性的技术治理和包容性的社会政策,才能让人工智能真正成为照亮人类世界未来的火炬。
(作者系全国政协委员、上海航天信息科技研究院院长、华东师范大学特聘教授)