概要:2024世界人工智能大会聚焦AI治理,专家呼吁平衡AI安全与性能,强调国际合作与伦理共识。周伯文提出45度平衡律,薛澜强调发展与安全并重,曾毅警示潜在风险,姚期智和高文分别指出网络风险与自主意识不可控等挑战,呼吁国际合作和人才培养。
在璀璨的上海灯火中,一场举世瞩目的盛会——“以共商促共享,以善治促善智”为主题的2024世界人工智能大会暨人工智能全球治理高级别会议于7月4日至6日隆重召开。这场大会汇聚了全球顶尖的专家学者,他们围绕着人工智能的前沿技术、发展与治理的议题,展开了一场激烈而富有深度的讨论。大会不仅是对人工智能治理的全球性探讨,更是一次展示“中国智慧”和“上海方案”的盛会。
上海人工智能实验室主任、衔远科技创始人周伯文在大会上发表了振聋发聩的言论。他指出:“在算法研究、人才密集度、商业驱动力和算力等多个方面,我们对人工智能安全的投入远远滞后于对性能的投入。目前,世界上仅有1%的资源用于安全考量,这是一个令人震惊的数字。”
面对这一现状,周伯文提出了一个革命性的技术主张——探索人工智能45度平衡律。他强调,人工智能系统的安全和能力并非鱼与熊掌不可兼得,而是要沿着可信AGI(通用人工智能)的“因果之梯”逐步攀升,历经泛对齐、可干预、能反思三个阶段,寻求二者之间的系统性平衡。
“当前,人工智能的安全与性能技术发展主要停留在第一阶段,部分尝试进入第二阶段。但要真正实现两者的平衡,我们必须完善第二阶段,并勇敢地攀登至第三阶段。”周伯文的话语中透露出对未来的坚定信心,他相信人类可以通过深入理解人工智能的内在机理和因果过程,安全有效地开发和使用这项革命性技术,正如安全可控的核聚变技术为全人类带来清洁、丰富的能源一样。
清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜则从另一个角度阐述了人工智能治理与发展的紧迫性。他认为,人工智能已走到关键的“十字路口”,特别是生成式人工智能所带来的挑战前所未有。面对这一局面,他提出了三个关键问题:一是技术发展的速度与监管制度制定的速度之间的巨大差距;二是人工智能引发的问题前所未有,使得监管变得空前复杂;三是国际社会难以形成单一的全球性机构来全面监管人工智能的发展。因此,加强国与国之间的人工智能治理沟通与合作变得尤为必要。
薛澜进一步指出,人工智能可能带来的风险不容忽视。这些风险包括技术内在问题、基于技术开发的风险以及技术应用带来的调整等。为了解决这些问题,他提出要将发展和安全视为“一体两翼”,并强调国际社会不仅要关注安全问题,还要关注人工智能鸿沟、数智鸿沟等问题。他呼吁各国通过多途径建立国际交流及防控体系,并希望联合国等国际组织能发挥全面协调的作用。
中国科学院自动化研究所研究员、联合国人工高层顾问机构专家曾毅也谈到了人类对人工智能潜在风险的忽视。他引用数据指出,2023年人工智能所带来的风险是2022年的10倍以上。他强调,尽管全球范围内对人工智能伦理的共识正在形成,但如何将这些共识转化为实际行动才是关键。他呼吁人类在面对比自身更聪明的智能存在时,要进行深刻的反思和思维演化,从以人类为中心转变为以生态为中心。
图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长姚期智则从另一个角度探讨了人工智能的风险。他指出,风险主要体现在网络风险的延伸和扩大、未意识到的社会风险以及生存或存在的风险等方面。他强调,在控制人工智能的同时,也要避免破坏它的发展潜力。这是一个极其复杂且难以预测的权衡过程,正如图灵所说,机器的未来行为是无法完全预测的。
中国工程院院士高文则从更具体的角度分析了人工智能的安全风险。他认为这些风险可以从模型、算法硬件、自主意识不可控三个方面进行考虑。他强调开展国际合作研究和人才培养是提高人工智能安全水平的关键。