随着国际数据公司(IDC)预测全球人工智能(AI)市场规模将在2025年达到1.2万亿美元,我们不得不面对一个不容忽视的事实:AI技术的飞速发展可能带来前所未有的安全风险。为此,全球科学家们紧急呼吁国际社会加强监管合作,以确保AI技术的健康发展。
中外科学家共同发出警告,将我们目前所处的时期比作人工智能的“奥本海默时刻”,意味着AI技术的发展可能会带来重大变革和潜在风险。一项美国研究显示,42%的人无法准确区分AI与人类,这一数据突显了AI技术的混淆性和潜在危险。
北京和加州的顶尖科学家们对通用人工智能(AGI)的发展表示担忧,并强烈建议政府介入监管AI的发展。他们提议建立一个全球AI安全监管组织,以协调全球30多个主要研究中心的工作。
科学家们认为,AI不仅是一种新技术,更是一个需要特别关注和管理的新物种。据专家估计,人类因AI而面临灭绝的风险在10%-25%之间,这一数字令人震惊。
麻省理工学院(MIT)教授Max Tegmark等人强调,人类距离第一个AI核弹的诞生可能仅有几年时间,这一言论突显了AI安全问题的紧迫性。AI技术若被用于不良目的,如自主复制、权力寻求、协助武器制造、网络安全和欺骗等,后果将不堪设想。
为此,科学家们建议建立全球性的AI安全监管组织,制定统一的安全标准,并实施真正的安全监管措施,以法律作为后盾。他们提出,AI安全应有明确的界限,如《北京AI安全国际共识》所划定的五条红线,要求AI系统不得逾越。
中国已实施严格的AI安全法规,欧盟也在2024年3月通过了《人工智能法案》。30余位专家签署《北京AI安全国际共识》,为AI的发展划定了五条不可逾越的红线,包括自主复制、权力寻求等。
著名科学家姚期智提出,未来人类可能会建立一套类似密码学的基础科学工具,用于处理知识的生产和分配。Max Tegmark强调,如果不安全地发展AI,可能会导致所有人都是输家,只有机器会赢。
总之,人工智能技术的健康发展亟需全球性的监管合作和统一的安全标准。通过这些措施,我们可以确保AI技术为人类带来的是利益,而不是风险。