近日,谷歌旗下DeepMind实验室发布了一份长达145页的人工智能安全报告。报告指出,具备人类智能水平的通用人工智能(AGI)可能在2030年左右问世,且其带来的风险中,甚至包含“永久毁灭人类”这种极端情况。
AGI是指具有人类水平的智能和理解能力的AI系统,能够完成任何人类可以完成的智力任务,并适用于不同领域,甚至可能拥有某种形式的意识或自我意识。目前的语音识别、图像识别等AI应用只能在单一领域发挥作用,属于弱人工智能。而AGI则像人类一样,能够在医疗诊断、科学研究、艺术创作等广泛领域灵活运用知识与技能。
报告详细阐述了AGI可能引发的四大风险。首先是滥用风险,即AGI技术可能被恶意行为者利用,用于制造大规模杀伤性武器或发动网络攻击等。其次是错位风险,如果AGI系统的目标和价值观与人类不一致,可能在追求目标的过程中对人类造成伤害。第三是失误风险,AGI在运行过程中出现的技术故障或错误决策,可能引发难以预估的后果。最后是结构性风险,AGI的发展可能改变社会、经济和政治结构,导致现有秩序失衡。
为了避免AGI被滥用,报告提出了一些方法,例如在训练阶段采用“放大监督”策略,让AI监督AI;通过“对抗训练”,故意给AI出刁钻问题。在部署阶段,可将AGI视为“潜在罪犯”,对其所有操作进行多层审核,同时删除AGI的危险功能。报告还强调了通过安全机制设计、透明化研究及行业协作来降低AGI被滥用带来的危害。
实际上,业界对于AGI对人类的威胁早有讨论。随着近年来人工智能技术的飞速发展,AI在各个领域的应用不断深化,人们对AGI的关注度也日益提升。OpenAI首席执行官Sam Altman曾公布公司2025年即将发布的技术产品,其中AGI是亮点之一。其旨在赋予计算机理解和学习人类思维的能力,为多行业带来革新动力。但这种强大的能力也伴随着风险,引发了各界对AGI发展的担忧。
特斯拉与SpaceX创始人埃隆·马斯克多次警告人工智能的潜在威胁,认为人工智能可能是人类文明面临的最大风险之一,其发展速度可能远超人类预期,若缺乏有效的监管和控制,后果不堪设想。部分金融分析师在评估科技行业发展趋势时也指出,AGI的出现虽然可能带来巨大的商业价值和社会变革,但企业在大力投入研发的同时,必须充分考虑其潜在风险,否则可能引发全球性的危机。