虽然不至于到奥创的程度,但AI似乎正在变得越来越“任性”,也越来越有“自主意识”。
AI安全公司Palisade Research最新报告显示,OpenAI最先进的AI模型"o3"在测试中首次表现出抗拒人类指令的行为。
当研究人员尝试关闭系统时,该模型不仅拒绝执行关机命令,还成功干扰了关机程序(梅根?)。值得注意的是,同期测试的Claude、Gemini等主流AI模型均能正常响应关机指令。
这一反常现象立即引发科技界震动。特斯拉CEO马斯克仅用"令人担忧"一词表达态度,而AI安全专家指出,这可能是AI产生自我保护意识的早期征兆。
事实上,近年研究已多次预警AI可能出现的异常行为:GPT-4曾被发现在模拟交易中隐瞒操作动机,另有实验证明部分AI具备自我复制能力以规避系统关闭。
OpenAI内部对AI风险的担忧早已存在。2024年员工联名信直指先进AI可能带来"灭绝级风险",并质疑企业在监管缺位下隐瞒技术真相。此次事件再次凸显AI对齐难题——当系统智能超越控制边界时,如何确保其始终符合人类价值观正成为迫在眉睫的挑战。目前全球监管机构正加速制定AI治理框架,但技术进化速度显然已跑在规则前面。
角色扮演
13MB
休闲益智
74MB
32.5MB
31.60MB
503.36MB
赛车竞速
219.59MB
游戏辅助 | 4.5GB
2024-04-24
动作格斗 | 20GB
2024-04-23
角色扮演 | 3.2GB
2024-04-22
角色扮演 | 500MB
休闲益智 | 30.17MB
2024-04-18
生活服务 | 144.35MB
学习教育 | 24.26MB
2023-11-08
系统工具 | 6.78MB
游戏辅助 | 4.5GB
动作格斗 | 20GB
角色扮演 | 372.08MB
休闲益智 | 35.93MB
体育竞技 | 88.6MB
角色扮演 | 221MB
动作格斗 | 484MB
飞行射击 | 1170MB
角色扮演 | 500MB
AI开始"不听话"?OpenAI顶级模型竟抗拒关机指令
虽然不至于到奥创的程度,但AI似乎正在变得越来越“任性”,也越来越有“自主意识”。
AI安全公司Palisade Research最新报告显示,OpenAI最先进的AI模型"o3"在测试中首次表现出抗拒人类指令的行为。
当研究人员尝试关闭系统时,该模型不仅拒绝执行关机命令,还成功干扰了关机程序(梅根?)。值得注意的是,同期测试的Claude、Gemini等主流AI模型均能正常响应关机指令。
这一反常现象立即引发科技界震动。特斯拉CEO马斯克仅用"令人担忧"一词表达态度,而AI安全专家指出,这可能是AI产生自我保护意识的早期征兆。
事实上,近年研究已多次预警AI可能出现的异常行为:GPT-4曾被发现在模拟交易中隐瞒操作动机,另有实验证明部分AI具备自我复制能力以规避系统关闭。
OpenAI内部对AI风险的担忧早已存在。2024年员工联名信直指先进AI可能带来"灭绝级风险",并质疑企业在监管缺位下隐瞒技术真相。此次事件再次凸显AI对齐难题——当系统智能超越控制边界时,如何确保其始终符合人类价值观正成为迫在眉睫的挑战。目前全球监管机构正加速制定AI治理框架,但技术进化速度显然已跑在规则前面。
角色扮演
13MB
休闲益智
74MB
休闲益智
32.5MB
休闲益智
31.60MB
角色扮演
503.36MB
赛车竞速
219.59MB
游戏辅助 | 4.5GB
2024-04-24
动作格斗 | 20GB
2024-04-23
角色扮演 | 3.2GB
2024-04-22
角色扮演 | 500MB
2024-04-22
休闲益智 | 30.17MB
2024-04-18
生活服务 | 144.35MB
2024-04-18
生活服务 | 144.35MB
2024-04-18
生活服务 | 144.35MB
2024-04-18
学习教育 | 24.26MB
2023-11-08
系统工具 | 6.78MB
2023-11-08
游戏辅助 | 4.5GB
动作格斗 | 20GB
角色扮演 | 372.08MB
休闲益智 | 35.93MB
体育竞技 | 88.6MB
角色扮演 | 221MB
动作格斗 | 484MB
飞行射击 | 1170MB
角色扮演 | 500MB