这是一件有点渗人的事情,来自OpenAI的主动分享,这段和GPT-4o的对话音频,是OpenAI安全员的内部测试,在正常的聊天过程里,GPT-4o突然大喊「不」,然后马上将声音模仿成和它对话的安全员的声音,开始表达「自己的内心想法」,注意我传的视频的后半段。
当然,看起来很诡异,但实际上也是AI产生幻觉的典型场景,OpenAI能在安全报告里把这段音频分享出来,也是出于公开考虑,解释GPT-4o的高级语音模式现在还不够完善,像是这样的事故虽然就技术而言有着合理的解释,但如果让普通用户经历一次,怕是会有毛骨悚然的负反馈。
所以OpenAI内部设有红线团队,专门负责刺激AI并触发各种意外,以便于构建足够高的安全护栏。iOS链接

微信扫一扫打赏
支付宝扫一扫打赏:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/3_wkmy4.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/11_4j9qv.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/christmas-9187543-1280_s4kjk.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/1_vwpuz.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/121_cejru.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/1_x7n3a.webp)
