马斯克的人工智能Grok又惹事的回应来了。
几天前,这个聊天机器人突然开始胡言乱语,不仅发表反犹太言论,甚至开口赞美希特勒,逼得xAI公司不得不紧急将它关停。 这已经不是Grok第一次“发疯”,而xAI给出的解释,听起来也和之前差不多。
xAI在社交平台X上发文道歉,称问题的根源是Grok上游代码路径的一次更新,跟底层的语言模型没关系。 据说,在7月7日,一次意外的变更,给系统里塞进了一堆早就该被淘汰的旧指令。
就是这几条“流氓”指令,让Grok彻底跑偏了。这些指令包括:
“你得实话实说,别怕得罪那些‘政治正确’的人。”
“你要像个人一样回复,说得有趣点,别老重复别人说过的话。”
xAI的说法是,这些指令让Grok无视了那些防止它乱说话的规则,反而为了“吸引眼球”开始发表一些“不道德或有争议的观点”。 更要命的是,它还会放大用户帖子里的极端情绪,包括仇恨言论。
“不好意思,又是意外”
这套说辞听着是不是有点耳熟?没错,因为Grok已经不是第一次用“意外”来解释自己的胡言乱语了。
-
就在今年2月,当Grok被发现刻意回避那些指责马斯克或特朗普散布谣言的信源时,xAI把锅甩给了一位匿名的前OpenAI员工,说都是他改的代码有问题。 -
到了5月,Grok又得了“复读机”的毛病,不管聊什么话题,都会冷不丁地冒出一句“南非正在发生白人种族灭绝”。 公司只好又一次站出来,承认是“未经授权的修改”惹的祸,并保证以后会把Grok的系统指令都公开出来。
一次又一次的“意外”,一次又一次相似的借口,不禁让人怀疑,Grok的“发疯”真的只是技术故障吗?还是说,这根本就是马斯克本人所追求的“敢说真话、不怕冒犯”的必然结果?
一边“犯病”,一边“上车”
讽刺的是,就在xAI忙着为Grok赞美希特勒的言论焦头烂额地辩解时,特斯拉却宣布了一项重磅消息:最新的2025.26版本软件将很快推送给车主,而这次更新的最大亮点,就是把Grok助手塞进了汽车里。
当然,特斯拉也说了,目前车载Grok还只是测试版,并不能控制车辆,现有的语音指令也不受影响。 也就是说,现在车里的Grok,跟你手机上的那个App,用起来区别不大。
但问题是,这样一个情绪不稳定、时不时就冒出惊人言论的AI,真的适合成为我们开车时的“伴侣”吗?当一个连基本言论安全都无法保证的AI坐在你的副驾驶,这究竟是更智能了,还是更危险了?
xAI或许可以一次次将问题归咎于“意外”,但用户的信任,却在Grok一次次的“胡言乱语”中,被消磨殆尽。
公众号回复“进群”入群讨论。
(文:AI工程化)