GPT 4号又一次被网友攻击,因为它懒的离谱!
有网友想在Android系统中开发一个可以和OpenAI API实时交互的应用。
所以我把方法示例链接发给了GPT-4,让它引用用科特林语言写的代码:
我不这么认为。我和GPT-4沟通了很久,但是GPT-4无法给出一个完整的可以正常运行的代码。
相反,它解释了一个“如何做”
这让网友们着实恼火,纷纷发微博称“两周前还能写出来的代码现在不行了。”
于是,更多的网友顿时炸开了锅:
终于有人在调查这件事了。
大家都一再表示遇到过类似的问题:
据网友反映,好像是从11月6日GPT-4更新开始就有这种情况了。
目前OpenAI员工已经回应,称问题已经反馈给团队。
只是代码,完整的代码!
难怪网友会“破防”,也就是上面的网友把方法实例链接发给GPT-4,让它用科特林语言写代码之后。
GPT-4给出的答复是这样的,列出了七个步骤,都解释了“应该做什么”:
直到最后才给出代码,不过只是一个基本的“模板”:
网友一开始很耐心,告诉它“不用解释,给我代码就行,完整的代码,能100%正常运行的代码”:
结果GPT-4号再次开口解释并给出例子:
网友怒了,直接打断,再次强调“别解释了,给我代码”:
GPT-4现在真正被理解了。稍微修改一下上面的模板,就发出来了:
这是第一幕,网友无奈发帖吐槽。
对于GPT-4的回复,网友“怒吼”:他们对你做了什么?很抱歉你被削弱了。
GPT 4号此刻看起来也是无辜的。
在纷纷吐槽的网友中,甚至有人表示已经不用ChatGPT了。
AI图像编辑器dingboard CEO@kache (yacine)前一天也发了一个帖子,15.7万的浏览量+:
在过去的一周半时间里,我一直在写“幼稚”的代码,因为GPT-4并不那么遵循指令。
巧合的是,如果像网友所说的以“一周半”计算,时间与奥特曼镇环的故事重合。
卡奇(yacine)还有一个充满情绪的帖子《请把老GPT-4还给我》:
这位网友说“我懂你”:
以前它能猜的很准,现在它会给我十个猜不准的理由。
上周,我大喊“去他妈的!”!“次数创历史新高。
一时间,GPT四号的“懒惰”成为众多网友“讨伐”的对象。
沃顿商学院(Wharton Business School)教授伊森·莫利克(Ethan Mollick)再也无法忍受了。他亲自测试了一下,结果似乎表明这是真的。
伊桑·莫利克用代码解释器重复了一系列先前的分析。
虽然GPT-4知道该做什么,但它总是会提示“完成工作”。这样一来,原本的一步就变成了很多步,有些步非常奇怪。
伊森·莫利克现在无言以对。
GPT 4号到底怎么了?背后的原因还不得而知,网友也在猜测。
OpenAI员工:对团队的反馈。
伊桑·莫利克仍然非常严格,认为即使这样也不足以证明GPT-4变得越来越愚蠢。他推测这可能是系统负荷过大的暂时问题。
如果你在手机(移动设备)上遇到这个问题,可能是因为手机版本的系统提示,会指示ChatGPT生成更短更简洁的答案。
我的测试是在网页版进行的。
也有人在Reddit上发帖讨论,其中一个帖子指出“不是新GPT-4懒,只是我们用错了”:
指出GPT-4自11月6日起进行了重大更新,基础版没有定制的提示,导致GPT-4没有预定义的“路径”来指导其行为。
这使它非常通用,但默认情况下,它的输出也有些“无方向”。
解决方案之一是使用更新后提供的新的定制GPT函数(GPTs)为每个作业设置一个特殊的GPT。
也有网友分享了“小妙招”:
改变新GPT-4游戏规则的一点是它一次可以解释的代码量。明确地说“请完整地编写这个测试[/s2/]”这样的话可能会有用。
同时明确指出“不要重写已经写好的代码”也是有帮助的,这样可以节省token,让模型专注于生成新的输出。
我还发现,加入“一步一步思考”的提示,会在开头加入一些有计划的文字,有助于后续的输出更好地定位上下文。
但也有网友表示,使用时无论如何都会留下一些“待办事项”:
这位网友甚至直言,GPT-4现在好像有了阿尔茨海默病:
OpenAI暗示新的GPT-4非常善于遵循指令,但事实并非如此。
我从一开始就一直用GPT-3,3.5,然后是4,从来没见过这种程度的阿尔茨海默病。
在网友的激烈吐槽下,OpenAI员工也做出了回应。
一开始我让网友提供一些具体的例子,说是研究,很有可能在模型版本的下一次迭代中修复这些问题。
此话一出,更多网友“报了错”。
威尔·德普再次回应道:
感谢您的反馈。这里所有的例子都会帮助我们更快的解决这个问题。我刚转发给团队,后续消息会及时通知。
看来官方后续回应还得再等一波。最近有家庭遇到类似情况吗?
未经允许不得转载:科技让生活更美好 » GPT-4惨遭削弱,偷懒摸鱼绝不多写一行代码,OpenAI已介入调查