OpenAI的闹剧,真的源于小题大做么?

随着萨姆·奥特曼重新掌管OpenAI,这个孩子玩耍般的争斗终于告一段落。前天参加了一个连麦游戏,聊了聊OpenAI的追剧流程和盲点。其实信息量挺大的,尤其是前阿里巴巴算法专家、思维宇宙创始人陶方博的分享,对我很有启发。

陶老师也是最近被转发很多的这篇文章的作者。他是AI行业多年的技术专家,这和我作为用户和消费者的视角很不一样。让我简单总结一下我们所谈的内容。

现在回想起来,除了夺权,OpenAI的宫斗其实还有一条隐藏了至少半年的线。它可能不是最突出或最主要的矛盾,但它实际上导致了董事会和管理层离开德国。

虽然OpenAI的董事会结构被吐槽过很多次,但之所以如此奇妙,是因为它原本想用这样一种商业化的设计方案来实现董事会应该对全人类负责的使命。现在我们觉得有问题。“与业务无关的人决定公司生死”的情况,其实就是这样考虑的。

如果不是这个事件,这样的结构的理想主义甚至会被高度赞扬。毕竟代表了传统商业经济之外的尝试,有龙头企业也不是不成功。

但有两个问题随着时间的发展逐渐暴露出来:

第一,《变形金刚》的路线太贵,研究公司已经买不起了。大老板的捐款只是杯水车薪,我们必须回到融资的道路上来支持继续发展。

第二,唯心主义总是高估人性。不知道人类也是有限的。你怎么知道董事会的判断是来自自我偏见还是真的对全人类负责?或者说,他们凭什么说自己是在为全人类做判断?

所以我说,不如调几个不同风格的全动力GPT-4来担任董事会,让他们表决重要事项,比人类靠谱多了。

无论如何,萨姆·奥特曼一直在修补,试图与现代商业体系兼容。董事会成员最初为9人,后减至6人,并长期维持。这也是一个很草率的地方,因为一般是不允许留偶数的,但是Sam并没有太在意,这是一个重大疏忽,说明他从来没有想过后院起火的可能性。

根据多家媒体的最新拆解,董事会成员之一——正在外面研究人工智能相关政策的海伦·托纳(Helen Toner)——认为OpenAI的发展过于危险,甚至认为如果摧毁OpenAI就能解决问题,那么这就是拯救全人类的唯一手段。

从时间上看,是萨姆·奥特曼想先开始。在他和海伦·托勒长期无法达成共识的情况下,他试图将她从董事会中带走,但他落后了一步。海伦劝说首席科学家伊利亚造反,并联合其他导演提前将萨姆和他最好的朋友格雷格踢出游戏。使用的原因也是保守的和监管的。他认为Sam过于焦虑和失控,对发布产品的关注远远超过对齐。

虽然事实证明,几乎所有的OpenAI员工都选择了萨姆·奥特曼,但OpanAI内部确实有很多不赞成过早发布产品的声音。他们可能不会一直站在山姆这边,但是他们不接受用玩游戏的方式来达到目的。这太愚蠢了。

在我看来,这就像说应对极端情况没有错一样。如果你被毒蛇咬了,我们可以接受截肢的代价来挽救你的生命。但OpenAI的闹剧是,好像刚有人手臂被蚊子咬了,然后拿出电锯截肢。

陶方博老师不同意我的判断。听了他的解释,我才知道,确实有很多地方是旁观者无法观察到的。陶老师做的是最前沿的AI智能体,所见所闻要深刻得多。

简单来说,陶先生认为控制AI的前提是人类比AI强。如果AI超越了人类,那么人类根本无法判断AI的决定是对是错,以至于失去了控制AI的能力。

所以时间其实很紧——并不是有闲暇的空间——所谓的“结盟派”根本就没有把所有的后门都写好,“加速派”也迫不及待的想让AI重建社会。在硅谷的大环境下,“加速派”占据绝对上风,导致OpenAI董事会以那种武断的方式为公司踩刹车。这很可笑,但也不是不可能。

我接触的很多AI从业者都带回了一种和陶老师非常接近的复杂性。怎么说呢,他们在高度认可AI价值的同时,也对AI保持着同样的高度怀疑和警惕。过去历史上所有的技术都是工具,现在开始超越工具,既令人兴奋又令人不安。

相比之下,我可能更乐观一些。如果现在的世界和社会已经接近完美,那么AI带来的变革风险当然需要讨论。但事实是,整个人类文明的生产力还是很低的。我们被困在局促的地月系统中,受制于能源、经济、战争等因素。如果AI能创造跨越繁荣的机会,那么它能拯救的苦难一定高于危险。

我尊重技术专家肩负责任的崇高,但在信息不对称的世界里,“饿的人不知道自己有多饿”的情况也比比皆是。让大众市场确实意味着回归而不是自我道德,可能是一个容错性更高的选择。

这又回到Q星,OpenAI开发的突破性开发。时至今日,我们仍然无法确切知道这个导致董事会恐慌、跑路的东西到底是什么。我们只能从各种线索中拼凑出一个相对接近的答案:

萨姆·奥特曼在之前的一次活动中有过一次略显唐突的自我提问,大意是他不知道自己是在制造工具还是在创造生物。用OpenAI内部透露的话来说,Q星有“轻微的自我意识”。证据之一就是可以摆脱依赖数据进行训练的局限,可以通过自我对话(合成数据)进行学习。

就连“图灵三巨头”之一的Yann LeCun也对这一进展感到震惊。他说,现有的大型模型需要填充数据只是因为技术水平有限。理论上,大模型的训练数据是没有上限的——甚至超越了人类古往今来的所有知识——但就像人类基因组和猩猩的差别只有8MB左右,人类文明从来不是一堆一堆堆起来的,AI也不应该是这样。

就像古代的哲学家不一定要读遍世间所有的书才能产生真知灼见一样,他们也可以选择围着火炉说话,甚至自言自语,创造新的智慧。如果AI达到这样的状态,那么AGI(通用人工智能)可能真的会来到这个世界。

今年8月,萨姆·奥特曼发推文称,他收到了同事发来的《塞尔达传说:王国之泪》,因此人类得到AGI的时间将推迟四天——他要花四天时间来玩游戏——没想到,任天堂居然专门为了拯救人类免受AI奴役而开发了那款新游戏,但它只是将人类灭绝的时间推迟了四天。

这是今年夏天萨姆·奥特曼代表OpenAI在世界巡回赛上演讲的快照。构图和色彩都恰到好处,却隐隐约约赋予了这张照片某种“神”的意味,对吧?

未经允许不得转载:科技让生活更美好 » OpenAI的闹剧,真的源于小题大做么?