从 GPT到“草莓”:OpenAI的野心与安全困境
此前,一道低难度的数学题——9.11和9.9哪个更大,难倒了一众海内(nèi)外AI大模型,也让外界了解到了大模型在推理方(fāng)面的 局(jú)限性。
不过(guò),情况正在迅(xùn)速发生改变。当地时间8月27日,据(jù)The Information报道,OpenAI神秘的“草莓”(Strawberry,前 身为Q*)项目,计划最早于 今年(nián)秋季推出。同时,用“草莓”合成数据来开(kāi)发(fā)的(de)最(zuì)新大模型——“猎(liè)户座”(Orion),或(huò)于明(míng)年年初推出。
The Information援引知情人士的消息称,今年夏天,在秘密会议上,OpenAI向美国国家安全(quán)官员展(zhǎn)示了(le)“草莓(méi)”模型。
推理能力出众
据The Information报道,参与OpenAI该项目的(de)两名人员(yuán)透露,研究人员计划在今年秋季推出代号为“草莓”的新型(xíng)AI,并(bìng)有(yǒu)可能将其作为ChatGPT的一部分(fēn)。
据悉,OpenAI希望通过推出“草莓”为公司筹集更多资金,并寻找减(jiǎn)少亏损的方法。此前,据(jù)媒体报道,OpenAI今年的亏(kuī)损可能(néng)高达50亿(yì)美元。
据前述外媒报道,“草莓”目前的功(gōng)能极其强大。它可以(yǐ)解决(jué)此前从未见过的数学问(wèn)题(tí),这是当前(qián)的(de)聊天机(jī)器人无法可靠完成(chéng)的任务(wù)。它还可以解决涉及编程的问题,且不局限于(yú)回答技术性问题。如果给(gěi)予它更(gèng)多时间“思考”,“草莓(méi)”模型还可以回答用户更(gèng)“主观”的问题,例如产品营销策略。
为(wèi)了展示“草莓(méi)”在语言方面的实力,研究人员向OpenAI内部同事展示了“草莓”如何解决《纽约时(shí)报》上刊登的复杂字谜游戏。
现有(yǒu)的人工智能并不擅长解决航空航天和结构工程等数学密集型 领域的问题,因此,解决棘手数学问题的AI可能是一个潜在(zài)有(yǒu)利可图的应用。为了提高模型的推理能力,一些初(chū)创公司尝试将问题分解为更小的(de)步骤,但这些(xiē)办(bàn)法既慢又贵(guì)。
数学推理能(néng)力的提升也有助(zhù)于(yú)AI模型更好(hǎo)地处理对话查询,例如客户服务请求。这或许对OpenAI即(jí)将推出的AI代理服务(wù)将起(qǐ)到帮助。
不仅是OpenAI,人工(gōng)智能领域(yù)的其他主要参与者(zhě)也在数学推理方面(miàn)取得了长足(zú)进步。例如,谷歌DeepMind 最近开发(fā)了AlphaProof和AlphaGeometry 2,这是两(liǎng)个用于高级(jí)数学推理的(de)AI系统。两个系(xì)统协同(tóng)工作,在2024年国际数学(xué)奥林匹克(kè)竞赛中获得银牌,解决了六道题 中的四道。
可帮助训练大模型
对OpenAI,“草莓(méi)”不仅(jǐn)是(shì)一个即将要向外界推出的商业模型,它还被赋予(yǔ)了更重要的使命。
一位知情人士向 The Information表示,OpenAI在使用更(gèng)大版本的“草莓”来生成训练下一代旗舰(jiàn)模型“猎户座”(Orion)的数(shù)据。该模(mó)型旨在改进其现有的(de)旗舰模(mó)型GPT-4并帮助OpenAI领先(xiān)其他资金雄厚的竞争(zhēng)对手(shǒu),争夺对话式AI或(huò)大型语言模型的霸主地位。
GPT-4自2023年3月推出(chū)后,就成为一个改变游戏规则(zé)的大型语(yǔ)言模型。然而(ér),在过去18个(gè)月中,竞争对手已基本追赶上来。在某(mǒu)些情况下(xià),甚(shèn)至超越了OpenAI的最新模型。
知情人(rén)士表示,这种 由(yóu)人(rén)工智(zhì)能生成的数 据被称为“合成数据”。这意味着“草莓”可(kě)以帮助OpenAI克服获取足够高质量数(shù)据的限制(zhì),从而 利用从(cón从GPT到“草莓”:OpenAI的野心与安全困境g)互联网上(shàng)提取的文本或图像等现(xiàn)实(shí)世界数据来训(xùn)练新模型。
代理初创公司Minion AI CEO、GitHub Copilot前首席架构师(shī)亚历克斯(sī)·格雷夫利表(biǎo)示,使用“草莓”生成(chéng)更高质量的 训练数据可以帮(bāng)助OpenAI减少其模型产生的错误数(shù)量,即所谓的幻觉。幻觉是当前生成式AI的一个重大限制,这会导致AI经常生成看(kàn)似合(hé)理但实(shí)际上不(bù)正确的数据。
“想象一(yī)下,一个没有(yǒu)幻觉的模型,你(nǐ)问它一个逻辑难题,它第一(yī)次(cì)尝试就能答对。”格雷夫利说道。该模(mó)型之所以能够做(zuò)到这一点,是因为“训练数据中(zhōng)的(de)歧义较少(shǎo),所以它猜测的次数较少”。
据The Information报道,OpenAI首席(xí)执行官阿尔特曼(màn)在(zài)5月份的(de)一次活动中表示:“我们觉得我们拥(yōng)有足够的(de)数据来开发下(xià)一个模型。我们已经(jīng)进行了各种实验,包括生成合成数据。”据报道,他指的(de)可能就(jiù)是用“草莓”训练的Orion(猎户座)。
从GPT到“草莓”:OpenAI的野心与安全困境>安(ān)全隐患乌云未散
不(bù)过,就在OpenAI高歌猛进的同时,安全隐患的(de)乌云从未散去。
“草莓”项(xiàng)目源于前OpenAI首席科学家Ilya Sutskever的早期研究,OpenAI研究人员Jakub Pachocki和Szymon Sidor在Sutskever的工作(zuò)基础上开发(fā)了一种新(xīn)的数学求解模型Q*。
而2023年底,有关OpenAI的Q*项目消息泄露(lù)时,一些专家将该技术定(dìng)性(xìng)为人工智能(AGI)的(de)突(tū)破,但人们对它知之甚少。这也让一些专注(zhù)于人工智能安全的(de)研究人(rén)员(yuán)感到(dào)震惊。
这件事情发生在(zài)去年OpenAI罢免阿尔特曼事件之前。据知情人(rén)士爆料,此前OpenAI员工之间就公(gōng)司是否以足够安全的方式开发人工智能展(zhǎn)开了争论(lùn)。安全也是罢免阿尔(ěr)特曼后公司内部损害控制的一(yī)个重要主题,当时(shí)罢(bà)免的发起人正是(shì)Sutskever。
此后,安(ān)全问题就一直困扰着OpenAI。而在阿尔特曼重返OpenAI后,负(fù)责OpenAI安(ān)全团队(duì)的 成员也(yě)相继离开了公司(sī)。
今年5月离职的OpenAI“超级对齐”团队领导人Jan Leike在社媒(méi)平台X上写(xiě)道:“过去几年,安全文化和流程已经退居次要(yào)地位,而闪亮(liàng)的产品则成为(wèi)重中之重。”
鉴于今年早些时(shí)候几位安(ān)全部门领导人离职,以及美国参议员伊(yī)丽莎白·沃(wò)伦等美国政府高官对于技术安全问题(tí)的批评,OpenAI决(jué)定提升对政府官员的透明(míng)度。
The Information援引(yǐn)一 位了解相关会议情况人士的消息称,今年夏天(tiān),在一些并未公(gōng)开的会议上,阿尔特曼的团队(duì)向美国国家安全官(guān)员展示了“草莓”模型(xíng)。
报道指出,通过向政府官员展示一项尚(shàng)未发布的技术,OpenAI可能(néng)为人工(gōng)智(zhì)能开发者树立了新标准,尤其是在先(xiān)进人工智能日益成(chéng)为潜(qián从GPT到“草莓”:OpenAI的野心与安全困境)在安全隐患的今(jīn)天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策(cè)制定者认为该项技术对国家安(ān)全形(xíng)成威胁(xié),那么他们可能给(gěi)公司(sī)带来麻烦。
不过,一些业界人士对此并不买账,因为OpenAI并未向公众提升透明(míng)度。AI初创公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的(de)大模型藏在背后,以此来取(qǔ)得领先优势。“如果没有开源(yuán)AI,我们都(dōu)会(huì)完蛋(dàn),我们可能(néng)会把文明的控制权交(jiāo)给1到2家公(gōng)司。”Bindu Reddy说。
未经允许不得转载:橘子百科-橘子都知道 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了