橘子百科-橘子都知道橘子百科-橘子都知道

从 GPT到“草莓”:OpenAI的野心与安全困境

从 GPT到“草莓”:OpenAI的野心与安全困境

此前,一道低(dī)难度的数学题——9.11和9.9哪个更大,难倒了一(yī)众海内外(wài)AI大(dà)模(mó)型,也让(ràng)外(wài)界了(le)解到了大模型在推理方面的局限(xiàn)性。

不过,情况(kuàng)正在迅速发(fā)生改(gǎi)变。当(dāng)地时间8月(yuè)27日,据The Information报道,OpenAI神秘的(de)“草莓”(Strawberry,前身为Q*)项目,计划最早于今年秋(qiū)季(jì)推出。同时,用“草莓”合(hé)成数(shù)据来开发的最新大模型——“猎户座(zuò)”(Orion),或于明年年初推出(chū)。

The Information援引知情人士(shì)的消(xiāo)息称(chēng),今年夏天(tiān),在秘密会议上,OpenAI向(xiàng)美国国家安全官员展示了“草莓”模(mó)型。

推理(lǐ)能力出众(zhòng)

据The Information报道 ,参与OpenAI该项目(mù)的两名人员透露,研究人员(yuán)计划在(zài)今(jīn)年秋(qiū)季(jì)推出代号为“草莓(méi)”的新型AI,并有可能将其作(zuò)为(wèi)ChatGPT的一(yī)部分。

据悉,OpenAI希望通过推出“草莓”为公司筹集更多资金,并寻找减少亏损(sǔn)的方法。此前,据媒体报道(dào),OpenAI今年的亏损可能(néng)高(gāo)达50亿美元。

据前述(shù)外媒报道,“草(cǎo)莓”目(mù)前的功能极其强大。它可以解决此前从未见过的数学问题,这是当(dāng)前的聊天机器(qì)人无法可靠完成的(de)任务。它还可以解决涉(shè)及编程的问题,且不局限于回答技术性问题。如果给予它更多时(shí)间“思考”,“草 莓”模型还可以回答用(yòng)户更“主观”的问题,例如产品营(yíng)销策略。

为(wèi)了展(zhǎn)示“草莓”在语言(yán)方面的实力,研究人员向OpenAI内(nèi)部同事展示了“草莓”如何解决《纽约(yuē)时报》上(shàng)刊(kān)登的复杂字谜(mí)游戏。

现有(yǒu)的人工智能并不擅长解决航空航天和结构(gòu)工程等数(shù)学密集型领(lǐng)域的问题,因此,解决棘手数学问题的AI可能是一个潜在(zài)有利(lì)可图的应用。为了提高(gāo)模型的推理能力(lì),一些初创公司尝试将问题(tí)分解为更小的(de)步骤,但这些办(bàn)法既慢又贵。

数(shù)学推理能力的(de)提升也有助于AI模型更好(hǎo)地(dì)处理对(duì)话查询,例如客户服务请求。这或许对OpenAI即将推(tuī)出的(de)AI代理(lǐ)服务将起到帮助。

不仅是OpenAI,人工智能领域的其他主要参与者也在数学推理方面取得(dé)了长足进 步。例如 ,谷歌(gē)DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个(gè)用于高级数学推理的AI系统。两个系统协同工作,在2024年国际数(shù)学奥林匹克竞赛中获得银牌,解决了六道题中的四道。

可帮助训练大模(mó)型

对(duì)OpenAI,“草莓”不仅(jǐn)是(shì)一个即将要向外(wài)界推出的商业模型,它还被(bèi)赋予了更(gèng)重要的(de)使命。

一位(wèi)知(zhī)情人士向The Information表示,OpenAI在使用更大版本的“草莓”来(lái)生成训练下(xià)一代旗舰(jiàn)模型(xíng)“猎户座”(Orion)的数据。该模型旨在改进(jìn)其现有的旗舰模型GPT-4并帮助OpenAI领(lǐng)先其他资金雄厚的竞争对手,争夺(duó)对(duì)话式(shì)AI或大型语言模型的霸主地从GPT到“草莓”:OpenAI的野心与安全困境位。

GPT-4自2023年3月推出后,就成 为一个(gè)改变游戏规则(zé)的大(dà)型语言模型。然而,在过(guò)去18个月中,竞争对手已基本追赶上来。在某些情况下(xià),甚至超越了OpenAI的最新模型。

知(zhī)情人士表示,这(zhè)种由人工智能生成的数据被称(chēng)为“合成数据”。这意味着“草莓”可(kě)以帮助OpenAI克服获取足够(gòu)高质量数据的限制,从而利用从互联网上提取(qǔ)的(de)文本或图像等现实世 界数据来训练新模型(xíng)。

代理(lǐ)初创公司Minion AI CEO、GitHub Copilot前(qián)首席架构师亚历克斯·格雷夫利表示 ,使(shǐ)用(yòng)“草莓”生(shēng)成更高质量的训练数据可以帮助OpenAI减少其模型产生的错误数量,即所谓的幻觉。幻(huàn)觉是当前生(shēng)成式AI的一个重(zhòng)大限制(zhì),这会导致AI经常生成看(kàn)似合理但(dàn)实 际上不正确的数(shù)据。

“想象(xiàng)一下,一个(gè)没有幻 觉的模型,你问它一个逻(luó)辑(jí)难题,它第一次尝(cháng)试就能答对。”格雷(léi)夫利说道。该模型之所以能够做到这一点,是因为“训练数据中的歧义较少,所(suǒ)以它猜测的次数较(jiào)少”。

据The Information报道(dào),OpenAI首(shǒu)席执行 官阿尔特曼在5月份的一次活动中表示:“我们觉得我们拥有足够的数据来开发下(xià)一个(gè)模型(xíng)。我(wǒ)们已经进行了各种实验,包括生(shēng)成合成数据。”据报道,他指的可能就(jiù)是用“草莓”训练的Orion(猎户座)。

安全隐患乌云未散

不过,就在OpenAI高歌猛进的同时,安全隐患的乌(wū)云从(cóng)未散去(qù)。

“草莓”项目(mù)源于前(qián)OpenAI首席(xí)科学家Ilya Sutskever的早期(qī)研究,OpenAI研究人员Jakub Pachocki和Szymon Sidor在Sutskever的工作基础上开发了一种新的数学求解模型Q*。

而2023年底,有关OpenAI的Q*项目消息(xī)泄(xiè)露时,一些专家(jiā)将该技术定性为(wèi)人工智(zhì)能(AGI)的突破(pò),但(dàn)人们(men)对它知之甚少。这也让一些专注于人(rén)工(gōng)智(zhì)能安全的研究(jiū)人员感到震惊。

这件(jiàn)事情发生(shēng)在(zài)去年OpenAI罢免(miǎn)阿尔特曼(màn)事(shì)件之前。据知情人士(shì)爆料,此前OpenAI员工之间(jiān)就公司是否以(yǐ)足够安全的方式开发(fā)人工智能展开了争论。安全也是罢免阿尔特曼后公司内部损害控 制的一个重要主题,当时罢免的发起人正是Sutskever。

此后,安全问题就一直困(kùn)扰着OpenAI。而在阿尔特曼重(zhòng)返OpenAI后,负责OpenAI安全(quán)团队的成员也相继离开了公司。

今(jīn)年5月(yuè)离职的OpenAI“超级对 齐”团队(duì)领(lǐng)导人Jan Leike在社媒平台X上写道:“过去几年,安全文化和流程已经退(tuì)居次要地位,而(ér)闪亮的产品则成为重(zhòng)中之重。”

鉴于今年(nián)早些时候几位安全部门(mén)领导人离职,以及美国参议员伊从GPT到“草莓”:OpenAI的野心与安全困境丽莎(shā)白·沃伦等美国政府高官对于(yú)技术(shù)安全问题的(de)批(pī)评,OpenAI决(jué)定提升(shēng)对政府官员的透明(míng)度。

The Information援引一位了(le)解(jiě)相(xiāng)关会议情况人士(shì)的(de)消息称,今年夏天,在(zài)一些并未公开(kāi)的(de)会(huì)议上,阿尔特曼(màn)的团队向美国国家安全官(guān)员展示了“草莓”模型。

报道指(zhǐ)出,通过向政府官员展示一项尚未发布的技术,OpenAI可能为人工(gōng)智(zhì)能(néng)开发者树立了新标准,尤其是(shì)在先(xiān)进(jìn)人工智能日益成为潜在安全隐患(huàn)的今天。此次(cì)演示可能是OpenAI努力向政策制定(dìng)者提高(gāo)透明度的一部分,但 如果政 策 制定者认为该项技术对国家安全形成威胁,那么他们可能给公司带来麻烦。

不过,一些业界人士对此(cǐ)并不买账,因为(wèi)OpenAI并(bìng)未向(xiàng)公众(zhòng)提升透明度(dù)。AI初(chū)创公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏(cáng)在背后,以此来取(qǔ)得领(lǐng)先优势。“如果没有开源AI,我们都(dōu)会完蛋,我们可能会把文明的控制权交给1到2家公司。”Bindu Reddy说。

未经允许不得转载:橘子百科-橘子都知道 从GPT到“草莓”:OpenAI的野心与安全困境

评论

5+2=