1. 創(chuàng)業(yè)頭條
  2. 前沿領(lǐng)域
  3. AI智能
  4. 正文

兩分鐘“熟讀”《國史大綱》,大模型的下一個爆點是“書童”?

 2024-08-26 10:58  來源:A5專欄  我來投稿 撤稿糾錯

  域名預(yù)訂/競價,好“米”不錯過

年初大模型行業(yè)上演“長文本”大戰(zhàn)時,我們就萌生過做一個“讀書助理”的想法。測試了市面上主流的大模型后,發(fā)現(xiàn)普遍存在兩個不足:

一種是可以處理的文本長度不夠,即使有些大模型將文本長度提升到了20萬字,像《紅樓夢》這樣近百萬字的名著,還是需要多次才能“讀”完。

另一種是語言理解和生成能力不足,經(jīng)常出現(xiàn)“幻覺”。“長文本”的特點不僅僅是長,還涉及到復(fù)雜的邏輯和文本語義,需要更連貫、相關(guān)的響應(yīng)。

直到前兩天,一位做AIGC的朋友向我們同步了一個新消息:“智譜AI開放平臺默默上線了為處理超長文本和記憶型任務(wù)設(shè)計的GLM-4-Long,支持1M上下文。”100萬上下文長度到底意味著什么呢?我們找來了另外兩個大模型,用120回版本的《紅樓夢》(大約有73萬個漢字)進行了簡單對比:

月之暗面128K的大模型,每次可以處理6.4萬個漢字,需要12次才能讀完;

Claude 200K的大模型,每次可以處理10萬個漢字,需要8次才能讀完;

GLM-4-Long實測可以處理150-200萬字,一次就能讀完一本《紅樓夢》。

不過,文本長度只是一個入門能力,能否扮演起“讀書助理”的角色,必須要確保能夠從大量文本中準確檢索信息,特別是當(dāng)某些關(guān)鍵信息被置于文檔的深處時,以及出色的推理和內(nèi)容生成能力。

于是我們對GLM-4-Long進行了深度測試。

01 兩分鐘“熟讀”錢穆先生的《國史大綱》

大約是5年前,我們購買了錢穆先生的《國史大綱》,商務(wù)印書館的繁體豎排版。因為是用大學(xué)教科書體例寫成,學(xué)術(shù)味兒比較濃,再加上錢穆先生精煉的文筆風(fēng)格,至今都沒有完整讀完。

GLM-4-Long能否勝任“書童”的角色呢?

我們調(diào)用了GLM-4-Long的API接口,讀取了50多萬字的電子版《國史大綱》,然后針對性地問了三個問題:

第一個問題:請總結(jié)這篇文檔中每個部分的主要內(nèi)容

原書目錄中只羅列了每個章節(jié)的標題,希望通過這個問題驗證大模型是否處理了文檔的全部信息,對內(nèi)容的理解和總結(jié)生成能力。

從輸出的結(jié)果來看,不僅準確整理出了每個章節(jié)的核心內(nèi)容,還按照現(xiàn)在比較主流的紀年方式,將全書內(nèi)容拆分為上古文化、春秋戰(zhàn)國、秦漢、魏晉南北朝、隋唐五代、兩宋、元明、清代等8個部分,內(nèi)容準確度超過99%,僅僅是“兩宋之部”在小標題上被列舉了兩次(可以通過模型微調(diào)進行優(yōu)化)。

第二個問題:“秦漢國力與對外形勢”在文檔哪個部分?

這是一個迷惑性比較強的問題,因為第七章和第八章都講了相關(guān)背景,但錢穆先生放在了第十一章進行重點介紹。

GLM-4-Long并未掉進預(yù)設(shè)的“陷阱”,準確指出了問題所在的章節(jié)和標題。這也是長文本處理的一個典型痛點,在長達幾十萬字的內(nèi)容中,作者可能在多個地方描述相似的幾件事,最為考驗大模型的語義理解和內(nèi)容檢索能力,并非是對文本的機械處理,意味著需要更強的抽象和內(nèi)容歸納能力。

第三個問題:北宋的建國和漢唐時期有什么不同?

搜索引擎上沒有直接相關(guān)的答案,但錢穆先生在書中給出了系統(tǒng)闡述,用于驗證GLM-4-Long能否理解書中的細節(jié)信息。

這次的答案再次讓我們驚艷,分別從建國方式、統(tǒng)治方式、對外政策、經(jīng)濟、文化、社會、政治制度等角度綜述了錢穆先生的觀點。特別是在“對外政策”上,準確回答了“漢唐時期積極對外擴張,北宋采取保守的防御策略”,并且簡單提及了政策變化背后的原因,即五代十國時期戰(zhàn)爭頻繁,導(dǎo)致國力消耗嚴重。

相關(guān)的測試問題不再一一贅述,直接給出我們的答案:GLM-4-Long對文檔全局信息的處理、長文本理解和生成、多輪對話等能力均超出預(yù)期,整個體驗有一種和錢穆先生跨時空對話的“錯覺”。

另一個不應(yīng)該被忽略的信息在于,一本50多萬字的書籍,GLM-4-Long僅用了兩分鐘左右的時間進行處理。如果想要用大模型處理一些沒有時間研讀的長文本,GLM-4-Long某種程度上可以說是最佳幫手。

02 用多個文檔訓(xùn)練出一位“知識博主”

很多人在日常工作和生活中接觸的文檔,并非是動輒近百萬字的巨著,而是幾萬字、最多十幾萬字的文檔和資料。在這樣比較大眾化的需求下,像GLM-4-Long這樣1M長文本能力的大模型,有何特殊價值?

前面用《紅樓夢》做了對比,其實還有另一種對比方式:

月之暗面128K的大模型,每次可以處理6.4萬個漢字,相當(dāng)于讀1本《活著》;

Claude 200K的大模型,每次可以處理10萬個漢字,相當(dāng)于一次讀《活著》和《在細雨中吶喊》兩本書;

GLM-4-Long的1M上下文,可以一次讀余華老師的多本書,比如《活著》《在細雨中吶喊》《河邊的錯誤》《第七天》……

由此萌生的一個想法是:是不是可以讓大模型一次讀多本相關(guān)的專業(yè)書籍,快速訓(xùn)練出一個專業(yè)的知識博主?

首先想到的一個場景就是飲食,生活中經(jīng)常碰到吃什么可以減肥、6月齡寶寶能不能吃蛋黃、高血壓病人的飲食需要注意什么等問題,每次都需要搜索或者問AI,又擔(dān)心內(nèi)容是不是準確。

我們讓GLM-4-Long一次性讀取了《中國居民膳食指南》《中國食物成分表》《中國飲食文化》《中國居民膳食營養(yǎng)素參考攝入量》等多個文檔,然后用日常生活中的常見問題進行了針對性提問:

8月齡兒童日常飲食應(yīng)該注意什么?

可以看到,GLM-4-Long輸出的答案非常全面,除了要補充蛋白質(zhì)、維生素和礦物質(zhì),還給出了一些貼心的建議:食物應(yīng)該細膩易消化,避免大塊或硬的食物,以防噎食;建議先引入蔬菜泥,然后是水果泥,接著是強化鐵的米粉或米糊;如果家族中有過敏史,應(yīng)避免引入可能導(dǎo)致過敏的食物……

50歲的高血壓病人有什么飲食建議?

答案依然比較全面,包括應(yīng)將食鹽攝入量控制在每天6克以下、每天攝入300-500克新鮮蔬菜和200-350克新鮮水果、每日攝入25-30克膳食纖維、避免過多攝入精制糖和白面食、建議通過食物攝入足夠的鉀和鈣、避免過多攝入蛋白質(zhì)、限制飲酒等等,并提供了具體的食物建議。

以上只是我們簡單嘗試的一個場景,可以聯(lián)想到的應(yīng)用場景還有很多。

比如一次性通讀余華老師的所有小說,然后“變身”余華老師進行對話;一次性讀多篇相關(guān)的論文,幫助提升論文閱讀的效率;一次性讀取上百份簡歷,然后根據(jù)需求篩選出最合適的候選人;以及找到一家企業(yè)多個季度的財報進行橫向?qū)Ρ?,從更宏大、信息更豐富的視角進行財報分析......

我們列舉的“想法”僅僅是拋磚引玉,相信智譜AI在大模型能力上打破天花板后,會有越來越多開發(fā)者參與其中,挖掘藏在應(yīng)用層的機會,帶來各種有趣、有生產(chǎn)力的體驗。

03 “卷”長文本過渡到“卷”綜合能力

有別于年初單純卷文本長度的比拼,智譜AI在GLM-4-Long的宣傳和營銷上不可謂不低調(diào),卻折射出了大模型市場的一個隱性共識:不再為了傳播某個能力硬凹需求,而是開始卷大模型的綜合能力。

個中原因并不難解釋。

長文本在本質(zhì)上是一種智力能力。如果將大模型比作是一臺“電腦”的話,“更長的上下文”可以看作是更大的內(nèi)存,能夠提高多任務(wù)處理能力、提升運行大型軟件的流暢度、帶來更好的游戲體驗等等。內(nèi)存的大小,可能在某種程度上影響消費者的購買決策,卻不是優(yōu)先級最高的購買因素。

同樣的道理,僅僅是在文本長度上領(lǐng)先,并不足以讓大模型吸引所有的注意力,不會是一條穩(wěn)定的護城河。

與之相對應(yīng)的,大模型的“長文本熱”就像是曇花一現(xiàn),開發(fā)者們沒有趨之若鶩,資本市場不斷傳出批判的聲音:“感覺是各家公司在為搶入頭部陣營做成績,本質(zhì)上還是為了秀肌肉,衡量長文本的價值,要等到更明確的落地場景和對應(yīng)的商業(yè)模式出現(xiàn),否則市場再熱鬧也是沒有用的。”

時間過去半年后,GLM-4-Long讓外界看到了大模型新的演變方向:除了記住多長的上下文,還在比拼語言理解和生成能力、長文本推理和QA能力,不再是做長木桶的一塊板,而是把把所有木板做長。

比起我們“淺嘗輒止”的測試,對大模型行業(yè)新方向感到興奮的,恰恰是那群做AIGC的創(chuàng)業(yè)者。正如那位朋友所說的:“大模型可以滿足100萬字的上下文,并且可以很好地、準確地執(zhí)行復(fù)雜指令,預(yù)示著巨大的想象空間。希望智譜AI開放平臺可以早日推出GLM-4-Long的正式版,我們已經(jīng)有了多個智能體相關(guān)的想法。”

自從ChatGPT走紅后,整個大模型行業(yè)風(fēng)譎云詭。然而一個看起來有些畸形的現(xiàn)象是:資本大多將錢投個了大模型企業(yè),做應(yīng)用創(chuàng)新的創(chuàng)業(yè)者鮮有機會,即便不少人都在呼吁創(chuàng)業(yè)者應(yīng)該卷應(yīng)用,而非卷模型。

回頭再來看這樣的現(xiàn)象,需要批判的不是資本的“勢力”,而是開發(fā)者們的無奈。直接的例子就是長文本,半年前的火爆只是技術(shù)上的,由于存在能力上的短板,未能在應(yīng)用層延續(xù)熱度和爆點。借著上面的比喻,一臺電腦的內(nèi)存很大,可CPU、GPU、屏幕等依然是短板,開發(fā)者很難做出體驗優(yōu)秀的應(yīng)用。

當(dāng)大模型的競爭走向綜合能力的較量,100萬長文本賦予了開發(fā)者更大的創(chuàng)造空間,同時在生成、推理、QA等能力上不再被制約,注定會吸引越來越多的開發(fā)者參與進來,進一步將想象力轉(zhuǎn)化為生產(chǎn)力,創(chuàng)造出一個又一個“出圈”的現(xiàn)象級應(yīng)用,加速大模型在應(yīng)用賽道上的繁榮。

04 結(jié)語

“2024年是AGI落地元年“。

這樣的預(yù)言正在被進一步驗證。不僅僅是大模型綜合能力的進階,還在于技術(shù)和應(yīng)用在方向上的統(tǒng)一:逐漸從博眼球式的拉新,轉(zhuǎn)向“脫虛向?qū)?rdquo;, 不斷回歸用戶體驗,沉淀出解決實際問題的能力。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關(guān)標簽
大模型

相關(guān)文章

  • 除了燒錢,互聯(lián)網(wǎng)留給大模型揮霍的“家底”不多了

    互聯(lián)網(wǎng)或許從未停止創(chuàng)新,只是對于創(chuàng)新的認知下降了。

    標簽:
    大模型
  • 誰該成為大模型成長的“養(yǎng)料”?

    在科技進步的歷史征程里,我們享受技術(shù)成果之前,似乎總要付出一些“隱形”成本。

    標簽:
    大模型
  • 百川智能,摘下“大模型皇冠上的明珠”?

    隨著AI產(chǎn)業(yè)化和產(chǎn)業(yè)AI化成為業(yè)界共識,大模型的“新賽季”來了。2024年是國產(chǎn)大模型全面商業(yè)化的元年,各地人工智能產(chǎn)業(yè)發(fā)展的政策密集出臺。同時,在2024世界人工智能大會(WAIC2024)上,各大AI廠商紛紛表示要讓大模型落地應(yīng)用場景。不過,對于大模型商業(yè)化的路線,科技巨頭和大模型初創(chuàng)公司之間存

    標簽:
    大模型
  • 最后一公里不解決,大模型開閉源都一文不值

    對所有大模型而言,其真正考驗如同科大訊飛創(chuàng)始人劉慶峰所說,在最后一公里的應(yīng)用和商業(yè)化落地上。作者|Cindy編輯|楊銘恐怕誰也不會想到,百模大戰(zhàn)進入商業(yè)化下半場,圍繞大模型大規(guī)模、曠日持久的戰(zhàn)爭,竟是開源和閉源路線的交鋒。最近,在2024世界人工智能大會(WAIC)上,劉慶峰、李彥宏、王堅、朱嘯虎、

    標簽:
    大模型
  • 對于“百模大戰(zhàn)”,幾乎所有大佬的口風(fēng)都180 °大轉(zhuǎn)變了?

    文|智能相對論作者|陳泊丞在2024世界人工智能大會暨人工智能全球治理高級別會議產(chǎn)業(yè)發(fā)展主論壇上,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏談了些對于AI大模型的看法,語驚四座。他先是指出,“百模大戰(zhàn)造成了社會資源的巨大浪費,尤其是算力的浪費。但同時也使得我們追趕世界上最先進基礎(chǔ)模型的能力得到了建立?!倍?/p>

    標簽:
    大模型
  • AI加速時代的“進度條”,我們撥動了百分之幾?

    “技術(shù)日新月異,人類生活方式正在快速轉(zhuǎn)變,這一切給人類歷史帶來了一系列不可思議的奇點。我們曾經(jīng)熟悉的一切,都開始變得陌生?!庇嬎銠C之父約翰·馮·諾依曼曾這樣說到。

    標簽:
    ai智能
  • AI視頻賽道,要變天了

    “毀滅你,與你何干?”,這是在劉慈欣的科幻小說《三體》里用來形容人類與三體人之間的戰(zhàn)爭的一句話。

    標簽:
    ai智能
  • “創(chuàng)造市場”與“算法進化”,中美AI競速的岔路口

    “人工智能的商業(yè)模式,是要創(chuàng)造一個市場,而非一個算法”。這是世界AI泰斗MichaelI.Jordan的觀點。而當(dāng)前的全球AI市場,占據(jù)主導(dǎo)地位的中美雙方,卻也走出了兩條截然不同的技術(shù)路徑,前者執(zhí)著于前沿技術(shù)的探索,后者則發(fā)力應(yīng)用優(yōu)化和商業(yè)化落地。南轅北轍的兩個方向,或許已經(jīng)無法直接進行排位先后、優(yōu)

    標簽:
    ai智能
  • 智能體進化發(fā)展了一年,現(xiàn)在的RPA Agent迭代到什么程度了?

    智能體進化發(fā)展了一年,現(xiàn)在的RPAAgent迭代到什么程度了?從實在智能最新發(fā)布的實在Agent7.0,看RPAAgent的迭代升級抓取豆瓣信息、自己制作PPT,這款A(yù)IAgent真的實現(xiàn)了流程全自動化AIAgent構(gòu)建到執(zhí)行全自動化,持續(xù)進化RPAAgent再次降低智能體應(yīng)用門檻實在智能重磅發(fā)布實

  • 崔大寶:大模型降溫背后的難點、卡點、節(jié)點

    崔大寶|節(jié)點財經(jīng)創(chuàng)始人進入2024年,大模型似乎有熄火之勢:資本市場,與之關(guān)聯(lián)的概念炒不動了,英偉達股價動輒暴跌重挫,引發(fā)“泡沫戳破”的擔(dān)憂;消費市場,BATH們的推新活動少了,產(chǎn)品更新迭代的速度慢了,民眾的關(guān)注度降了……熱鬧的大概只剩下兩場酣仗:自5月15日字節(jié)跳動宣布“以厘計費”,打響國內(nèi)大模型

    標簽:
    大模型
  • 這一屆“出道”的數(shù)字人,已經(jīng)拿捧上了“鐵飯碗”

    文|智能相對論作者|陳泊丞好消息!你心心念念的事業(yè)單位發(fā)錄取公告了!壞消息!他們沒錄你,錄了個數(shù)字人。圖片來源網(wǎng)絡(luò)隨著數(shù)字人技術(shù)的突破,越來越多的傳統(tǒng)企業(yè)和機構(gòu)開始用上了“數(shù)字員工”。甚至很多中國人心心念念的“鐵飯碗”,也被這些數(shù)字人給捧上了。數(shù)字人捧上了“鐵飯碗”簡單翻看一下全國各地事業(yè)單位的“錄

    標簽:
    數(shù)字人
  • 來到IPO關(guān)口,地平線離“三分天下”還有多遠?

    黑芝麻智能敲鐘后,港交所門口又有一些智駕芯片企業(yè)引發(fā)關(guān)注。據(jù)悉,近日地平線已通過中國證監(jiān)會IPO備案,擬發(fā)行不超過11.5億股境外上市普通股并在香港聯(lián)合交易所上市,預(yù)計籌集約5億美元資金。從天眼查可以了解到,該公司成立于2015年,是一家乘用車高級輔助駕駛(ADAS)和高階自動駕駛(AD)解決方案供

  • 機器人大會引領(lǐng)產(chǎn)業(yè)動向,卓翼飛思繪制無人系統(tǒng)教科研新藍圖

    8月21日,萬眾矚目的2024世界機器人大會暨博覽會在北京亦創(chuàng)國際會展中心盛大開幕。這場為期5天,集“展覽”“論壇”“賽事”于一體的機器人盛會,反映了當(dāng)下機器人領(lǐng)域的繁榮生態(tài)。據(jù)官方統(tǒng)計數(shù)據(jù),今年現(xiàn)場逛展觀眾高達25萬人次,比去年增加25%。機器人行業(yè)有多火?看看2024世界機器人大會火爆程度便可知

  • 卓翼智能:超大載重高烈度環(huán)境特種智能系留無人平臺的應(yīng)用與未來

    瞄準場景需求,打造國內(nèi)領(lǐng)先的自主可控、高質(zhì)量超大載重高烈度環(huán)境特種智能系留無人平臺。卓翼智能亮相HICOOL峰會以科技實力榮摘創(chuàng)業(yè)大賽一等獎這個比賽5年培育出16家“獨角獸”HICOOL2024全球創(chuàng)業(yè)者峰會暨創(chuàng)業(yè)大賽已于8月25日在北京圓滿落下帷幕,大賽共吸引了124個國家和地區(qū)的7406個創(chuàng)業(yè)項