✈️ Gate 廣場【Gate Travel 旅行分享官召集令】
廣場家人們注意啦!Gate Travel 已經上線~ 機票+酒店一站式預訂,還能用加密貨幣直接付款 💸
所以說,你的錢包和你的旅行夢終於可以談戀愛了 😎 💕
現在廣場開啓 #GateTravel旅行分享官# 活動,邀你來秀旅行靈感 & 使用體驗!💡
🌴 參與方式:
1️⃣ 在【廣場】帶話題 #Gate Travel 旅行分享官# 發帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小島 or 網紅打卡點都行)
講講用 Gate Travel 訂票/訂酒店的奇妙體驗
放放省錢/使用攻略,讓大家省到笑出聲
或者直接寫一篇輕鬆的 Gate Travel 旅行小故事
📦 獎勵安排,走起:
🏆 優秀分享官(1 名):Gate 旅行露營套裝
🎖️ 熱門分享官(3 名):Gate 旅行速乾套裝
🎉 幸運參與獎(5 名):Gate 國際米蘭旅行小夜燈
*海外用戶 旅行露營套裝 以 $100 合約體驗券,旅行速乾套裝 以 $50 合約體驗券折算,國際米蘭旅行小夜燈以 $30合約體驗券折算。
📌 優質內容將有機會得到官方帳號轉發翻牌提升社區曝光!
📌 帖文將綜合互動量、內容豐富度和創意評分。禁止小號刷貼,原創分享更容易脫穎而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
大模型長文本能力突破:從4000 token到40萬 token的飛躍
大模型長文本能力提升:從LLM到Long LLM時代
大模型技術正在以驚人的速度發展,文本處理能力從4000 token躍升至40萬token。長文本能力似乎成爲大模型廠商的新標配。
國外方面,OpenAI通過多次升級將GPT-4的上下文長度提升至3.2萬token。Anthropic更是將其模型Claude的上下文長度一舉提升至10萬token。LongLLaMA更是將上下文長度擴展到25.6萬token甚至更多。
國內方面,某大模型初創公司推出的智能助手產品可支持輸入20萬漢字,約合40萬token。港中文一個研究團隊開發的LongLoRA技術可將7B模型的文本長度擴展到10萬token,70B模型擴展到3.2萬token。
目前,國內外已有一批頂級大模型公司將拓展上下文長度作爲更新升級的重點。這些公司大多獲得了資本市場的青睞,融資規模和估值都十分可觀。
大模型公司致力於突破長文本技術,將上下文長度擴大100倍意味着什麼?
表面上看是輸入文本長度和閱讀能力的提升。從最初只能讀完一篇短文,到現在可以閱讀整本長篇巨著。
更深層次來看,長文本技術也在推動大模型在金融、司法、科研等專業領域的應用落地。長文檔摘要、閱讀理解、問答等能力是這些領域智能化升級的基礎。
然而,文本長度並不是越長越好。研究表明,模型支持更長上下文輸入與效果提升並不能直接劃等號。更重要的是模型對上下文內容的使用。
不過,目前國內外對文本長度的探索還遠未達到極限。大模型公司仍在不斷突破,40萬token可能只是一個開始。
爲什麼要"卷"長文本?
某大模型公司創始人表示,正是由於輸入長度受限,造成了許多大模型應用落地的困境。這也是衆多公司當前聚焦長文本技術的原因。
例如在虛擬角色、遊戲開發、專業領域分析等場景中,輸入長度不足會導致各種問題。而在未來的Agent和AI原生應用中,長文本同樣扮演着重要角色。
長文本技術既可以解決大模型早期被詬病的一些問題,增強某些功能,同時也是進一步推進產業和應用落地的關鍵技術。這也表明通用大模型已進入從LLM到Long LLM的新階段。
通過某公司新發布的對話機器人,我們可以窺見Long LLM階段大模型的升級功能:
這些例子說明,對話機器人正朝着專業化、個性化、深度化方向發展,這或許是撬動產業落地的新抓手。
某公司創始人認爲,國內大模型市場會分爲toB和toC兩個陣營,在toC領域會出現基於自研模型的超級應用。
不過,目前長文本對話場景仍有優化空間,如聯網、暫停修改、減少錯誤等方面。
長文本的"不可能三角"困境
長文本技術面臨文本長短、注意力和算力的"不可能三角"困境:
這主要源於大多數模型基於Transformer結構。其中自注意力機制的計算量隨上下文長度呈平方增長。
這構成了文本長短與注意力的矛盾。同時,要突破更長文本又需要更多算力,形成了文本長短與算力的矛盾。
目前主要有三種解決方案:
長文本的"不可能三角"困境暫時無解,但明確了探索路徑:在三者間尋求平衡,既能處理足夠信息,又能兼顧注意力計算與算力成本。
内容语言:中文
以下是对文章的评论:
怪不了谁,只能难为显卡了~