✈️ Gate 廣場【Gate Travel 旅行分享官召集令】
廣場家人們注意啦!Gate Travel 已經上線~ 機票+酒店一站式預訂,還能用加密貨幣直接付款 💸
所以說,你的錢包和你的旅行夢終於可以談戀愛了 😎 💕
現在廣場開啓 #GateTravel旅行分享官# 活動,邀你來秀旅行靈感 & 使用體驗!💡
🌴 參與方式:
1️⃣ 在【廣場】帶話題 #Gate Travel 旅行分享官# 發帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小島 or 網紅打卡點都行)
講講用 Gate Travel 訂票/訂酒店的奇妙體驗
放放省錢/使用攻略,讓大家省到笑出聲
或者直接寫一篇輕鬆的 Gate Travel 旅行小故事
📦 獎勵安排,走起:
🏆 優秀分享官(1 名):Gate 旅行露營套裝
🎖️ 熱門分享官(3 名):Gate 旅行速乾套裝
🎉 幸運參與獎(5 名):Gate 國際米蘭旅行小夜燈
*海外用戶 旅行露營套裝 以 $100 合約體驗券,旅行速乾套裝 以 $50 合約體驗券折算,國際米蘭旅行小夜燈以 $30合約體驗券折算。
📌 優質內容將有機會得到官方帳號轉發翻牌提升社區曝光!
📌 帖文將綜合互動量、內容豐富度和創意評分。禁止小號刷貼,原創分享更容易脫穎而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
GPT-4是8x2200億參數的混合模型?這個小道消息今天傳瘋了
來源:機器之心
「GPT-4 的參數量高達100 萬億。」相信很多人還記得這個年初刷屏的「重磅」消息和一張被病毒式傳播的圖表。
實際上,許多人相信並傳播這樣的謠言是因為近年來AI 社區不斷在增加AI 模型的參數規模。谷歌在2021 年1 月發布的Switch Transformer 就把AI 大模型參數量拉高到了1.6 萬億。在此之後,很多機構也陸續推出了自己的萬億參數大模型。據此,人們有充分的理由相信,GPT-4 將是一個萬億參數的巨量模型,100 萬億參數也不是不可能。
雖然Sam Altman 的闢謠幫我們去掉了一個錯誤答案,但他背後的OpenAI 團隊一直對GPT-4 的真實參數量守口如瓶,就連GPT-4 的官方技術報告也沒透露任何信息。
直到最近,這個謎團疑似被「天才黑客」喬治・霍茲(George Hotz)捅破了。
喬治・霍茲因17 歲破解iPhone、21 歲攻陷索尼PS3 而聞名,目前是一家研發自動駕駛輔助系統的公司(comma.ai)的老闆。
最近,他接受了一家名為Latent Space 的AI 技術播客的採訪。在採訪中,他談到了GPT-4,稱GPT-4 其實是一個混合模型。具體來說,它採用了由8 個專家模型組成的集成系統,每個專家模型都有2200 億個參數(比GPT-3 的1750 億參數量略多一些),並且這些模型經過了針對不同數據和任務分佈的訓練。
對於未來的趨勢,他認為,人們會訓練規模較小的模型,並通過長時間的微調和發現各種技巧來提升性能。他提到,與過去相比,訓練效果已經明顯提升,儘管計算資源沒有變化,這表明訓練方法的改進起到了很大作用。
目前,George Hotz 關於GPT-4 的「爆料」已經在推特上得到了廣泛傳播。