[閒聊] 用麥塊做的生成式AI「CraftGPT」

作者: Senkanseiki (戦艦棲姫)   2025-10-01 13:43:57
https://x.com/_mwup/status/1973216592218693755
https://news.denfaminicogamer.jp/news/251001e
YouTube投稿者sammyuri最近發表,他製作了一個在麥塊中運作的ChatGPT風格的生成式AI「
CraftGPT」
該計畫以紅石回路構築而成,尺寸為「1020×260×1656」(≒4億3900萬)
因為結構龐大,攝影本身需要MOD輔助
不過沒有用外掛模組,一般的麥塊軟體理論上也跑得動
這個小規模的語言模型有5087020個參數
利用基本英語會話的資料庫然後以python學習
對話框總共有64個token,可以進行簡短的英語對話
但是回答需要的時間非常長
就算用了Minecraft High Performance Redstone Server
將更新頻率提高到4萬倍以上,依然需要約2小時才能回答一句話
如果沒有用這個加速的伺服器那可能需要10年以上
作者表示希望不要太過期待
這個AI很可能產生文法錯誤或意義不明的回答
作者投稿的影片本身是該AI的最好表現成果,而不是平均表現
但光是靠紅石回路做出一套AI就是一個超強的成果了
各位要不要也試試看用麥塊製作AI呢
作者: omfg5487 (suPeRthICc)   2025-10-01 13:45:00
是把參數載進去還是直接用紅石電路訓練的?
作者: kuninaka   2025-10-01 13:46:00
什麼跟什麼啦XD
作者: mhwsadb45 (斬斧雙刀使用者)   2025-10-01 13:46:00
在虛擬世界裡建造虛擬世界
作者: qweertyui891 (摸魚廚師)   2025-10-01 13:47:00
等十年 花式用電是吧
作者: kirimaru73 (霧丸)   2025-10-01 13:48:00
這成果很了不起,不過也顯示了大型語言模型的誇張程度今年的模型只有10億參數都算是超級迷你版了
作者: harryron9 (兩個世界)   2025-10-01 13:49:00
載參數吧 在賣快訓練是要搞多久
作者: kirimaru73 (霧丸)   2025-10-01 13:49:00
要搞訓練的話可以玩個MNIST 講話太難了
作者: allanbrook (翔)   2025-10-01 13:49:00
什麼時候有人在麥塊做個underworld出來讓裡面ai小人自己生存
作者: smart0eddie (smart0eddie)   2025-10-01 13:51:00
:0
作者: kirimaru73 (霧丸)   2025-10-01 13:51:00
其實GPT很多代都是這種你工三小的情況最近會紅起來是因為品質進步到像是奇蹟一樣
作者: hansvonboltz (hanslion)   2025-10-01 13:52:00
我們要在模擬世界裡模擬世界了
作者: inte629l   2025-10-01 13:54:00
應該載參數做推論? 不過螢幕後面那幾個龐大block好猛...
作者: ChikuwaM (翻譯竹輪)   2025-10-01 13:56:00
XDDD
作者: joe123456963 (pandajoe)   2025-10-01 13:57:00
以後可以讓麥塊村民玩賣快了吧~~
作者: eva05s (◎)   2025-10-01 13:58:00
宇宙貓貓.jpg
作者: asiaking5566 (無想轉生)   2025-10-01 13:59:00
1B模型大概只能簡單英文對話而已
作者: qd6590 (說好吃)   2025-10-01 14:00:00
什麼時候才能在minecraft裡面玩minecraft
作者: REDF (RED)   2025-10-01 14:01:00
樓上 早就辦到了 記得甚至套到第二層到了
作者: widec (☑30cm)   2025-10-01 14:01:00
殺小啦 wwwwww
作者: X0110X   2025-10-01 14:02:00
.....???
作者: kirimaru73 (霧丸)   2025-10-01 14:03:00
MC玩MC比講話容易多了 講話是靠北難的事情
作者: t77133562003 (我是一隻山羊)   2025-10-01 14:04:00
作者: lolicon (三次元滾開啦)   2025-10-01 14:06:00
作者: Fezico (尬廣跟上)   2025-10-01 14:09:00
萬能的紅石
作者: henry1234562 (亨利二十三)   2025-10-01 14:10:00
可惜大語言模型並沒辦法走到agi
作者: jay920314 (Jay_9696)   2025-10-01 14:10:00
不是哥們
作者: su4vu6   2025-10-01 14:11:00
手搓AI 就是麥塊
作者: namirei (哎呀奈米光)   2025-10-01 14:11:00
哇幹
作者: BSpowerx (B.S)   2025-10-01 14:11:00
別人玩的麥塊怎麼跟我的不一樣
作者: tomhawkreal (阿湯)   2025-10-01 14:12:00
請問有誰能接受2小時回一句話
作者: TohmaMiyuki (塔馬美由紀)   2025-10-01 14:13:00
XDDDDDDDDDDDDDDDD
作者: kaltu (ka)   2025-10-01 14:14:00
深度學習麻煩的是訓練要用到很多奇怪的硬體電路,不好用紅石做推論的話就簡單了,就是一狗票乘法而已規模如果非線性層都用簡單relu的話,每一層線性層都壓縮起來可以到很小這也是為什麼現在手機和糞筆電都能內建AI功能的原因,製造很困難要部署到終端裝置倒是很簡單
作者: kirimaru73 (霧丸)   2025-10-01 14:15:00
要演示訓練的話還是辨識就好了 訓練LM真的會死人
作者: smallreader (小讀者)   2025-10-01 14:15:00
妹子說 我去洗個澡 然後就2小時一樣
作者: efkfkp (Heroprove)   2025-10-01 14:19:00
其實現實世界也是AI模擬跑出來的啦,你看光速上限跟電子能級還有雙縫干涉,根本是像是參數隨便設置的漏洞w
作者: kirimaru73 (霧丸)   2025-10-01 14:20:00
不過終端用CPU硬跑一個堪用的東西好像越來越不可能了現在都在比肥大的 乖乖給我去平行運算
作者: umapyoisuki   2025-10-01 14:31:00
在麥塊裡養一個小世界看他們什麼時候會突破飛升
作者: h0103661 (路人喵)   2025-10-01 15:12:00
終端模型一直都有新的啊,google gemma手機上就能跑,20秒一句話而已
作者: chy19890517 (mocat)   2025-10-01 15:20:00
學妹一句話我等2年才回,這個2小時一句話還好吧?
作者: necrophagist (Hogong-Yeah)   2025-10-01 15:40:00
三小
作者: skhten (skhten)   2025-10-01 15:43:00
睿智的蛤蜊:
作者: NicoNeco ((゚д゚≡゚д゚))   2025-10-01 15:58:00
看錯標題 還以為是在GPT裡面玩麥塊
作者: jeremy7986 (影子-shadow★)   2025-10-01 17:18:00
這作者超強 之前就做了在麥塊裡玩麥塊現在是在麥塊裡玩AI

Links booklink

Contact Us: admin [ a t ] ucptt.com