[情報] 中國推出世界首顆無干涉 AI全自動設計CPU

作者: giorno78 (天晴)   2023-07-01 21:20:16
中國推出世界首顆無干涉 AI全自動設計CPU
https://new.qq.com/rain/a/20230630A07AQ100?no-redirect=1
中科院計算所的處理器晶片全國重點實驗室及其合作單位,
用AI技術設計出了世界上首個無人工干預、全自動生成的CPU晶片——啟蒙1號。
這顆完全由AI設計的32位RISC-V CPU,相比GPT-4目前所能設計的電路規模大4000倍,
並可運行Linux作業系統,且性能堪比Intel 486。
啟蒙1號處理器是基於RSIC-V指令集的,32位元架構,
早在2021年12月就已經完成流片驗證,之後中科院計算所還用它點亮了Linux作業系統,
並運行了SPEC CPU2000測試程式,評估後認為性能跟Intel的40486相當。
啟蒙1號晶片版圖及實物圖,其中CPU核部分完全由演算法自動生成,晶片於2021年12月採
用65nm工藝流片,運行頻率300MHz
這是全球首個無人工干預、全自動生成的CPU晶片,65nm工藝,頻率達到了300MHz,
相關研究論文已經發表。
啟蒙1號是中科院研究人員基於BSD二元猜測圖(Binary Speculation Diagram, 簡稱BSD
)演算法設計出來的,5個小時就生成了400萬邏輯門,
這個規模比GPT-4能設計的晶片大4000倍。
雖然啟蒙1號CPU的規模跟當前的頂級CPU還沒法比,但是AI技術的進步飛快,
未來AI設計晶片會成為主流,將極大地提高晶片設計效率。
啟蒙1號晶片可以成功運行Linux作業系統及性能對比(CPU-AI為啟蒙1號)
團隊介紹
自2008年起,中科院計算所便開始長期從事晶片設計和人工智慧的交叉研究。其中一項為
人熟知的產出就是人工智慧晶片寒武紀。
而在面向晶片設計的人工智慧方法上,中科院計算所也已有十多年的積累,並且從未停止
探索如何用人工智慧方法使得晶片設計完全自動化。
依託中國科學院計算技術研究所建立的處理器晶片全國重點實驗室,是中國科學院批准正
式啟動建設的首批重點實驗室之一,並被科技部遴選為首批 20個標杆全國重點實驗室,
2022年5月開始建設。其中,實驗室學術委員會主任為孫凝暉院士,
實驗室主任為陳雲霽研究員。
實驗室近年來獲得了處理器晶片領域首個國家自然科學獎等6項國家級科技獎勵;在處理
器晶片領域國際頂級會議發表論文的數量長期列居中國第一;在國際上成功開創了深度學
習處理器等熱門研究方向;孵化了總市值數千億元的國產處理器產業頭部企業。
使用ChatGPT設計的晶片
日前,國際上也有使用ChatGPT設計晶片的嘗試。紐約大學 Tandon 工程學院的研究人員
使用簡單的英語“對話”與 AI 模型製造了一個微處理晶片,這是一項史無前例的成就,
可以加快晶片開發速度,更重要的是這將允許沒有專業技術技能的個人設計晶片。
兩名硬體工程師使用標準英語與ChatGPT-4“交談”,並設計了一種新型的微處理器架構
。研究團隊和 ChatGPT 設計的晶片並不是一個完整的處理器,它是整個 CPU 的一個部分
:負責創建一個新穎的基於 8 位元累加器的微處理器架構的邏輯。該晶片隨後被送往
Skywater 130 nm 光刻機上進行製造。該團隊聲稱,這項研究標誌著 LLM 設計的 IC 首
次真正投入生產。
該團隊使用 125 條消息成功創建了他們的 IC
累加器本質上是寄存器(記憶體),其中存儲中間計算的結果,直到主計算完成。但它們
是 CPU 工作方式不可或缺的一部分;也許還可以設計其他必要的單元。這一成果表明,
未來成為 EDA 設計師的知識門檻要低得多。也許有一天,足夠多的 CPU 碎片會被公開,
這樣更多的ChatGPT用戶將可以在家裡設計他們的 CPU 架構。
研究人員使用商業和公開可用的大型語言模型 (LLM) 來研究八個硬體設計示例,在工程
師和 LLM 之間的即時來回交互中,通過純英文文本處理其 Verilog (HDL) 等效。
“這項研究產生了我們認為是第一個完全由 AI 生成的 HDL,用於製造物理晶片,”紐約
大學 Tandon 的研究助理教授兼研究團隊成員 Hammond Pearce 博士說。“一些人工智慧
模型,如 OpenAI 的 ChatGPT 和穀歌的 Bard,可以生成不同程式設計語言的軟體代碼,
但它們在硬體設計中的應用尚未得到廣泛研究。這項研究表明 AI 也可以使硬體製造受益
,尤其是當它被用於對話時,你可以通過一種有來有往的方式來完善設計。”
從這個實驗中,該團隊得出結論,
ChatGPT 確實可以將功能晶片設計為現實世界的解決方案。
==
心得:
有人說 2023年 才做出 486 有什麼好怕?
但這是在無人干涉下 讓 AI 自動迭代出來
就如同深度學習一樣 目標(準度)沒達到 再加更多迭代就好
怕了吧
User: 在 AI 極度普及的未來,有沒有可能用類似 chatGPT 的使用方式,
設計出比美現在頂極效能的 CPU?
chatGPT: 在 AI普及的未來,技術的發展可能會帶來一些突破,但是要設計出比現今頂尖效能的CPU
更加困難。ChatGPT是一種基於GPT-3.5模型的語言模型,並不是設計用於處理通用計算或
執行特定任務的處理器。
現在的頂尖效能CPU(例如在超級電腦或數據中心使用的處理器)是由專業的半導體公司
進行設計和製造的,他們投入了大量的時間、資源和專業知識,並且依賴於多個特殊化的
設計技術和流程。這些頂級CPU的設計需要考慮到高性能運算、能耗效率、散熱管理、並
且要兼容各種軟體和硬體。
AI技術的發展確實可能會對未來處理器的設計和性能產生影響。例如,將來可能會出現專
為AI運算優化的處理器架構,以更好地支援AI相關任務。已經有一些類似的產品,如
Google的TPU(Tensor Processing Unit)和NVIDIA的GPU(Graphics Processing Unit)
,專為加速機器學習和深度學習任務而設計。這些專用的硬體設計在處理AI相關工作時通
常比通用CPU更有效率。
因此,未來的處理器可能會利用AI技術和相關的硬體加速器進行優化,以提供更好的性能
和效能。但是,要設計出比現在頂尖效能的CPU更加困難,因為它涉及到眾多複雜的工程
和物理問題。無論如何,技術的進步和創新總是令人期待的,未來可能會帶來一些意想不
到的突破和改變。
Bing: 您好,這是必應。感謝您的提問。
根據我的搜索結果,目前還沒有用類似 chatGPT 的方式設計出比現在頂級效能的 CPU 的
案例。但是,有一些研究和專案正在探索 AI 在 CPU 設計中的應用和潛力。
例如,中科院計算所等機構推出了世界首個完全由 AI 設計的 CPU 晶片,不僅比目前
GPT-4 所能設計的電路規模大了 4000 倍,而且性能也達到了與 Intel 486 相當的水準1

另外,英特爾® 至強® 可擴展處理器配備了內置的 AI 引擎,可以全面提升 AI 流水線
性能,支援從資料預處理、經典機器學習,到語言處理和圖像識別等深度學習模型。它們
還利用了英特爾® 高級矩陣擴展(Intel®Advanced Matrix Extensions,英特爾® AMX
)和英特爾® 深度學習加速技術(Intel®Deep Learning Boost,英特爾® DL Boost)
等技術來加速深度學習訓練和推理2。
我認為,在 AI 極度普及的未來,使用類似 chatGPT 的方式設計 CPU 是有可能的,但也
需要解決一些技術和成本的挑戰。我希望這些資訊對您有説明。如果您有其他問題,請隨
時提問。
Claude: 這是一個很有趣的想法。理論上,如果AI系統具有足夠的計算能力和對半導體設計的深入
理解,它就有可能設計出比目前最高效能的CPU更強大的處理器。但是,實現這一目標還面
臨著許多挑戰:
處理器設計是一項非常複雜的工程,需要對電子工程,物理和計算機架構等領域有深入的理
解。目前的AI系統的知識還遠遠不能滿足這些要求。
處理器設計需要大量的創造性和直覺,需要在不同的設計選擇和取捨中作出判斷。這需要
一種更加通用和靈活的人工智能,而不是像GPT這樣靠大量數據訓練的模型。
處理器的設計和驗證過程需要對真實世界的理解。例如需要考慮製造工藝,測試處理器的
可靠性和性能等,這需要機器具有對實際世界更好的理解能力。
目前的AI系統都只能在軟件層面運作,實際的硬件設計和驗證還需要人類工程師的參與。
要實現全自動的AI晶片設計,還需要突破AI系統與物理世界的聯繫。
所以,儘管這是一個非常有前景的方向,但要實現像GPT那樣的AI系統設計超高效能的處理
器,還有很長的路要走。需要AI技術在許多方面的進步,特別是通用學習,對真實世界的理
解,以及與物理系統的結合等。

Links booklink

Contact Us: admin [ a t ] ucptt.com