• 我國科學家成功研制全球神經元規模最大的類腦計算機

    發布時間:2020-09-01來源:浙大新聞辦

    1.6米高的三個標準機柜并排而立,黑色的外殼給人酷酷的感覺,紅色的信號燈不停地閃爍,靠得近些似乎能聽到里面脈沖信號飛速奔跑的聲音。

    近日,浙江大學聯合之江實驗室共同研制成功了我國首臺基于自主知識產權類腦芯片的類腦計算機(Darwin Mouse)。

    這臺類腦計算機包含792顆浙江大學研制的達爾文2代類腦芯片,支持1.2億脈沖神經元、近千億神經突觸,與小鼠大腦神經元數量規模相當,典型運行功耗只需要350-500瓦,同時它也是目前國際上神經元規模最大的類腦計算機。

    與此同時,團隊還研制了專門面向類腦計算機的操作系統——達爾文類腦操作系統(DarwinOS),實現對類腦計算機硬件資源的有效管理與調度,支撐類腦計算機的運行與應用。

    顛覆傳統的新型計算模式

    對于如今在工作生活各個領域中早已司空見慣的計算機,或許大家已經忘了最初科學家是想通過機器模擬出一個人類大腦。

    然而計算機的發展,在當時選擇了以數值計算見長的馮·諾依曼架構,也就是以數字加減乘除的方式來進行信息架構。隨著摩爾定理逐漸失效,馮·諾依曼架構帶來的局限日益明顯,存儲墻、功耗墻、智能提升等問題,讓當前計算機發展面臨重大挑戰。

    比如,存儲墻問題是由于現有的馮·諾依曼架構中數據儲存和計算的分離產生的,“這就好比信息存儲在甲地,要計算的時候就把信息搬到乙地去,計算好了再搬回甲地去。但搬運的速度要遠遠低于計算的速度,反而讓搬運本身成為關鍵瓶頸?!毖芯繄F隊負責人、浙江大學計算機科學與技術學院教授潘綱說,這種計算模式制約了以大數據為代表的計算性能提升。而由此帶來的數據“跑動”,以及人工智能等高耗能計算又讓功耗墻問題冒了出來。同時,數據驅動的智能算法、訓練需要海量樣本與密集計算,但舉一反三、自我學習等高級能力比較差,“現在的機器智能離人的智能差得還很遠?!?/p>

    如何突破現有計算運行方式導致的計算機瓶頸?

    全球科學家們再次將目光瞄準到模仿生物大腦這個最初的夢想,通過模擬人腦結構與運算機制來發展新的計算技術,以期實現高能效與高智能水平的計算。

    生物大腦在與環境相互作用過程中能夠自然產生不同的智能行為,包括語音理解、視覺識別、決策任務、操作控制等,而且消耗的能量非常低。自然界中,很多神經元遠低于100萬的昆蟲就能做到實時目標跟蹤、路徑規劃、導航和障礙物躲避。

    潘綱介紹說,用硬件及軟件模擬大腦神經網絡的結構與運行機制,構造一種全新的人工智能系統,這種顛覆傳統計算架構的新型計算模式,就是類腦計算。其特點在于存算一體、事件驅動、高度并行等,是國際學術界與工業界的研究焦點,更是重要的科技戰略,“類腦計算已被看作是解決人工智能等計算難題的重要路徑之一?!?/p>

    近年來,浙江大學聚焦人類智能與機器智能等核心領域,實施了簡稱為“雙腦計劃”的腦科學與人工智能會聚研究計劃,希望借鑒腦的結構模型和功能機制,將腦科學的前沿成果應用到人工智能等研究領域,建立引領未來的新型計算機體系結構。

    2015年和2019年浙江大學分別研制成功達爾文1代和達爾文2代類腦計算芯片,用芯片去模擬大腦神經網絡的結構與功能機制,在圖像、視頻、自然語言的模糊處理中具有優勢。而這次的成果是將792顆我國自主產權的達爾文2代類腦計算芯片集成在3臺1.6米高的標準服務器機箱中,形成了一臺強大的機架式類腦計算機。

    那么,這種高效能低功耗是如何實現的呢?項目研究骨干馬德副教授說,大腦神經元的工作機理是鉀離子鈉離子的流入流出導致細胞膜電壓變化,從而傳遞信息,“可以簡單理解為,一個神經元接受輸入脈沖,導致細胞體的膜電壓升高,當膜電壓達到特定閾值時,會發出一個輸出脈沖到軸突,并通過突觸傳遞到后續神經元從而改變其膜電壓,實現信息的傳遞?!?/p>

    這里很重要的一點是異步運行,也就是信號來的時候啟動,沒有信號就不運行。類腦芯片的工作原理就類似于生物的神經元行為,通過脈沖傳遞信號,這樣就能實現高度并行,效率提升。

    真正像腦一樣“思考”

    有了硬件,還得有軟件。

    項目研究骨干金孝飛介紹,每顆芯片上有15萬個神經元,每4顆芯片做成一塊板子,若干塊板子再連接起來成為一個模塊。這臺類腦計算機就是這樣像搭積木一樣搭起來。

    說起來容易,可要讓這么多神經元能夠互聯并且可拓展從而實現高效的聯動組合,同時要把雜亂無章的信息流有序分配到對應的功能腦區,可不那么簡單。

    為此,科研人員專門研發了一個面向類腦計算機的類腦操作系統——DarwinOS。

    這款達爾文類腦操作系統面向馮·諾依曼架構與神經擬態架構的混合計算架構,實現了對異構計算資源的統一調度和管理,為大規模脈沖神經網絡計算任務提供運行和服務平臺。項目研究骨干呂攀介紹說:“目前達爾文類腦操作系統的功能任務切換時間達微秒級,可支持億級類腦硬件資源管理?!?/p>

    由此,類腦計算機研究的價值真正得以實現——既可以應用于生活中的智能任務處理,也可以應用于神經科學研究,為神經科學家提供更快更大規模的仿真工具,提供探索大腦工作機理的新實驗手段。

    目前,浙江大學與之江實驗室的科研人員基于Darwin Mouse類腦計算機已經實現了多種智能任務。研究者將類腦計算機作為智能中樞,實現抗洪搶險場景下多個機器人的協同工作,涉及到語音識別、目標檢測、路徑規劃等多項智能任務的同時處理,以及機器人間的協同。同時,還用類腦計算機模擬了多個不同腦區,建立了丘腦外側膝狀核的神經網絡模型,仿真了不同頻率閃動的視覺刺激時該腦區神經元的周期性反應;借鑒海馬體神經環路結構和神經機制構建了學習-記憶融合模型,實現音樂、詩詞、謎語等的時序記憶功能;實現了腦電信號的穩態視覺誘發電位實時解碼,可“意念”打字輸入。

    記者在實驗現場看到,3臺外形相似的機器人,在經過簡單的訓練后,合作開展抗洪救險任務。只見1號機器人憑借自帶攝像頭開始在場地巡邏,當發現堤壩缺口后,就呼叫負責工程的3號機器人前來修壩,同時搜尋受傷人員,當發現倒在地上的人體模型后,又呼叫負責救援的2號機器人。3號機器人和2號機器人趕來執行任務,1號機器人又去別的地方巡邏了。

    這一幕似乎并不新鮮,現有的機器人也能做到。但最大的不同在于這幾個機器人是在類腦計算機的控制下通過語音開展移動指令,并接受任務分配?!安煌瑱C器人的任務可以通過指令切換,也就是說它們的功能并不是固定的,而是通過不同腦區來操控的,1號機器人現在干巡邏的活,過會又可以變成負責救援或者工程?!表椖垦芯抗歉衫瞵摳苯淌谡f。

    在另一個實驗場景中,課題組成員給計算機演唱一首歌其中的兩句,然后,計算機就能通過回想把后續的歌曲內容“唱”出來。

    “這是類腦計算機通過模擬海馬體記憶機制,實現對大腦內部記憶信息的存取,與我們常用的檢索功能不同。”項目研究骨干唐華錦教授說,Darwin Mouse類腦計算機通過借鑒海馬體網絡結構以及神經機制建立記憶模型架構,可以模擬海馬體的記憶-學習功能,通過記憶的脈沖編碼,同一模型就可以學習與記憶語音、歌曲、文本等不同類型數據。

    類腦計算機將如何“進化”

    1946年誕生的世界第一臺計算機重達28噸,運算速度為每秒5000次的加法運算,然而在以后的70多年里,計算機技術飛速發展。類腦計算機的發展速度很有可能也會令人驚訝。

    別看現在的類腦計算機是個“大塊頭”,科學家們表示,隨著達爾文芯片及其他硬件的不斷迭代升級,體積縮小將指日可待。未來類腦計算機或將植入手機、機器人,產生新的智能服務體驗。

    與硬件上的更新相比,如何讓類腦計算機變得更聰明是科學家們下一步研究的重點。

    目前,市面上的傳感器輸入的信號還是以數字為主,在應用到Darwin Mouse類腦計算機上,要加一個編碼層,將信號轉換為脈沖式的,而在這個過程中,信息有丟失和損傷,會在一定程度上降低計算機的功效。如果能解決這個問題,類腦計算機就能變得更加智能。

    當前,類腦計算研究還處于初級階段,Darwin Mouse類腦計算機,無論從規模還是智能化程度上都與真正的人類大腦還有很大的差距,但其意義在于能夠為這種技術路徑提供一個重要的實踐樣例,為研究人員提供一個工具和平臺,驗證類腦算法,以更強的魯棒性、實時性和智能化去解決實際的任務。

    浙江大學和之江實驗室研究員的目標是,希望隨著神經科學發展和類腦計算機的系統軟件、工具鏈及算法的成熟,有朝一日能夠讓類腦計算機像馮·諾依曼架構計算機一樣通用化,真正像大腦一樣高效工作,與馮·諾依曼架構并存與互補去解決不同的問題。

    一位業內人士表示,從加減乘除這樣的數值計算方式,到模擬大腦的脈沖計算方式,這是一次重要的計算模式的變革。潘綱說:“我們希望能夠像生物進化一樣,不斷地讓達爾文系列類腦計算機朝著人類智能的方向發展,以超低功耗提供更強的人工智能?!?/p>

    (文 柯溢能 吳雅蘭/攝影 盧紹慶)

    彩35