邊緣AI開發,如何駛上快車道?
發布時間:2023-06-25 來源:Mouser 責任編輯:wenwei
【導讀】在雲計算之後,邊緣計算將成為未來十年物聯網市場新的增長點,這已經是不爭的事實。據市場研究機構Gartner預測,到2025年將有75%的數據產生於網絡邊緣,也就是說整個智能世界的計算資源分布重心正在移向“邊緣”。
butongyuchuantongyunjisuanjiagouzhongjiangsuoyoujisuanziyuandoujizhongzaiyunduandezuofa,bianyuanjisuanjianggengduodejisuanrenwufangdaowangluobianyuanduanwancheng,zheyangdejisuanjiagouzaijianshaoyanchi、避免大量數據傳輸對帶寬的占用、保護本地敏感數據安全等方麵有獨特的優勢。
特別是隨著人工智能(AI)應用的普及,“在雲端訓練,在邊緣端推理”的模式已被普遍認同。通過在邊緣設備中部署經過訓練的機器學習模型,讓邊緣設備能夠快速、高效地完成AI推理工作,可以促使越來越多的AI應用加速落地。
國際電信谘詢公司STL Partners預測,邊緣計算的潛在市場將從2020年的90億美元快速攀升至2030年的4,450億美元,複合年增長率高達48%!而如此蓬勃發展的市場,也給置身其中的玩家提出了更高的要求——想要跟上市場發展的速度,就需要你的邊緣AI開發也能夠駛入快車道。
邊緣AI催生自適應計算
應用開發想要“上高速”,一個先決條件就是要選一台跑得快的好“車”——針對邊緣AI開發來講,就是要挑選一個可以任性“加速”的開發平台。
一個AI推理應用,既需要對AI處理部分進行加速,也需要滿足非AI的預處理和後處理等環節的功能要求,也就是說要對整體的應用流程進行優化。
針對這樣的開發需求,使用單一架構的通用CPU,雖然靈活可擴展,可以支持不同應用的要求,但對於整體應用流程加速顯然會捉襟見肘,力不從心。而如果為AI應用開發專門的ASIC或ASSP,雖然可以提供高度優化的應用實現方案以及高確定性與低時延,但又會麵臨著開發周期長、研發成本高的困擾。與此同時,采用固定專用芯片架構還麵臨著一個更嚴峻的挑戰,那就是AI模型的技術迭代速度遠遠快於芯片開發的周期,這就會導致芯片好不容易開發出來就已經落伍了,成為無可挽回的沉沒成本。
圖1:AI推理應用需要全流程的整體應用加速
(圖源:AMD)
麵對多樣化的邊緣應用、快速迭代的AI技術,既然通用的CPU和專用的芯片都無法滿足要求,就需要一種新的開發平台來補位——這就是基於可編程邏輯的自適應計算平台。
所謂自適應計算平台,就是在不同規模的FPGA結構上集成一個或多個嵌入式CPU 子係統、IO及其他外設模塊的異構計算平台。這種平台也被稱為自適應SoC或FPGA SoC,它既有嵌入式CPUzixitongsuojubeidelinghuoxing,youketongguoyingjianbianchengtigongsuoxudeshujuchulijiasuxingneng,yincikaifazhenenggoujiangzhengquederenwufenpeigeizhengquedejisuanyinqing,zuizhongjinenggouweiAI推理進行加速,又可以滿足非AI部分的計算要求,進而為各類特定應用提供理想的解決方案。而且,即使工作負載或標準發生演進和變化,自適應SoC仍能根據需要快速配置、靈活適應。
正是因為自適應SoC兼具性能和靈活性的優勢,近年來其已經發展成為邊緣計算中一個重要的計算架構,也是FPGA廠商在著力打造的一個產品線。比如AMD的Zynq®UltraScale+TM MPSoC器件就是其中的代表作。(如圖2所示)
圖2:Zynq®UltraScale+TM MPSoC平台框圖
(圖源:AMD)
加速自適應計算的應用開發
顯而易見,自適應計算SoC可以為用戶帶來三重自由度,即軟件可編程能力、硬件可編程能力以及嵌入式平台的可擴展能力。
不過這種“自由度”對開發者來講也是一把“雙刃劍”——它們雖然比其他嵌入式計算架構更加靈活,但也會令開發變得更加複雜。這種複雜性來自兩個方麵:其一,FPGA的設計開發流程本身就有較高的門檻,能夠熟練掌握的開發者並不多;其二,基於異構平台的整體優化,往往需要多個團隊之間的協同工作,使得開發時間和成本不易掌控。
因此,雖然自適應計算SoC對性能的“加速”能力顯而易見,但是想讓其應用開發過程也得以“加速”,並不是一件簡單的事。
不過,聰明的工程師們總有辦法讓“不簡單”的事情變簡單。在“為自適應計算應用開發加速”這件事兒上,AMD的工程師就為開發者們提供了一個可行而高效的方法——基於自適應係統模塊(SOM)的解決方案。
所謂SOM,想必大家不會陌生,這是一個集成了內核芯片以及外圍的存儲器、IO接口等功能電路的完整計算係統,它通常不是獨立使用的,而是要通過連接器插入到母板(即一個更大型的邊緣應用係統)中實現一個特定的完整應用。
SOM為開發者帶來的好處,歸納起來主要有三點:
#1 首先,SOM都是經過嚴格調試、測試和驗證的產品,因此開發過程不必從更為底層的芯片進行,可以節省大量的時間和成本。
#2 其次,SOM具有很強的可擴展性,插入不同的係統板,即能實現定製的方案,這就為係統設計帶來了更強的靈活性與易用性。
#3 此外,SOM是可量產化的,在性價比、可靠性等方麵都經過了全麵的優化,因此使用在批量的商用產品中完全沒有問題。
而上麵這些優勢,正是自適應計算應用開發中麵臨的“痛點”,因此設計一個自適應SOM,並利用其為自適應計算提速,為邊緣AI方案賦能,也就成了駛上邊緣AI“高速公路”的關鍵“入口”。
AMD的自適應SOM
AMD的Kria K26 SOM就是大家在駛入邊緣AI快車道時,在尋找的這個關鍵“入口”。
圖3:Kria K26 SOM
(圖源:AMD)
該SOM基於Zynq UltraScale+ MPSoC架構,內置一個64位的四核Arm Cortex-A53應用處理器組,並配套一個32位的雙核Arm Cortex-R5F實時處理器和一個Arm Mali-400MP2 3D圖形處理器。SOM上還包括4GB的64位DDR4存儲器和QSPI與eMMC存儲器。
Kria K26 SOM可提供25.6萬個係統邏輯單元、1,248個DSP、26.6Mbdepianshangneicun。zheshideyonghunenggouhuodefengfudeziyuanheshejiziyoudu,yishixianbutongyingyongzhongdeshijiaogongnengyijikebianchengluojizhongewaidejiqixuexiyuchulihehouchuliyingjianjiasugongneng。
此外,該SOM還為H.264/H.265提供了內置的視頻編解碼器,可支持高達32個編碼、解碼並發流,隻要視頻總像素在60FPS下不超過3840 x 2160P。
圖4:Kria K26 SOM框圖
(圖源:AMD)
在安全性方麵,Kria K26 SOM采用Zynq UltraScale+架構內置的硬件可信根實現的固有的安全啟動功能,通過外部TPM2.0擴展用於測量啟動並遵循IEC 62443規範。
此外,出色的I/O靈活性也是Kria K26 SOM一大亮點——它擁有大量的1.8V、3.3V單端與差分I/O,四個6Gb/s收發器和四個12.5Gb/s收發器,便於SOM支持更多的圖像傳感器以及多種傳感器接口類型,其中包括通常ASSP和GPU不支持的MIPI、LVDS、SLVS 和SLVS-EC。
此外,用戶還能通過可編程邏輯實現DisplayPort、HDMI、PCIe、USB2.0/3.0等標準,以及其他用戶自定義的標準。
在外形上,Kria K26 SOM的尺寸為77mm x 60mm x 11mm,緊湊的外形非常便於集成到係統中,且根據規劃,未來AMD還將推出更小尺寸的SOM。目前Kria K26 SOM分為商用級和工業級兩個版本,用戶可以根據終端應用的需要進行選擇。
圖5:商用級和工業級K26 SOM特性比較
(圖源:AMD)
Kria K26 SOM帶來的價值
使用Kria K26 SOM會是一種什麼樣的體驗?在設計實戰中,Kria K26 SOM的表現如何?想必這是大家都關心的問題。
首先,從簡化硬件設計流程來看,與傳統的基於器件的設計相比,基於SOM的設計省去了RTL/硬件設計、器件調試、電路板設計等環節,直接從係統級設計開始,因此可以大大簡化開發流程——據AMD的分析,基於SOM的設計可以縮短新產品上市時間多達9個月!
圖6:基於SOM的設計與基於芯片的設計過程相比,可以縮短新產品上市時間多達9個月(圖源:AMD)
在硬件性能方麵,在AMD提供的一個汽車車牌識別(ANPR)應用案例中,基於Kria K26 SOM的解決方案出色地完成了包含視頻解碼、圖像預處理、機器學習(檢測)和OCR字符識別在內全流程的加速和優化,與采用GPU架構的SOM方案相比,在計算性能、能效表現、以及每視頻流成本上都有明顯的優勢(如圖7)。相信隨著K26 SOM應用的擴展,其在性能上的潛質也會被越來越多地挖掘出來。
圖7:在ANPR案例中,K26 SOM表現出明顯性能優勢(圖源:AMD)
特別值得一提的是,Kria K26 SOM除了可以為硬件開發者帶來諸多好處,對軟件開發者也是一個福音。隨著與Kria K26 SOM配套的邊緣AI軟件工具、庫和框架的發展,一些設計團隊可以在無需硬件工程師介入的情況下使用自適應計算。
對於軟件開發者而言,Kria K26 SOM和AMD提供的綜合軟件平台,可以使其在熟悉的Python、C++、TensorFlow和PyTorch等環境下進行開發,為其提供易於使用、開箱即用的體驗。再加上AMD生態係統中第三方軟件廠商資源的支持,更是可以讓邊緣AI開發的性能和靈活性提升到一個更高的水平。
快速體驗Kria K26 SOM
為了方便開發者快速體驗到Kria K26 SOM的強大能力,挖掘Kria K26 SOM的價值,AMD針對一些典型的邊緣AI應用,還提供了開箱即用的入門級開發套件。
Kria KV260是專為視覺應用而開發的視覺AI入門套件,它配有非生產版本的Kria K26 SOM,以及安裝有風扇散熱器的評估載板,可通過onsemi成像器訪問係統(IAS)和Raspberry Pi連接器提供多攝像頭支持。該開發套件還可由PMOD擴展支持豐富的傳感器模塊。
基於KV260視覺AI入門套件,軟硬件開發人員無需FPGA經驗,即可在1小時內啟動和運行應用程序,進而在Kria K26 SOM上快速實現視覺AI應用的批量部署。
圖8:Kria KV260視覺AI入門套件
(圖源:AMD)
Kria KR260機器人入門套件是AMD新推出的一款基於Kria K26 SOM的開發平台,它具有高性能接口和原生ROS 2支持,旨在為機器人和嵌入式開發人員提供快速簡便的開發體驗。
該開發套件包括Kria K26 SOM、載板和散熱係統,以及電源解決方案、多個以太網接口、SFP+連接、SLVS-EC傳感器接口和microSD卡,其目標應用包括工廠自動化、通信、控製和視覺,特別是機器人和機器視覺應用。
圖9:Kria KR260機器人入門套件
(圖源:AMD)
本文小結
雲計算已經深刻改變了IT和IoT世界的格局,而邊緣計算的興起正在重塑新的遊戲規則。在這一趨勢中,如何讓越來越多的邊緣AI應用快速落地,需要一種不同以往的計算平台,以及與之相適應的開發方法。自適應SOM也就應運而生了。
AMD的Kria K26 SOM可以讓你的邊緣AI開發駛上快車道,並沿著這條高速公路,將邊緣AI應用範圍延伸至到更廣闊的領域。想要快速起步,即刻上路,就來貿澤電子網站中的Kria K26 SOM專題深入了解一下吧!
免責聲明:本文為轉載文章,轉載此文目的在於傳遞更多信息,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請聯係小編進行處理。
推薦閱讀:
- 噪聲中提取真值!瑞盟科技推出MSA2240電流檢測芯片賦能多元高端測量場景
- 10MHz高頻運行!氮矽科技發布集成驅動GaN芯片,助力電源能效再攀新高
- 失真度僅0.002%!力芯微推出超低內阻、超低失真4PST模擬開關
- 一“芯”雙電!聖邦微電子發布雙輸出電源芯片,簡化AFE與音頻設計
- 一機適配萬端:金升陽推出1200W可編程電源,賦能高端裝備製造
- 築基AI4S:摩爾線程全功能GPU加速中國生命科學自主生態
- 一秒檢測,成本降至萬分之一,光引科技把幾十萬的台式光譜儀“搬”到了手腕上
- AI服務器電源機櫃Power Rack HVDC MW級測試方案
- 突破工藝邊界,奎芯科技LPDDR5X IP矽驗證通過,速率達9600Mbps
- 通過直接、準確、自動測量超低範圍的氯殘留來推動反滲透膜保護
- 車規與基於V2X的車輛協同主動避撞技術展望
- 數字隔離助力新能源汽車安全隔離的新挑戰
- 汽車模塊拋負載的解決方案
- 車用連接器的安全創新應用
- Melexis Actuators Business Unit
- Position / Current Sensors - Triaxis Hall




