【導讀】由 AI 提供支持的應用,正在日益普遍地被部署到邊緣和終端,高性能 AI 推斷正在推動更智慧的城市和高度自動化的智能工廠步入現實。隨著智能零售引入了極為精致的自動化購物體驗,零售體驗也變得更加精巧細膩。這些應用需要具備極高可靠性并提供高性能,同時也需要提供高效緊湊的外形尺寸。
由 AI 提供支持的應用,正在日益普遍地被部署到邊緣和終端,高性能 AI 推斷正在推動更智慧的城市和高度自動化的智能工廠步入現實。隨著智能零售引入了極為精致的自動化購物體驗,零售體驗也變得更加精巧細膩。這些應用需要具備極高可靠性并提供高性能,同時也需要提供高效緊湊的外形尺寸。
邊緣處理難題
在邊緣部署系統時,功耗、占板面積和成本都是制約因素。在邊緣處理的種種限制條件下,處理需求的不斷提高,意味著提供所需的性能水平將面臨更大的挑戰。雖然 CPU 在邊緣計算上也有發展,但近年來的增長速度有所放緩。在為新一代AI 支持的邊緣應用交付所需性能時,未加速的 CPU 表現得相當勉強,特別是考慮到嚴格的時延要求。
當在邊緣上實現前沿 AI 應用時,領域專用架構 (DSA) 是關鍵。此外,DSA 還提供確定性和低時延。
合適的 DSA 專門設計用于高效處理所需數據,既有 AI 推斷,也有非 AI 部分的應用,也就是整體應用的加速。考慮到 AI 推斷需要非 AI 的預處理和后處理,這些都需要更高的性能,這一點很重要。從根本上說,要在邊緣上(和其他地方)實現由 AI 提供支持的高效應用,需要整體應用的加速。
如同任何固定功能的芯片解決方案一樣,為 AI 邊緣應用開發的應用專用標準產品 (ASSP) 仍有自己的局限性。主要挑戰在于 AI 創新的速度異乎尋常。與非 AI 技術相比,AI模型的過時速度會快得多。使用固定功能的芯片器件實現 AI,會因更新型、更高效AI 模型的出現而迅速過時。固定功能芯片器件的流片需要花費數年時間,到那時 AI 模型的前沿技術將已經向前發展。此外,對于邊緣應用,安全和功能安全要求的重要性也在提高,可能經常需要成本高昂的現場更新。
自適應計算的前景
自適應計算包含能夠針對具體應用進行優化的硬件,例如現場可編程門陣列 (FPGA),它是一個功能強大的解決方案,專門用于基于AI 的邊緣應用。
此外,新的自適應硬件也層出不窮,包括含有 FPGA 架構并與一個或多個嵌入式 CPU 子系統耦合的自適應片上系統 (SoC)。然而自適應計算遠不止“純硬件”。它整合了一套綜合而全面的設計軟件和運行時軟件。將它們結合起來,就形成了一種獨特的自適應平臺,可在其上構建非常靈活高效的系統。
用自適應計算實現 DSA,可避免使用 ASIC 等定制芯片器件所需的設計時間和前期成本。這樣就能為任何特定領域應用,包括基于 AI的邊緣應用,迅速部署經過優化的靈活的解決方案。自適應SoC 是此類領域專用處理的理想選擇,因為它們既擁有綜合全面的嵌入式CPU 子系統的靈活性,又具備自適應硬件的優異的數據處理能力。
推出自適應模塊化系統 — SOM
模塊化系統 (SOM) 提供完整的、可量產的計算平臺。與從芯片級從頭開發 (chip-down development)相比,這種方法能節省可觀的開發時間與成本。SOM 能夠插入到較大的邊緣應用系統內,從而既可以提供定制實現方案的靈活性,又可以提供現成解決方案的易用性和更快的上市速度。這些優勢讓 SOM 成為邊緣 AI 應用的理想平臺。然而,要實現現代化AI 應用所需的性能,加速必不可少。
某些應用需要定制硬件組件與自適應 SoC 接口連接,意味著需要從芯片級從頭設計 (Chip-down design)。然而,越來越多基于 AI 的邊緣應用,需要相似的硬件組件和接口,甚至在終端應用迥異的時候也是如此。隨著企業轉向標準化接口和通信協議,盡管處理需求顯著不同,但同一套組件可適用于各種類型的應用。
面向基于 AI 的邊緣應用的自適應 SOM, 結合了自適應 SoC與行業標準接口和組件,使得硬件經驗有限甚至沒有硬件經驗的開發者也可以獲益于自適應計算技術。自適應SoC 既能實現 AI 處理,也能實現非 AI 處理,也就是說其可以滿足整體應用的處理需求。
此外,自適應 SOM 上的自適應 SoC 支持高度的定制化。它的設計目的,是集成到更大型的系統內并使用預定義的外形尺寸。使用自適應 SOM,可以全面發揮自適應計算的優勢,同時避免了從芯片級從頭開始的芯片設計。自適應 SOM 只是解決方案的一個部分。軟件也是關鍵。
采用自適應 SOM 的企業,能廣泛受益于性能、靈活性和快速開發時間的獨特組合。無需構建自己的電路板,他們就能夠享受自適應計算提供的各種優勢 — 這個優勢,最近才隨著賽靈思Kria™自適應 SOM 產品組合的推出在邊緣得以實現。
Kria K26 SOM
Kria K26 SOM 構建在 Zynq® UltraScale+™ MPSoC 架構頂端,搭載四核 Arm® Cortex™-A53 處理器,超過25萬個邏輯單元和一個 H.264/265 視頻編解碼器。此外,該 SOM 還搭載4GB的DDR4存儲器、69 個 3.3V I/O 和 116 個 1.8V I/O,使之能夠適配幾乎任何處理器或接口。憑借1.4TOPS的AI算力,與基于 GPU 的 SOM 相比,Kria K26 SOM 助力開發者開發出時延和功耗更低,性能高 3 倍的視覺 AI 應用。這對安保、交通與市政攝像頭、零售分析、機器視覺和視覺引導機器人等智能視覺應用,可謂是重大福音。通過標準化系統核心部分,開發者擁有更多時間專心開發自己的專屬特性,從而在市場競爭中實現技術差異化。
與軟件可以更新但受到固定加速器限制的其他邊緣 AI 產品不同,Kria SOM 在兩個方面提供靈活性,即軟件和硬件都能在今后更新。用戶能夠適配 I/O 接口、視覺處理和 AI 加速器,為以下的部分或全部應用提供支持:MIPI、LVDS 和SLVS-EC 接口;適用于日間或夜間的高質量專用高動態范圍成像算法;8 位深度學習處理單元;或未來的 4 位甚至是 2 位深度神經網絡方法。多模傳感器融合與實時 AI 處理的結合,如今已經非常容易實現,可以從賽靈思 KV260 視覺 AI 入門套件開始設計,通過 Kria K26 SOM 部署到生產中。
Kria KV260 視覺 AI 入門套件
面向軟硬件開發者提供的優勢
自適應 SOM 同時讓硬件開發者和軟件開發者受益。對于硬件開發者,自適應 SOM 提供了現成的、可量產的解決方案,從而節省了大量的開發成本與開發時間。此外,這些器件也允許硬件團隊在流程后期變更設計,而基于固定功能芯片技術的 SOM 則無法實現。
對于 AI 開發者和軟件開發者來說,自適應計算比過去更容易應用。賽靈思為確保自適應計算的易用性,對工具流進行了大量投資。通過將軟硬件平臺與可量產的視覺加速應用相結合,Kria SOM 產品組合的推出將這種易用性提升到全新水平。這些交鑰匙應用取消了所有 FPGA 硬件設計工作,只需要軟件開發者集成他們的定制 AI 模型、應用代碼并有選擇地修改視覺流水線。在 Vitis™ 統一軟件開發平臺和庫支持下,他們可以使用熟悉的設計環境,如 TensorFlow、Pytorch 或 Caffe 框架以及 C、C++、OpenCL™ 和 Python 編程語言。
通過這種面向軟件設計的新的加速應用范式,賽靈思還面向邊緣應用推出了首個嵌入式應用商店,為客戶提供來自賽靈思及其生態系統合作伙伴的豐富多樣的 Kria SOM 應用選擇。賽靈思解決方案屬于免費提供的開源加速應用,包含智能攝像頭、人臉檢測、帶有智能視覺輔助的自然語言處理等多種應用。
靈活應變的未來
AI 模型將繼續以高速步伐向前演進發展。這意味著加速平臺必須能夠靈活應變,才能在現在和未來以最佳方式實現 AI 技術。實際上,SOM 提供了理想的邊緣處理平臺。與自適應 SoC 相結合,SOM 為由 AI 提供支持的應用,提供了綜合全面、可量產的平臺。采用這類器件的企業能廣泛受益于性能、靈活性和快速開發時間的獨特組合,并從自適應計算種收獲豐厚的回報。
(來源:賽靈思,作者:Evan Leal,電路板與套件產品營銷總監 )
免責聲明:本文為轉載文章,轉載此文目的在于傳遞更多信息,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請電話或者郵箱聯系小編進行侵刪。