|
作者:Bob O’Donnell 當今高科技領域最令人矚目的進展之一,是量子計算正逐步從理論走向現實。歷經數十年的理論探索與技術積累,這一顛覆傳統且極其復雜的新型計算范式,近年來已取得一系列實質性突破。量子計算機通過翻轉單個原子的電荷,并借助量子糾纏效應使其同時處于多個狀態,從而執行計算。其運作方式和速度足以解決極其復雜的問題,這些問題如果使用傳統計算機處理,可能需要數年甚至數百年才能完成計算。 量子計算機雖潛力巨大,卻也為密碼學等領域帶來了新的挑戰與隱憂。在現代計算系統中,密碼學通過運用復雜的數學算法,對處理中的數據進行加密擾碼。因此,需要有解密的數字密鑰才能讀取和使用這些數據。量子計算帶來的挑戰在于:無論是用于數據加密的底層算法,還是數字密鑰的生成與交換機制,在量子計算機面前都可能不再安全。這樣一來,攻擊者就有可能還原被加密的數據并獲取其中的信息。 毋庸置疑,這構成了嚴峻挑戰。全球大量企業、政府和組織仍在使用傳統算法加密海量數據,并依賴存在安全隱患的公私鑰分發機制。為保障這些數據的安全,業界已研發出能抵御量子計算攻擊的新型加密方法與密鑰交換協議,這些技術被統稱為后量子密碼學(PQC)。 目前,業界仍然普遍認為量子計算機在數年之后(2030-2035年)才會真正具備這種破解能力。然而更緊迫的威脅在于,已有不少攻擊者已經開始盜取加密數據,企圖等到未來量子計算機真正攻破現有加密體系時,再對數據進行解密。這種被稱為“先收集,后解密”(HNDL)的攻擊手段,對政府或軍方的機密信息、賬戶信息等需長期保密的數據構成了尤為嚴峻的威脅。 鑒于此,全球主要國家政府均已制定或正在積極制定新的算法、技術流程與合規要求以減輕量子計算帶來的潛在風險。例如美國國家安全局(NSA)制定了《商業國家安全算法套件2.0》(CNSA 2.0)政策體系,美國國家標準與技術研究院(NIST)則建立了FIPS 202/203標準體系來應對此類問題。這些被全球廣泛采納的規范和標準不僅集成了多種量子安全加密算法,還還支持基于晶格密碼學與基于哈希的數字簽名等前沿密碼技術。按照規劃,部分核心行業與應用場景將于今年年底前率先實施新規,并計劃在2027年實現更廣泛領域的關鍵部署。 但僅有政策和算法還遠遠不夠,還需要將后量子密碼學(PQC)部署于計算設備和軟件平臺中以確保其具備運行能力。這看似簡單,實則需要建立一個多層次的安全防護體系,涵蓋從設備認證(即聲明設備功能與能力聲明)、固件更新安全要求、存儲密鑰的硬件可信根,并最終延伸至安全環境下的芯片制造全流程。 換言之,為全面實現后量子密碼學(PQC),僅靠為計算設備集成支持新型加密算法與密鑰交換協議的專用芯片還遠遠不夠。例如,密鑰交換過程中的一個關鍵環節是確保計算鏈中每個設備的可信性。這便要求設備在固件層搭載嵌入式認證軟件,通過其在芯片制造階段即被植入的唯一ID,完成設備身份的自主驗證。 加密/解密過程通常在設備首次啟動時進行,此時首個通電并啟動工作流程的芯片雖然運行時間極為短暫,卻承擔著不可或缺的關鍵職能。該芯片會向設備BIOS/固件“宣告”自身身份,并將該信息傳遞至操作系統。隨后,當加密/解密過程中需要交換密鑰時,該芯片會提供密鑰及其唯一ID,向連接另一端的設備保證其安全性。當然實際情況更為復雜,但基本運作原理就是如此。這也充分解釋了必須確保鏈路中首顆芯片始終保持初始狀態且不受篡改的根本原因:整個安全與加密操作序列均以其為信任根基。 這同樣解釋了為何需要確保基礎芯片固件更新或修改的高度安全,否則整條安全鏈就會崩潰。由于部分核心加密算法和密鑰交換機制也存儲于基礎芯片中,且會隨著算法演進進行必要更新,其更新過程本身通常也會采用加密技術,從而進一步強調了該環節對安全性的高度要求。 在一塊芯片上集成所有功能的難度很大,因為這并非由主處理器負責執行,而是需要通過一個在低功耗環境下運行的小型控制芯片來完成。這正是萊迪思半導體MachXO5™-NX TDQ FPGA的用武之地。這款小封裝芯片通過設備標識符組合引擎(DICE)、安全協議與數據模型(SPDM)等技術生成唯一的設備ID,并配備兩組獨立閃存模塊支持固件升級和安全啟動。此外,該芯片同時集成傳統加密算法與后量子加密算法,并具備同時支持兩類算法的靈活性,可以滿足不同機構在兩種算法間切換時的位流與數據安全需求更重要的是,芯片引入了基于PQC的加密與驗證機制,確保關鍵密鑰交換過程滿足量子安全要求,從而有效抵御“先收集,后解密”(HNDL)的攻擊威脅。 Bob O’Donnell是市場研究公司TECHnalysis Research的總裁兼首席分析師,該公司為技術行業和專業金融領域提供戰略咨詢和市場研究服務。 |