2025年,一部分新型半導體技術已從驗證階段邁入規模化應用的臨界點,為2026年的全面落地奠定堅實基礎。在AI驅動、算力需求爆發的背景下,這些技術突破將重塑晶片設計、製造與應用,引領半導體產業進入新一輪成長週期... The post 2026年全球半導體產業10大技術趨勢分析 appeared first on 電子2025年,一部分新型半導體技術已從驗證階段邁入規模化應用的臨界點,為2026年的全面落地奠定堅實基礎。在AI驅動、算力需求爆發的背景下,這些技術突破將重塑晶片設計、製造與應用,引領半導體產業進入新一輪成長週期... The post 2026年全球半導體產業10大技術趨勢分析 appeared first on 電子

2026年全球半導體產業10大技術趨勢分析

2026/02/09 12:00
閱讀時長 40 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

2025年,全球半導體產業在挑戰與機遇中穩步前行。根據世界半導體貿易統計協會(WSTS)資料顯示,2025年全球半導體市場規模預計超過7,000億美元,YoY成長約11.2%,其中人工智慧(AI)與高效能運算(HPC)相關晶片增速顯著,推動了先進製程、封裝及儲存技術的不斷創新。

在技術層面,2nm製程節點進入量產關鍵階段,台積電(TSMC) N2製程電晶體密度成為產業標桿;英特爾(Intel) 18A製程憑藉環閘場效應電晶體(GAAFET)與背面供電網路(BSPDN)技術的創新應用,實現效能與能效的雙重突破。

與此同時,記憶體內運算(Computing-in-Memory,CIM)、chiplet、共封裝光學(CPO)等前瞻技術加速落地。imec成功實現250nm間距的3D鍵合,為邏輯-記憶體異質整合提供關鍵支撐;Nvidia推出整合矽光引擎的CPO交換晶片,顯著提升能效與部署效率,推動該技術在AI超級集群中走向早期應用。

面對摩爾定律逐漸接近物理極限,半導體產業正從「單點突破」轉向「系統級創新」。2025年,一部分新型半導體技術已從驗證階段邁入規模化應用的臨界點,為2026年的全面落地奠定堅實基礎。在AI驅動、算力需求爆發的背景下,這些技術突破將重塑晶片設計、製造與應用,引領半導體產業進入新一輪成長週期。

BSPDN引領先進製程革新

BSPDN正成為突破先進製程物理瓶頸的核心技術之一,預計在2026年全面進入量產上升與生態擴展的關鍵階段。該技術透過將傳統位於晶圓正面的供電線路遷移至背面,利用奈米級矽穿孔(nTSV)或埋藏式電源軌(BPR)實現電力垂直傳輸,從而在物理空間上解耦電源與訊號佈線。此舉不僅大幅縮短供電路徑、降低電壓損耗,更釋放了正面金屬層資源,用於高密度訊號互連,顯著提升訊號完整性與電晶體整合密度,為2nm及以下節點提供永續的功耗、效能和面積(PPA)優化路徑。

當前,Intel、台積電與三星(Samsung)三大代工巨頭均已在BSPDN領域展開佈局。Intel憑藉其PowerVia技術,結合RibbonFET GAAFET,計畫在其18A製程節點中導入BSPDN,並已進入量產上升階段。根據在2025年VLSI研討會上的系統比較,Intel 18A製程透過採用GAAFET和BSPDN技術,在相同電壓(1.1V)下,比Intel 3製程頻率可提升25%,或功耗降低36%;在0.75V低壓下,效能提升18%,功耗減少38%。此外,BSPDN的導入使得正面M0層間距得以放寬,降低了製造複雜度與良率風險。

正面與背面供電。

(來源:Intel)

台積電計畫在2026年下半年推出的A16節點中整合GAAFET與背面接觸供電技術,宣稱透過優化佈線資源使用效率,可實現7~10%的晶片密度提升與20%的能效提升。三星則宣佈將在2027年SF2Z節點導入背面供電,採用直接背面接觸設計,目標效能提升8%,功耗降低15%,晶片面積減少7%。

技術層面,BSPDN將與GAAFET、3D互連深度融合,利用縮小標準單元高度(如Intel 18A高效能單元壓縮至180nm)、優化金屬層堆疊(22層結構+背面金屬隔離),提升電晶體密度,滿足HPC、AI算力需求。同時,CMOS 2.0架構推動SoC垂直堆疊,imec已實現250nm間距3D鍵合,支援邏輯-記憶體異質整合。產業生態上,廠商透過微影校正將鍵合誤差控制在25nm內,但全晶圓良率提升仍需工具突破。

預計2026年BSPDN將加速量產,技術路線分化(PowerVia低成本vs背面接觸微縮)、良率優化及多技術協同(GAAFET+3D堆疊)成競爭焦點。隨著製程優化,BSPDN將突破供電架構限制,成為AI、HPC晶片的核心技術支柱。

2nm全面上量,GAAFET接棒FinFET

自2021年IBM首度宣佈開發出2nm節點GAAFET電晶體,2nm製程的熱議就開始了。2021~2022年期間,Intel Foundry、Samsung Foundry、台積電相繼宣佈了各自的2nm節點,都確定會在2025年實現量產。

從IEDM 2024大會上公佈的資料來看,台積電N2製程持續在電晶體密度上領銜,可達313MTr/mm²,而目前已知三星SF2、Intel 18A製程的數字是231與238。雖然目前還沒有這些製程的物理尺寸資料,不過基於2021年IEEE發佈的國際元件與系統路標更新,「2.1nm節點」預期實現的接觸閘極間距(CGP)為45nm,而最小金屬間距(MMP)在20nm左右。另外,2021年IBM宣佈的2nm電晶體閘極長度為12nm。

從FinFET走向GAAFET。

(來源:Intel)

無一例外,幾家主要晶圓代工廠的2nm節點都會採用GAAFET結構,不再採用FinFET——所謂的奈米片電流通道被橫置,並被閘極四面環繞。GAAFET作為被廣泛研究的新型元件結構,不僅實現了更好的通道控制,而且若對奈米片的寬度與層數進行調節,搭配不同工作電壓與閾值,還能在同一製程平台衍生出多種優化方向的電晶體規格,為晶片設計客戶提供更高的設計自由度,包括高效能與低功耗選擇。

三家代工廠對GAAFET的稱呼各有不同:三星稱其為MBCFET,台積電稱其GAAFET,Intel的版本叫RibbonFET。具體實施方案皆有差異。雖說三星早在3nm節點就率先用了GAAFET,但應用範圍與量產數量都極其有限,因此2026年2nm製程晶片可望全面應用於手機、PC與HPC領域,GAAFET也將全面在尖端製程中實現對FinFET的接棒。

三家代工廠的2nm製程應該都已進入產能提升階段。2025年10月,Intel率先發佈了預計在2026年初問世、用於PC筆電的Panther Lake處理器和用於資料中心伺服器的Clearwater Forest處理器,都將採用Intel 18A製程。

2025年11月,相關採用2nm製程的三星Exynos 2600晶片單核心效能超越蘋果(Apple) M5的消息也開始洗版。雖然截至發稿前尚無任何2nm晶片的確切效能與功耗資料,這些資訊的放出也說明Intel和三星都有意在2nm GAAFET製程節點上,更積極地與台積電一較高下。

CPO邁過發展轉捩點

AI資料中心基於光互連本身並不稀奇,但相較於可插拔光模組,直接將實現光電轉換的矽光引擎和數位晶片封裝在一起,即所謂的CPO技術,能夠大幅提升互連頻寬、降低傳輸延遲。

2025年的GTC活動上,Nvidia發佈NVIDIA Photonics晶片就是將交換晶片和矽光引擎一起封裝,帶來了3.5倍的能效提升,10倍的抗干擾、抗打斷能力,還更容易部署,只需要以往1/4的雷射器,大幅降低了功耗和資料中心的總體擁有成本(TCO)。

同一時間,光通訊巨頭、晶片製造商、雲端服務供應商都相繼在參與CPO技術研發與投入。CPO對於未來的AI資料中心,尤其在超節點(Superpod)、萬卡集群十分流行的當下,顯得格外重要。

多家研究機構的市場展望中都提到2025、2026年會成為CPO晶片發展的轉捩點:尤其從試驗性質的部署、概念驗證(PoC),開始走向試運行、早期上量和採用率的提升,尤其是在超級集群之中。不同互通性標準的完善、先進封裝技術的完善也在加速CPO技術的落地。

2020~2034年CPO市場規模預測。

(來源:Yole Group)

更長遠來看,Yole Intelligence的資料顯示CPO市場的整體營收將從2024年的4,600萬美元,走向2030年的54億美元,年複合成長率(CAGR)達到了驚人的121%。

基於CPO的光互連能夠提升跨機櫃、節點的通訊能力。在未來走向GPU或AI晶片直出光訊號以後,CPO技術可望緩解單位晶片AI算力不足、超節點建構受限帶來的不良影響。

總之,從各個角度來看,CPO及未來的3D CPO都成為了AI技術發展路線上的必選項。

RISC-V劍指全球算力「第三勢力」

從目前產業界釋放的訊號看,2026年將成為RISC-V關鍵技術產業化的重要節點。屆時,RISC-V架構將可望圍繞「產業專用化、高效能AI化、生態工業化」三條主線,聚焦六大核心看點,快速成為除x86、Arm之外全球算力「第三勢力」。

技術上,RVA23伺服器級設定檔將啟動早期部署。2028年,下一代RVA30可望將統一矩陣、向量與張量三大AI擴展,形成與Armv9、x86-SSE同等完備且免授權費的指令矩陣。製程端因先進製程逼近物理極限,chiplet成為效能躍升的最佳捷徑,「通用RISC-V架構+ AI加速+ I/O介面」的三明治結構將更受產業青睞。

伴隨著生成式AI推理需求爆發,RISC-V未來演進將聚焦兩個關鍵方向:一是推動向量處理單元(VPU)與張量處理單元(TPU)的深度融合,實現通用平行運算能力與專用AI算力的高效協同;二是透過動態電壓調節、指令集裁剪等技術手段,進一步提升AI設備的續航能力。

2026年RISC-V在安全與標準化領域也將迎來突破:RVA23-Automotive規範將可望完成ISO 26262 ASIL-D與IEC 61508 SIL3雙認證,羽量級記憶體標記和能力硬體增強RISC指令(CHERI)等硬體級安全機制也可望獲得通過。目前,RVA23檔規範已經整合了81項擴展標準,明確了64位元通用運算平台的介面技術要求。接下來,向量擴展2.0、安全擴展1.1等關鍵技術標準將完成修訂工作,進一步降低技術開發門檻。

此外,地緣政治加速格局分化,中國、印度、歐洲中小廠商更多轉向開源指令集。預計至2031年, RISC-V SoC晶片出貨量將達200億顆,並在SoC市場獲得超過25%的滲透率。與此同時,RISC-V在消費、電腦、汽車、資料中心、工業、網路六大市場的佔比會落在26~39%之間。

總體來看,未來3~5年內,RISC-V將透過針對汽車、AIoT、資料中心、工業控制等場景發佈的專用配置規範,以「分層規範+相容性認證」規避碎片化問題,一邊衝擊伺服器與PC等級的通用算力,一邊疊加AI功能擴展,在搶佔AI推理、自動駕駛、伺服器等高成長市場的同時,逐步降低架構遷移成本。

Chiplet標準化浪潮重塑晶片設計新典範

當下摩爾定律逐漸觸及物理極限,chiplet技術已從「過渡之策」華麗轉身為「核心戰略」。過去,它多被視為普通廠商應對大晶片良率與成本難題的權宜之計;如今,隨著UCIe 2.0/3.0標準的確立,chiplet邁入了標準化爆發期,從少部分企業的內部優化策略,躍升為全產業共同遵循的介面與規則,推動著半導體產業架構深度重構。

UCIe標準的演進,是chiplet技術飛躍的關鍵引擎。1.0版本搭建起了chiplet互連雛形,但卻有頻寬、延遲和協議相容性等缺點。2.0/3.0版本則讓chiplet互連步入實用階段,更高的頻寬密度及更廣泛的協定支援,讓邏輯、儲存、I/O乃至未來光子晶片能在同一封裝內互連,這種跨製程節點、跨功能模組的整合方式,正在重塑多個晶片設計的基本典範。

UCIe 3.0新增功能。

(來源:UCIe聯盟)

設計模式上,傳統SoC模式要求CPU晶片整合所有功能,導致設計複雜度與製造成本不斷攀升,而chiplet架構支援不同模組採用最適配製程節點,例如GPU邏輯用先進製程,I/O與類比電路則用成熟製程,可實現高效的資源利用。產業分工方面,UCIe標準推廣可望催生類似「IP核心市場」的開放生態,不同廠商提供標準化模組,系統設計者則如拼積木般自由組合,這不僅優化了產業分工,還可能催生新的產業生態。

然而,chiplet技術發展並非一帆風順。3D堆疊與高密度互連普及,使功耗管理、熱設計、訊號完整性成為新瓶頸。在AI大模型訓練等極限算力情況下,如何在有限封裝空間實現高頻寬、低延遲且穩定的效能,成為chiplet普及的關鍵。同時,安全性與資料一致性也需新的體系架構來保障,以防止開放性帶來新的風險。

展望未來,chiplet發展將呈階段性特徵。短期內,UCIe 2.0/3.0將推動HPC與AI晶片chiplet化,成為事實上的產業標準;中期,chiplet將與光互連、3D封裝深度融合,突破頻寬與能效瓶頸;長期,chiplet生態可望轉變成一個開放的市場,實現跨領域、跨製程互連。總而言之,目前chiplet標準化的爆發,既是摩爾時代算力競賽的關鍵路徑,也是需求拉動下的產業變革,誰能建構最具活力的chiplet生態,誰就能在後摩爾時代算力競賽中搶佔先機。

晶片堆疊革命來臨 混合鍵合開啟邏輯晶片3D時代

混合鍵合(Hybrid Bonding)技術透過銅對銅直接鍵合突破傳統封裝極限,已成為後摩爾時代邏輯晶片3D整合的核心方案。其介電層與金屬層同步鍵合,可將互連間距壓縮至3μm以下,連接密度較傳統TSV技術提升10~100倍,為邏輯與儲存的異質整合提供原子級互連能力。

3D互連格局。

(來源:imec)

該技術核心突破在於無凸點互連架構,透過三大製程實現:在表面工程方面,採用化學機械研磨(CMP)將銅墊凹陷控制在2.5nm以內,結合等離子切割實現無顆粒邊緣,確保原子級平整接觸;在對準技術方面,晶片對晶圓(D2W)鍵合套刻誤差小於350nm,晶圓對晶圓(W2W)鍵合良率達99.9%,有效支撐3D NAND的超高層堆疊;在鍵合機制方面,在300~400℃低溫下透過熱壓合實現銅原子擴散焊接,同時介電層發生分子鍵合,形成兼具機械強度與電學效能的穩定複合介面。

2025年,產業呈現技術分化與協同並存格局。台積電SoIC-X技術以9μm間距支撐AMD MI300系列,接點密度提升15倍;其SoIC-P方案(6μm間距)鎖定中低階市場,2025年量產N3-on-N4堆疊,良率損失控制在5%以下。Intel Foveros Direct技術利用銅對銅混合鍵合介面實現小於5μm的互連間距,後續18A-PT製程將與14A節點(基於High-NA EUV)結合。三星X-Cube技術採用TSV與混合鍵合融合架構,為16層HBM4E開發4μm間距方案,可在775μm模組高度內將晶片數量從12層增至17層(含1顆基礎晶片)。

前瞻研發方面,imec已成功驗證2μm間距D2W鍵合,Kelvin結構電學良率超過85%;SK海力士(SK hynix)在HBM5開發中證實,混合鍵合是實現20層堆疊(單晶片厚度20μm)的唯一可行路徑。

展望2026年,邏輯晶片3D化將迎來三大技術躍遷。在間距突破方面,台積電A16節點(1.6nm製程)將結合背面供電與混合鍵合,透過訊號層與電源層分離佈線,在3μm間距下實現104/mm2連接密度,較2025年提升3倍;Intel第二代Foveros Direct目標間距2μm,計畫整合光互連引擎,實現片間1.6Tb/s光學頻寬。在製程融合方面,CoWoS與SoIC的3.5D + 3D混合架構將成為主流,台積電CoWoS CPO方案透過光引擎整合,可降低50%功耗、延遲減少10倍;EMIB與Foveros Direct協同封裝則支援5 × 5處理器陣列,每邊頻寬達4.5Tbps。在良率控制方面,透過已知合格裸晶(KGD)篩選與集體D2W鍵合優化,邏輯晶片堆疊良率損失可望從當前15%降至8%以下。

HBM4量產引領算存架構革新

2026年,高頻寬記憶體市場將迎來新的轉捩點。在資料中心和HPC持續擴容的背景下,算力架構對頻寬、容量與延遲的要求被不斷抬升,傳統顯存模式在資源利用和跨節點存取方面的限制愈發明顯。在這樣的趨勢下,HBM4的商業化量產將逐漸確立其產業地位,成為產業鏈關注的核心。

HBM內部結構。

(來源:AMD)

HBM4的介面位元寬加倍至2,048位元,使單堆疊頻寬高達2TB/s。透過先進的3D堆疊技術,它實現了最高64GB的單堆疊容量,並優化了訊號傳輸和功耗,以滿足AI和HPC對資料處理的需求。

在量產進度上,領導廠商已展開競速。SK海力士在2025年完成HBM4開發並開始小批出貨,計畫2026年擴大生產。三星和美光(Micron)也將陸續進入量產階段。台積電利用提升CoWoS產能和優化封裝流程,為HBM4的高密度整合提供基礎支援。整體產業鏈正在形成協同,加速落地。

為適配更高頻寬密度,封裝技術將同步演進。CoWoS將進一步提升佈線能力,玻璃基板等下一代封裝方案將加速驗證,以提供更低熱膨脹係數與更高互連密度。chiplet架構將與HBM4綁定,而矽光互連可能在極限頻寬場景中進行小規模測試,以緩解銅互連在高頻長距條件下的損耗與衰減。

值得關注的是HBM與CXL的協同。借助CXL 3.0,不同加速器、CPU,以及專用處理單元可以與更大的記憶體資源池建立高速連接。HBM作為加速器近鄰的記憶體,與透過CXL擴展的通用記憶體池協同工作,能在訓練峰值時動態申請連續空間,在推理階段靈活分配小塊資源,提升整體利用率,減少碎片化並降低通訊開銷。

從演進路線來看,HBM4並非終點。更高頻寬密度的HBM4e已在規劃中,HBM5的研發也已啟動,將在介面速率與堆疊高度方面繼續突破。玻璃基板、矽光互連,以及更先進的熱管理方法都將持續完善。

邁向2026年,HBM4的量產不僅是效能升級,更是圍繞封裝、互連、調度與資源組織方式的系統性演進。在運算架構從板卡級走向集群級的過程中,高頻寬儲存將成為不可或缺的基礎能力,並在未來數年持續影響產業節奏。

第三代半導體驅動綠色未來

隨著全球能源轉型和AI算力需求的爆發式成長,以碳化矽(SiC)和氮化鎵(GaN)為代表的寬能隙(WBG)半導體,已從利基市場邁向主流應用。到2026年,第三代半導體的發展重點將不再局限於單一元件效能的提升,而是聚焦於規模化生產、系統級整合與高可靠性,以全面滿足電動車、超快充、再生能源及AI資料中心對高效率、低能耗與低碳排放的極致需求。

在高整合度與系統級晶片方面,WBG功率元件正加速從傳統離散元件向模組化與片上整合演進。此外,透過3D堆疊與chiplet技術,可有效縮短功率傳輸路徑、降低寄生電感並改善熱阻,而垂直堆疊也開始在正在挑戰高壓領域的GaN功率元件中崛起。

垂直結構GaN元件正逐步實現商業化。進入2026年,GaN發展的關鍵在於矽基氮化鎵(GaN-on-Si)技術的持續優化,以確保在標準矽製程生產線上製造出具備高可靠性且成本更具競爭力的元件。

在高耐壓領域,SiC在1,200V電壓等級仍具優勢。預計2026年,電動車製造商將加速導入800V高壓電池平台,直接拉動對1,200V甚至1,700V SiC功率模組的需求。

2026年,異質磊晶技術將成為降低成本的核心路徑之一,特別是針對高頻應用的高電子遷移率電晶體(HEMT)結構的優化。透過在矽或SiC基板上磊晶生長GaN層,可在效能與製造成本之間取得更好平衡。近期研究更嘗試採用石墨烯與六方氮化硼(h-BN)等2D材料作為緩衝層,以緩解晶格錯位並提升散熱效能,推動300mm大尺寸晶圓製程走向成熟。

高導熱封裝與模組化整合技術也將在2026年成為廠商競爭焦點。新一代封裝將採用銅夾(copper clip)、燒結銀(Sintered Silver)等低熱阻互連材料,以及直接鍵合基板與嵌入式晶片設計,顯著提升熱管理能力與系統可靠性。此外,先進功率模組技術也將成為發展重點,透過導入平面化設計、雙面散熱或直接液冷等方案,使功率模組在更緊湊的空間內處理更高功率,實現低熱阻、高散熱效能與高功率密度的統一目標。

AI加持EDA,驅動晶片設計「左移」

隨著AI深度融入半導體產業,電子設計自動化(EDA)正加速從傳統的「輔助工具」轉型為「智慧決策引擎」。這一變革的核心是「設計左移」(Shift Left),即將原本位於晶片開發後期的效能分析、功耗預測與可靠性驗證提前至設計初期,使團隊能夠更早發現問題、優化方案,從而縮短開發週期並降低重新流片(respin)風險。

「設計左移」並非全新概念,但AI的導入加速了其從理念走向實踐。借助機器學習與強化學習,AI可在設計早期預測晶片的PPA,並即時提供優化建議,幫助工程師在RTL階段即鎖定最優架構。這不僅提升了設計效率,也推動晶片開發從經驗驅動轉向資料驅動的智慧化模式。

全球三大EDA廠商正引領這一轉型。新思科技(Synopsys)率先以「設計左移」為核心策略,如今更將AI前置至設計初期,加速模擬與設計探索,使EDA工具升級為智慧協同平台;面對汽車電子數位化的挑戰,公司還提出「三重左移」(Triple Shift Left)策略,將傳統串列開發流程轉變為平行協同,並結合虛擬原型實現更早期的功能與安全驗證。

Cadence則聚焦驗證革新。該公司台灣區總經理宋栢安指出:「在AI時代,驗證的重要性甚至超過設計本身。」AI讓驗證更早介入設計階段,透過自動生成測試、即時異常檢測與軟硬體協同模擬,大幅縮短開發週期,實現設計與驗證同步。

西門子EDA資深總監Sathishkumar Balasubramanian認為,AI在EDA的價值不僅是概念,而是透過工具、流程與平台三方面落地真正的「左移」。借助數位孿生,設計團隊可在晶片開發初期進行全面分析與優化,進一步提升效率與設計品質。

以AI推動設計左移:AI正成為EDA流程優化的核心動力,使設計團隊在更早階段完成優化與驗證,加速開發與創新。

(來源:西門子EDA)

展望2026年,EDA將邁入「多代理AI」(Multi-Agent AI)新階段。多個AI代理將在設計流程中分工協作,從規格生成到簽核分析自動銜接,形成具自我學習與協同決策能力的智慧設計網路。這將進一步提升設計靈活性與自動化深度,推動EDA從「輔助設計」邁向「共創設計」,並推動晶片開發更具預測性與智慧化,成為半導體創新的關鍵力量。

記憶體內運算技術加速落地

記憶體內運算技術作為突破馮·諾紐曼架構(Von Neumann architecture)瓶頸的關鍵路徑,將在2026年加速從技術驗證走向規模化商用。該技術透過將運算單元嵌入記憶體內部,消除傳統架構中「儲存牆」與「功耗牆」導致的90%以上資料搬運能耗,理論上可實現10~100TOPS/W的能效比,成為繼CPU、GPU之後的新算力。當前技術路徑已形成近記憶體運算(PNM,如AMD Zen系列CPU的HBM共封裝)、記憶體內處理(PIM,如三星HBM-PIM)和記憶體內運算三大方向,其中記憶體內運算因徹底融合儲存與運算,被視為最具顛覆性的技術路線。

2025年是記憶體內運算技術突破的關鍵節點。中國北京大學團隊基於憶阻器建構的記憶體內運算排序架構,透過「無比較器」設計實現15倍速度提升、160倍能效提升及32倍面積效率提升,並驗證了在路徑規劃、神經網路推理等場景的實用性。中國南京大學團隊提出基於元件幾何比例的類比記憶體內運算方案,在180nm CMOS製程下實現0.101%的均方根誤差,且在-78.5~180℃極端環境下保持穩定,刷新類比運算精度紀錄。中國科學院微電子研究所的近閾值RRAM記憶體內運算晶片,透過2T1R單元和電荷堆疊技術實現256通道平行運算,能效達55.21~88.51TOPS/W,為邊緣AI提供高能效解決方案。

基於近閾值運算的RRAM記憶體內運算晶片。

(來源:中國科學院微電子研究所)

產業競爭格局方面,海外廠商以近記憶體運算為切入點快速落地。Nvidia、三星、Intel透過HBM共同封裝技術推動近記憶體運算在資料中心的應用,而d-Matrix的Corsair晶片則整合大容量SRAM與LPDDR5X,將推理任務能耗降低70%以上。

2026年,預計記憶體內運算技術將呈現三大趨勢:一是技術路徑分化,近記憶體運算憑藉低成本優勢主導端側市場,憶阻器、RRAM、SRAM等記憶體內運算依託極致能效比搶佔雲端AI推理份額;二是生態協同加速,元件-電路-系統級技術堆疊整合成為關鍵;三是應用場景向自動駕駛、智慧醫療等即時性要求高的領域拓展。

本文同步刊登於《電子工程專輯》雜誌20261-2月號

想快速掌握2026年半導體關鍵動向?立即觀看《電子工程專輯》台灣與中國編輯團隊的完整影片解析。

The post 2026年全球半導體產業10大技術趨勢分析 appeared first on 電子工程專輯.

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。