1. 从“伦敦呼唤”说起:一场关于摩尔定律的行业预判
十多年前,一篇来自EE Times的评论文章《London Calling: Moore’s Law fail at NAND flash node》在半导体圈内激起了不小的涟漪。文章的核心观点直指产业心脏:闪存巨头SanDisk在其1Y代NAND闪存工艺上,将最小特征尺寸停留在了19纳米,与其前代1X工艺相同。这在当时被视为一个强烈的信号——那个驱动了半导体产业半个多世纪的“摩尔定律”,其物理缩放(Geometric Scaling)的引擎,在存储领域可能第一次真正地“失速”了。
今天回看,这篇文章更像是一个精准的预言。它捕捉到的不是一次偶然的技术延迟,而是整个行业从二维平面缩放向三维立体架构、从纯粹追求线宽缩小向系统级设计优化转型的关键拐点。对于身处芯片设计、制造或存储领域的工程师和决策者而言,理解这个拐点背后的技术逻辑、经济考量和产业演变,其价值远超一个新闻事件本身。它关乎技术路线的选择、研发资源的分配,乃至对未来十年存储形态的前瞻。
本文将深入拆解这一事件,不仅还原当时的技术背景与争议,更会结合其后十年产业发展的实际轨迹,剖析NAND闪存乃至整个半导体行业如何应对“后摩尔时代”的挑战。我们会探讨从2D NAND到3D NAND的跃迁背后的物理与工程难题,分析“等效缩放”与“设计优化”如何成为新的增长引擎,并最终思考,当晶体管的密度增长不再单纯依赖于光刻机的精度时,创新的主战场究竟转向了何处。
2. 事件核心:SanDisk 1Y节点的“原地踏步”与产业震动
2.1 工艺节点命名的迷雾与“1X、1Y、1Z”的玄机
要理解2013年那则新闻的冲击力,首先得厘清当时半导体工艺节点命名已然混乱的语境。传统的工艺节点(如90nm、65nm、28nm)大致对应着芯片上晶体管栅极的最小物理长度(或后来等效的金属半间距)。然而,进入20纳米以下后,由于技术复杂度和营销考量,这个数字与实际物理尺寸的关联越来越弱,“等效节点”的概念大行其道。
在NAND闪存领域,情况更为特殊。当工艺进入10-19纳米区间时,业界引入了“1X”、“1Y”、“1Z”这套新的命名体系。顾名思义,1X代表第一个位于10-19纳米范围内的世代,1Y和1Z则预期是后续更小的世代。大家默认的预期是,每一代都应该带来特征尺寸的进一步微缩,从而在单位面积上集成更多存储单元,降低每比特成本——这是摩尔定律在存储领域的直接体现,有时也被称为“闪存版的摩尔定律”或“黄氏定律”。
因此,当SanDisk宣布其1Y世代仍然采用19纳米制程时,无异于公开承认:在从1X到1Y的演进中,最核心的物理尺度缩放暂停了。这直接挑战了产业持续微缩的惯性认知。
2.2 技术背后的经济账:四重 patterning 的成本深渊
SanDisk(及其制造伙伴东芝)为何选择“原地踏步”?根本原因在于经济性。要将特征尺寸从19纳米推向15纳米乃至更小,在当时的技术条件下,主流路径是依赖多重曝光技术。
技术注解:多重曝光(Multi-Patterning)当光刻机(当时主要是193nm浸没式光刻)的分辨率极限无法直接刻画出所需的精细图形时,工程师们发明了“化整为零”的方法。以**四重图案化(Quadruple Patterning)**为例,它需要将原本一层的电路图案分解成四套掩模版,通过四次曝光、刻蚀的循环来最终形成目标图形。这虽然从物理上实现了更小的线宽,但也带来了巨大的代价:
- 制造成本飙升:掩模版数量翻倍,且每一套都极其昂贵;光刻、刻蚀等工艺步骤数增加,直接拉长了生产周期(Cycle Time),降低了设备产能。
- 工艺复杂度与良率风险:四次对准叠加,任何微小的误差都会累积,导致图形缺陷,严重影响芯片良率。对NAND闪存这种对缺陷极度敏感的高密度器件,良率损失是致命的。
- 设计复杂度增加:设计工具和流程必须适应复杂的多重图案化分解,增加了设计时间和成本。
对于NAND闪存这种标准化、大宗化的“商品”型芯片,其利润空间被市场竞争挤压得相对较薄。推动至15纳米节点所需的巨额新增投资(更贵的设备、更低的初始良率、更长的研发周期)很可能无法通过后续的成本节约来收回。简单算一笔账:如果采用四重图案化导致芯片制造成本增加50%,但芯片面积仅缩小了30%(由于缩放因子和设计规则限制,面积缩小并非线性的),那么每比特成本反而可能上升。这与摩尔定律“每比特成本持续下降”的核心经济驱动力背道而驰。
因此,SanDisk的决策是一次清醒的经济权衡:在现有19纳米工艺平台上,通过其他非几何缩放的手段来提升竞争力,比强行推进至下一个高风险的几何节点更为明智。
2.3 “设计优化”的胜利:25%的面积缩减从何而来?
既然不缩放线宽,SanDisk宣称的“通过设计改进使存储单元面积缩小约25%”是如何实现的?这体现了“后缩放时代”半导体创新的一个重要方向:微架构与设计技术的优化。
虽然原文未给出具体细节,但结合当时及后续的行业技术发展,我们可以推断出几种可能的设计优化手段:
- 存储单元阵列架构革新:NAND闪存的基本单元是浮栅晶体管。通过优化单元之间的隔离技术、调整源极/漏极接触孔的布局、或采用更紧凑的接触孔共享方案,可以在不改变最小线宽的前提下,减少每个单元所占的“无用”面积,提高阵列效率。
- 外围电路的精简与整合:芯片上并非所有区域都是存储阵列。负责地址解码、读写控制、电荷泵(产生高压)的外围电路也占据相当面积。通过改进模拟电路设计、采用更高效的解码器架构、或者将部分功能模块进行3D堆叠(虽然不是整体的3D NAND,但可以在局部使用),可以压缩外围电路的面积占比,从而在整体上提升存储密度。
- 多值存储技术的深化:从SLC(1bit/cell)到MLC(2bit/cell)再到TLC(3bit/cell),通过在每个物理单元中存储更多比特信息,是提升密度最有效的方式之一。1Y世代可能进一步优化了电荷俘获与控制、电压感应等电路,使得在多值存储下的可靠性和性能达到商用要求,等效于增加了密度。
这些优化本质上是在工艺平台的“物理约束”下,通过电路和系统设计的智慧,挖掘潜在的“面积红利”。它标志着创新重心从纯粹的工艺驱动,转向了工艺与设计协同优化的新阶段。
3. 摩尔定律的“形”与“神”:一场关于定义的辩论
SanDisk的事件引发了一个深层次的讨论:什么才算是“摩尔定律”的延续?这涉及到对定律本身“形”与“神”的理解。
3.1 戈登·摩尔的原始观察与产业共识
戈登·摩尔在1965年的论文中,最初观察到的是集成电路上可容纳的晶体管数量大约每年翻一番(后修正为每两年)。其核心是集成密度的指数增长,并隐含了每个晶体管成本随之下降的经济学结果。在很长一段时间里,实现密度翻倍最直接、最有效的手段就是几何尺寸缩放:让晶体管变得更小。因此,工艺节点演进成为了摩尔定律最直观的“形”。
然而,摩尔本人也强调,这更多是一个基于技术演进和经济可行性的观察与预测,而非物理定律。产业界将其奉为“定律”并形成“两年一代”的研发节奏,使其成为一种自我实现的预言:整个产业链——从设计公司、晶圆厂到设备商——都依据这个节奏规划投入,从而合力推动其实现。
3.2 “精神”上的背离:当缩放不再是唯一路径
SanDisk的案例之所以引发“摩尔定律失效”的担忧,正是因为它动摇了“几何缩放”这个最经典的实现形式。批评者认为,如果不再追求线宽的缩小,而仅仅依靠设计优化、多值存储或封装堆叠来提升密度,那就违背了摩尔定律的“精神”——即通过基础制造技术的革命性进步来驱动产业。
但支持者也可以反驳:摩尔定律的终极目标是经济目标(成本下降、性能提升),而非手段(几何缩放)。只要最终实现了晶体管(或存储单元)数量/密度的持续增长和每比特成本的持续下降,无论通过何种技术手段(3D堆叠、新器件结构、设计优化),都算是对定律的延续。英特尔后来提出的“超摩尔定律”(More than Moore)概念,也正是为了涵盖那些通过功能多样化、系统集成等方式提升价值,而非单纯追求微缩的技术路径。
这场辩论没有绝对的对错,但它清晰地揭示了一个事实:单纯依靠二维平面几何缩放的道路已经越走越窄,代价越来越高。产业必须寻找新的“密度提升引擎”。而2013年的这个事件,正是传统引擎出现故障的早期警报。
4. 破局之路:从2D平面到3D立体的战略转向
面对二维缩放的困境,产业早已在探索根本性的解决方案。SanDisk在1Y节点上的犹豫,从另一个角度看,正是为了给更具颠覆性的技术——3D NAND闪存——争取更多的研发时间和资源。
4.1 3D NAND:原理与降维打击
2D NAND是在硅片平面上拼命缩小单元尺寸,如同在平地上不断修建更密集的平房。而3D NAND的思路是“向天空发展”,在硅片上垂直堆叠多层存储单元,如同建造摩天大楼。
其核心制造工艺是:
- 沉积与刻蚀:交替沉积多层导体(字线)和绝缘体薄膜,形成一个巨大的立体堆栈。
- 打通垂直通道:使用高深宽比刻蚀技术,从上到下打穿整个堆栈,形成一个深孔。
- 填充与成型:在深孔内依次沉积存储层(电荷陷阱层)、隧道层和多晶硅沟道,最终形成垂直串连的多个存储单元。
这种架构的优势是革命性的:
- 摆脱几何缩放依赖:密度提升主要取决于堆叠的层数(32层、64层、128层……),而非单层内的最小线宽。这直接绕过了多重曝光带来的成本和复杂性。
- 更大的单元尺寸:由于不再追求极限微缩,每个存储单元的物理尺寸可以做得更大,从而显著改善数据的保持特性、耐久性和读写性能。
- 更简单的工艺步骤:虽然初始工艺开发难度极大,但一旦成熟,其制造流程可能比需要多重图案化的先进2D工艺更简洁、可控。
4.2 为何2013年时3D NAND未能立即接棒?
既然3D NAND如此美好,为何SanDisk等厂商在2013年仍纠结于2D节点的优化?原因在于巨大的产业化门槛:
- 极高的工艺难度:在高达数十比一的深宽比孔洞中,均匀地沉积纳米级厚度的多层薄膜,是前所未有的材料与工艺挑战。任何不均匀都会导致存储特性不一致,良率归零。
- 全新的制造设备:需要开发全新的高深宽比刻蚀机、薄膜沉积设备,投资巨大。
- 未知的可靠性:这种全新的立体结构,其数据保持能力、循环擦写次数、长期可靠性都需要经过漫长的验证。
- 成本拐点未到:在初期,堆叠层数不高时,3D NAND的制造成本可能远高于成熟的2D NAND。只有当堆叠层数足够多,使单位面积成本优势显现时,才有经济替代的动力。
因此,2013年的产业状态是:2D路径已看到尽头,但3D路径尚未完全铺平。SanDisk在1Y节点的“设计优化”,可以看作是在两条道路之间搭建一座临时的桥梁,为3D NAND的最终量产争取宝贵时间。事实上,就在该事件后不久,三星率先量产了第一代3D V-NAND,随后英特尔/美光、东芝/闪迪(即SanDisk)等也纷纷跟进,开启了存储技术的新纪元。
5. 延伸影响:逻辑芯片的并行困境与异构集成
NAND闪存遭遇的缩放瓶颈并非孤例。在同一时期,逻辑芯片(CPU、GPU等)的先进制程也面临着类似的挑战,只是表现形式不同。
5.1 FinFET与“等效节点”的文字游戏
在20纳米以下,平面晶体管的漏电问题已无法控制。为此,英特尔在22纳米节点引入了FinFET(鳍式场效应晶体管)技术,通过将沟道竖立起来形成“鱼鳍”状,实现了更好的栅极控制和更低的功耗。这项技术是成功的,但它也带来了副作用。
为了继续沿用“节点缩小”的营销话语,行业出现了所谓的“等效节点”。例如,某代FinFET工艺的后端互联(金属布线)可能仍基于20纳米的技术,但凭借FinFET结构带来的性能提升,它被宣称为“16纳米”或“14纳米”工艺。这造成了节点名称的混乱,也暗示着纯粹依靠尺寸缩放带来的性能/功耗收益正在衰减。
5.2 成本飙升与“硅经济”的变迁
更严峻的是经济问题。如评论中Chipguy1所指出的,从28纳米到20纳米,芯片面积缩小可能只有35%(而非理想的50%),而从20纳米到16纳米,在某些设计中甚至出现了零面积缩减,但晶圆制造成本却大幅上升。这意味着,对于许多芯片设计公司来说,迁移到最新工艺节点可能不再带来“每晶体管成本”的下降,反而会上升。这直接动摇了摩尔定律的经济根基。
这种“硅经济”的变迁,迫使产业思考新的价值创造方式。当单一芯片的工艺推进变得不经济时,通过先进封装和异构集成将不同工艺、不同功能的芯片(如先进逻辑芯片、成熟工艺的模拟芯片、存储芯片等)集成在一个封装内,成为了更具吸引力的路径。这就是Chiplet(芯粒)技术和2.5D/3D封装技术近年来蓬勃发展的背景。它们不再追求所有晶体管都在同一工艺下微缩,而是追求系统级的性能、功耗和成本最优。
6. 工程师视角:在“后摩尔时代”的生存与发展指南
对于一线工程师和技术管理者而言,摩尔定律的放缓或转型不是一个遥远的哲学问题,而是直接影响日常工作和技术决策的现实。
6.1 设计思路的转变:从“等工艺”到“榨干工艺”
过去,设计工程师很大程度上依赖于新一代工艺节点带来的“免费午餐”(更快的速度、更低的功耗、更小的面积)。现在,这种红利正在消失。工程师需要更深入地:
- 进行架构级创新:思考如何通过算法、微架构的重构来提升能效比,而不仅仅是等待工艺升级。
- 拥抱软硬件协同设计:针对特定工作负载(如AI推理)定制硬件加速器,即使采用并非最先进的工艺,也能获得极致的效率。
- 极致优化物理设计:在给定的工艺节点上,通过更精细的布局布线、功耗管理、信号完整性分析,挖掘最后一点性能潜力。
6.2 技术选型的新考量:工艺 vs. 封装 vs. 系统
在选择技术路径时,需要建立更全面的评估框架:
| 考量维度 | 传统思路(摩尔定律主导) | 新思路(后摩尔时代) |
|---|---|---|
| 性能提升 | 首选迁移至最新工艺节点 | 评估架构优化、专用加速器、Chiplet异构集成 |
| 成本控制 | 依赖节点缩放降低单位成本 | 综合权衡工艺成本、封装成本、系统总成本;可能选择“够用”的成熟工艺 |
| 开发周期与风险 | 跟随行业节奏,风险相对明确 | 评估先进工艺的良率风险、新封装技术的成熟度、供应链复杂性 |
| 差异化竞争 | 工艺领先是主要壁垒 | 系统集成能力、软件生态、垂直优化成为新壁垒 |
6.3 关注新兴器件与材料
虽然短期内3D NAND和FinFET仍是主流,但长远看,产业仍在探索更底层的突破。例如:
- 新型存储技术:如阻变存储器(ReRAM)、相变存储器(PCM)、磁存储器(MRAM)等,它们具有更快速度、更高耐久性、更低功耗的潜力,可能在未来特定领域替代或与NAND/DRAM共存。
- 新晶体管结构:如环栅晶体管(GAA),作为FinFET的继承者,能提供更好的静电控制,是2纳米及以下工艺的候选技术。
- 新材料:高迁移率沟道材料(如锗、III-V族化合物)、新型栅极介质等,用于进一步提升晶体管性能。
工程师需要保持对这些前沿技术的关注,理解其原理和潜在应用场景,为未来的技术转型储备知识。
回望2013年那篇题为《London Calling》的文章,它发出的警报是准确的。摩尔定律以几何缩放为标志的“经典时代”确实在接近尾声。但这绝不意味着创新的终结,而是标志着半导体产业进入了一个更加多元、复杂和充满系统级智慧的“新常态”。从2D到3D的存储革命,从平面到FinFET的器件革新,从单芯片到Chiplet的系统集成,无一不是对“后摩尔时代”挑战的回应。
对于从业者而言,最重要的启示或许是:不能再将技术进步的希望完全寄托于工艺工程师的尺寸微缩。相反,需要电路设计、架构设计、软件算法、封装测试等全链条的工程师进行更紧密的协同创新,在系统层面寻找最优解。那个依靠单一维度驱动就能轻松前进的时代已经过去,未来属于那些能够驾驭多维技术、进行全局优化的思考者和实践者。