老化模式与占空比如何影响SiC MOSFET阈值电压漂移?(带图原文可以在公众号看)
搞SiC器件可靠性的人都知道,阈值电压漂移是个绑着到处跑的指标。器件用久了Vth往哪漂、漂多少,直接决定了它能不能在工业场景里撑过10年。
最近读到法国Supergrid Institute团队发在《Microelectronics Reliability》上的一篇文章,做得挺扎实。他们拿Wolfspeed的1.7kV/45mΩ器件(C2M0045170D)做了一套完整的老化测试,静态动态都有,还把占空比的影响单独拉出来做了对比。数据量不小,值得细看。
他们搭了一个能同时跑18颗MOSFET的老化平台,热板温控在2°C以内。测试用的是Keysight B1506A和B1500,前者测常规IV特性,后者做C-V和电荷泵。
Vth的定义是IDS=18mA、VDS=VGS时的栅极电压;IGSS在VGS=20V时测,超过600nA算失效;RDSON在VGS=20V、IDS=50A下测。都是标准定义,没什么特别的。
但有个细节挺重要。
他们一开始测Vth的时候,数据老是跳。比如跑到86小时的时候,测出来的值跟前后的点对不上。后来发现是弛豫效应在捣乱——器件加完应力之后,Vth会慢慢往回跑。
做了个验证实验:对全新器件加20分钟的+20V偏压,然后撤掉,盯着Vth看。结果是60分钟都没稳定下来,一直在慢慢回复。
这个弛豫的幅度有多大?跟老化本身造成的漂移差不多。换句话说,如果不处理这个问题,测出来的数据里,永久性退化和临时性弛豫混在一起,根本分不清哪个是哪个。
他们的解决办法是:测Vth之前,先打一个预偏置脉冲,持续1秒,把浅陷阱里的电荷先释放掉,然后再测。这样测出来的才是真正的永久性漂移。
这个测量协议看着简单,但很关键。后面所有的数据都是用这个方法测的。
海瑞DHTGB的单脉冲测量逻辑
说到这个弛豫效应,我们自己也踩过坑。
之前有客户拿我们设备做Vth监测,测出来的数据趋势很奇怪——Vth先往下掉,然后才开始往上漂。客户一看就急了:你们设备是不是有问题?按道理脉冲应力下Vth应该一直往正向漂才对,怎么会先降后升?
我们排查了半天,最后发现问题出在测量流程上。我们设备有两个模式,默认是不加预处理需要客户自己选择单脉冲,间隔10ms直接就测了。结果呢,刚撤掉应力的时候,浅能级陷阱里的电荷还没稳定,Vth处于一个"虚高"的状态。等到下一个测量点,这部分临时电荷释放了一些,反而显得Vth"降"了。再往后,永久性退化的积累量超过了弛豫的干扰,曲线才开始正常上升。
单脉冲测量10^11cycle Vth漂移
后来我们把单脉冲预处理作为默认模式,把浅陷阱里的电荷先清掉,只测永久性退化的部分。加完之后,Vth曲线就正常了——从头到尾单调上升,跟文献里报道的规律完全一致。
海瑞DHTGB的非单脉冲测量逻辑
HTGB+(高温栅极偏置):静态测试,持续施加VGS=+20V,温度150°C,持续1000小时。这是JEDEC规范里工业界最常用的方法。
DHTGB(动态高温栅偏):动态测试,栅压在-10V和+25V之间切,频率20kHz,150°C跑1000小时。选20kHz是因为这是工业功率变换器的典型工作频率,更接近实际场景。
先看静态老化。9颗器件(D29到D37),条件是VGS=+20V,150°C,跑1000小时。
结果:Vth正向漂移5%到8%,最大的是D36,漂了大约270mV。
有个数据值得注意:这9颗器件的初始Vth分散度达到了1.05V。同一批货,差这么多,工艺一致性是个问题。
跟文献对比一下。之前有人做过1.2kV的SiC MOSFET,类似条件下Vth能漂2.5V。现在1.7kV的只漂270mV,说明栅氧工艺确实在进步。
机理上没什么悬念:正偏压把电子从沟道往栅氧化层里打,被陷阱抓住,形成负电荷,Vth就往正方向跑。
静态测试是基础,但实际应用里器件是在开关的。所以他们又做了动态老化,栅压在-10V和+25V之间切,频率20kHz,还是150°C跑1000小时。
这里有意思的是,他们把占空比单独拉出来做了对比:20%、50%、80%三组,各3颗器件。
占空比 | 1000h后平均Vth漂移 |
α=20% | 6.1% |
α=50% | 6.4% |
α=80% | 7.2% |
从20%到80%,漂移增加了大约1个百分点。这符合直觉——占空比越高,正偏压作用时间越长,电子注入得越多,漂移就越大。
不过有个地方可以再想想:文献里用10kHz做的测试,占空比的影响比这更明显。他们用20kHz,影响反而小一些。可能是因为高频下单次应力持续时间短,电荷注入效率不一样。这个点没有深究,但值得留意。
工业应用要求10年寿命,大概87600小时。把数据往外推:
HTGB+最坏情况(D36):大约450mV,占初始值的12.7%
DHTGB最坏情况(D18):大约240mV,14.2%;有的样品能到20%
20%的Vth漂移,对控制电路来说是个不小的挑战。虽然α=50%那组在1000小时时看着像是要饱和了,但没有更长时间的数据,不好下定论。
说完机理和数据,再聊聊测试设备的事。DHTGB测试对设备要求其实挺高的,有几个点容易被忽略:
第一是dV/dt。麻烦的是低导通电阻的器件(比如8mΩ级别),Ciss和Coss都很大,驱动起来更吃力。想要达到老标准用的1V/ns乃至更高,非常难。
第二是过冲。dV/dt拉高了,过冲就容易出来。过冲的问题在于:它会让实际应力超出设定值,可能触发额外的电荷注入机制(比如F-N隧穿);而且过冲幅度不可控,测试条件就不可重复了;严重的话直接把器件打坏,1000小时的测试白跑。
第三是宽范围适应性。不同的研究目的对dV/dt要求不一样。不同的器件同样的驱动强度dvdt也差异很大。机理研究可能要慢慢扫,加速老化要尽量快,应用模拟要匹配实际变换器的速度。传统设备的阻尼是固定的,想调dV/dt就得换硬件,很麻烦,速度也不达标,很多设备甚至会在规格上标明只保证多少电容以下的器件达标。
我们做DHTGB设备的时候,这几个问题都考虑进去了。
核心是程控阻尼。不用换硬件,软件上就能把dV/dt从0.3V/ns调到2V/ns以上。上升沿和下降沿可以分开设,想做非对称应力也行。
标准配置下dV/dt能做到2V/ns以上,8mΩ的大电容器件也能驱动得动。如果需要更快,换一块超高速驱动板甚至可以到10V/ns。
过冲控制上,我们花了不少功夫做阻尼匹配。目标是在保证dV/dt的前提下,把过冲压到最低。这样测出来的数据才有意义——施加的应力就是设定的应力,不会多也不会少。
参数 | 规格 | 说明 |
标准dV/dt | >2V/ns | 8mΩ级大电容器件可用 |
最大dV/dt | 10V/ns | 更换驱动板 |
调节范围 | 0.3~2V/ns程控 | 软件设定,无需换硬件 |
边沿控制 | 上升/下降沿独立 | 支持非对称应力 |
过冲控制 | 超低过冲 | 应力精确可控 |
实际用下来,最直接的好处是省事。以前调测试条件要停机换硬件,现在软件设一下就行,测试准备时间砍掉一大块。
回到那篇论文。他们的工作其实揭示了几个关键点:
1.7kV器件的Vth稳定性比早期1.2kV产品好不少,但10年外推下来还是可能漂到20%,不能掉以轻心。占空比对漂移有影响,80%比20%多漂1个百分点左右。测Vth一定要注意弛豫效应,不预处理的话数据会乱。
对我们做测试设备的来说,这些发现反过来也定义了设备需要具备什么能力:够快的dV/dt、可控的过冲、灵活的参数调节。
海瑞这套DHTGB设备,就是照着这个思路做的。有兴趣的可以聊聊。
技术咨询与设备详情,欢迎联系海瑞技术团队。