반도체를 설계할 때는 실제로 만들기 전에 컴퓨터로 가상 실험을 하는 '시뮬레이션' 과정이 필수다. 이 과정에서는 전류가 어떻게 흐르고, 발열이나 전기적 특성이 어떤지를 미리 계산해본다. 하지만 최신 반도체일수록 구조가 복잡해, 시뮬레이션에 몇 시간에서 며칠씩 걸리곤 했다.
광주과학기술원(GIST)은 홍성민 전기전자컴퓨터공학과 교수 연구팀이 이런 계산을 기존보다 최대 100배 빠르게 수행할 수 있는 새로운 알고리즘을 개발했다고 16일 밝혔다.
반도체의 성능은 전류가 얼마나 빠르고 정확하게 흐르느냐에 달려 있다. 하지만 이를 실제로 만들어가며 시험하기에는 시간과 비용이 너무 많이 든다. 그래서 연구자들은 'TCAD 시뮬레이션'이라는 도구를 이용한다. 쉽게 말해, 반도체 내부의 전자 흐름과 전압 분포를 수학적으로 계산해보는 일종의 '가상 반도체 실험'이다.
문제는 반도체 구조가 점점 복잡해지면서 이 계산이 기하급수적으로 느려지고 있다는 점이다. 특히 최근 주목받는 게이트올어라운드(GAA)나 보완형 트랜지스터(CFET) 같은 차세대 소자는 시뮬레이션 한 번에 수시간에서 수일이 걸린다.
연구진은 계산의 가장 큰 병목이 되는 단계인 '바이어스 램핑(bias ramping)' 과정을 없애는 방법에 주목했다. 바이어스 램핑은 전압을 조금씩 올려가며 계산을 안정화하는 과정으로, 전체 계산 시간의 대부분을 차지한다.
연구팀은 이 대신, '준(準) 1차원 모델링' 기법을 활용해 복잡한 3차원 구조를 단순화하고, '영역별 구조 분석'을 적용해 반도체를 여러 구간으로 나누어 각 구간에 가장 적합한 계산 모델을 적용했다.
쉽게 말해, 반도체 전체를 한꺼번에 계산하는 대신, 전류가 흐르는 방향으로 잘게 쪼개 빠르게 예비 계산을 한 뒤, 그 결과를 토대로 정밀 계산을 진행하는 방식이다. 이 덕분에 시뮬레이션을 훨씬 안정적으로, 그리고 10배에서 최대 100배까지 빠르게 수행할 수 있게 됐다.
최근에는 인공지능(AI)을 이용해 계산을 단축하려는 시도도 있었지만, 구조가 조금만 달라져도 새로 학습을 해야 하는 한계가 있었다. 연구진은 이번 연구의 알고리즘이 AI 학습 없이도 다양한 반도체 구조에 바로 적용할 수 있다는 점에서 실용성이 높다고 평가했다.
연구진은 새 알고리즘을 GAA와 CFET 등 여러 차세대 반도체에 적용해 검증했다. 그 결과, 기존 TCAD 시뮬레이션보다 10~100배 빠르면서도 오차는 0.1볼트 이하로 유지됐다. 또 소자의 형태나 계산 격자(mesh) 조건이 달라져도 결과의 일관성이 유지됐다.
홍 교수는 "이번 연구는 인공지능 모델 없이도 계산 속도를 획기적으로 높일 수 있다는 점에서 의미가 크다"며 "향후 차세대 반도체 소자 개발의 효율을 크게 높일 것"이라고 말했다.
이번 연구는 과학기술정보통신부·한국연구재단 개인기초연구사업(중견)의 지원을 받았다. 연구 결과는 국제 학술지 '커뮤니케이션스 엔지니어링(Communications Engineering)'에 지난달 25일 게재됐다.
참고 자료
Communications Engineering(2025), DOI: https://doi.org/10.1038/s44172-025-00509-z