연구개발
-
전산학부
[연구]세계 최고 권위 컴퓨터학회서 연구 역량과 위상 입증
< (왼쪽부터) 전산학부 양홍석 교수, 강지훈 교수, 류석영 교수, 허기홍 교수 >우리 대학은 6월 18일부터 20일까지 서울에서 개최되는 세계 최대 컴퓨터학회인 ACM(Association for Computing Machinery)이 주관하는 프로그래밍 언어 분야 최고 권위의 국제 학술대회인 ‘PLDI (Programming Language Design and Implementation) 2025’에서 기조 강연과 탁월한 연구 성과를 발표하며 KAIST의 세계적 위상을 다시 한 번 입증했다고 18일 밝혔다.학술대회 첫날 기조강연자로 초대된 전산학부 류석영 교수는 “기술 및 사회적 공익을 위한 프로그래밍 언어 연구: 프로그래밍 언어는 공익을 위해 무엇을 할 수 있을까요?(Programming Language Research for Technical and Social Good: What PL Can Do for Good?)”라는 제목으로 강연을 진행한다.이번 강연에서 류 교수는 자바스크립트와 같은 언어의 정형화(formalization)를 통한 소프트웨어 안전성 향상뿐 아니라, 프로그래밍 언어 연구가 사회적으로도 다양성(Diversity), 형평성(Equity), 포용성(Inclusion) 확산에 기여할 수 있는 방식을 사례를 통해 제시할 예정이다.류석영 교수는 “프로그래밍 언어는 기술을 넘어서 공익을 실현하는 수단이 될 수 있다”며 “KAIST 연구진의 이러한 노력이 국내외 연구자들에게도 영감을 줄 수 있기를 기대한다”고 말했다.PLDI는 지난 46년간 전산학 전체에 깊은 영향을 미치는 중요한 논문이 다수 발표된 유서 깊은 학술대회다. 프로그래밍 언어와 컴파일러 등 소프트웨어 전반의 기초가 되는 핵심 기술을 발표하고 있다.전산학부의 강지훈 교수, 양홍석 교수, 허기홍 교수 연구팀은 이번 PLDI 2025에서 총 5편의 논문을 발표하며, 전체 채택 논문 89편 중 6.7%에 해당하는 비중을 차지했다. 이는 한국 내 대학 중 가장 높은 수치로, 포항공대가 2편을 발표했다.특히 강지훈 교수는 지난해에 이어 올해도 단독으로 3편의 논문을 발표하며 국내 연구자의 지속적인 두각을 나타냈다. 강 교수는 “학생들이 수년간 공들여 연구한 결과가 세계 최고 학회에서 인정받아 기쁘다”며, “현실 문제 해결에 밀착된 연구를 통해 산업계의 난제를 풀어나가고 있다”고 밝혔다.다섯 편의 논문은 멀티코어 컴퓨팅 시스템에서의 병렬 자료구조 성능 향상 및 검증, 컴파일러의 신뢰성 확보, 프로그래밍 언어 의미론 연구 등을 중심으로, 운영체제·데이터베이스 등 고성능 시스템 소프트웨어의 품질 향상에 기여할 것으로 기대된다.이번 학회에 발표되는 5개의 논문은 아래와 같다:1. 멀티코어 컴퓨팅 시스템에서 동작하는 고성능 병렬 자료구조의 효율 향상(강지훈 교수) 2. 읽기-복사-쓰기(RCU) 방식의 올바름을 현실적인 조건에서 처음으로 검증(강지훈 교수) 3. 고성능 병렬 자료구조인 순회 자료구조의 올바름을 쉽게 증명할 수 있는 방법론 개발(강지훈 교수) 4. 컴파일러의 올바름을 저비용, 고효율로 검사하는 새로운 기술 제시(허기홍 교수) 5. 특이 함수(singular function)를 지원하는 프로그래밍 언어의 첫 번째 의미론 제시(양홍석 교수)< 그림 1. Leveraging Immutability to Validate Hazard Pointers for Optimistic Traversals 논문의 핵심 아이디어. 불변성을 활용하면 모든 노드를 확인하지 않고도 연결 상태를 안전하게 판단할 수 있다. 그림에서는 n2와 n3가 불변이므로 n4까지의 경로가 여전히 유효함을 효율적으로 확인할 수 있다. >< 그림 2. Verifying General-Purpose RCU for Reclamation in Relaxed Memory Separation Logic 논문의 핵심 아이디어. RCU의 핵심 요소인 fence(sc) 전후의 실행기록(ScHist)와 확인 정보(Seen)를 논리적으로 비교하여, 한 스레드에서의 저장이 다른 스레드에서 올바르게 관측되었는지를 증명할 때 사용하는 법칙이다. 이 법칙을 이용하면 RCU뿐 아니라 유사한 동기화 메커니즘(예: 뮤텍스)도 동일하게 검증했다. >< 그림 3. Verifying Lock-Free Traversals in Relaxed Memory Separation Logic 논문의 핵심 아이디어. 같은 장소에서 순회를 여러번 할 때, 시간순으로 인과 관계를 정의한 후, 이 관계성을 이용해 검증에 핵심이 되는 순회들 간 인과성 논증을 수행할 수 있다. >< 그림 4. Optimization-Directed Compiler Fuzzing for Continuous Translation Validation 논문의 핵심 아이디어. 컴파일러 코드 중 오류 의심 지점만 집중 검사하여 숨은 오류를 빠르게 찾아낸다. >류석영 학부장은 “KAIST 전산학부는 학문적 깊이와 사회적 책임을 동시에 지향하는 연구를 꾸준히 이어가고 있으며, 이번 PLDI 2025에서 그 성과를 세계와 공유할 수 있어 매우 뜻깊다”라고 밝혔다.해당 논문들은 ACM 공식 저널 형식의 PACMPL(Proceedings of the ACM on Programming Languages)에 게재됐으며, PLDI 2025 학술대회 현장에서 발표될 예정이다.한편 이번 연구는 한국연구재단 선도연구센터, 우수신진연구자지원사업, 정보통신기획평가원(IITP) 정보통신·방송 기술개발사업, 인공지능반도체 고급인재 양성사업, 대학ICT연구센터, 삼성전자 미래기술육성센터, Amazon의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-06-24
-
물리학과
[연구]세상에 없던 아이디어, KAIST가 현실로, 자석으로 양자컴퓨팅 기술 구현
세상에 없는 기술을 제안하라는 KAIST 글로벌 특이점 연구사업으로 시작된 ‘자석으로 양자컴퓨팅 기술을 개발한다’는 아이디어가 현실로 실현되었다. KAIST와 국제공동 연구진은 ‘자기 성질을 가진 물질(자성체)’을 활용해 양자컴퓨팅의 핵심 기술을 세계 최초로 실증하는데 성공했다.우리 대학 물리학과 김갑진 교수 연구팀이 미국 아르곤 국립 연구소(Argonne National Lab.), 일리노이대 어바나-샴페인(Univ. of Illinois Urbana-Champaign, UIUC)와 공동연구를 통해, ‘광자-마그논 하이브리드 칩’을 개발해 자성체에서 다중 펄스 간섭 현상을 실시간으로 구현하는 데 세계 최초로 성공했다.< 물리학과 송무준 박사(왼쪽), 물리학과 김갑진 교수(오른쪽) >쉽게 설명하면, 연구팀은 ‘빛’과 ‘자석 내부의 진동(마그논)’이 함께 작동하는 특수한 칩을 개발하여 멀리 떨어진 자석 사이에서 신호(위상 정보)를 전송하고, 여러 개의 신호가 서로 간섭하는 현상을 실시간으로 관측하고 조절하는 데 성공한 것이다.이는 자석이 양자 연산의 핵심 부품으로 활용될 수 있다는 것을 보여준 세계 최초의 실험으로, 자성체 기반 양자컴퓨팅 플랫폼 개발의 중요한 전환점이 될 것으로 기대된다.자석의 N극과 S극은 원자 내부에 존재하는 전자의 스핀(spin)에서 나오게 되는데, 여러 원자가 모였을 때 나타나는 스핀들의 집단적인 진동 상태를 마그논(magnon)이라고 한다.마그논은 특히, 정보를 한쪽으로만 전달하는 비상호성(nonreciprocity) 특성을 가질 수 있어, 양자 노이즈 차단을 통한 소형 양자 칩 개발에 응용될 수 있고, 광 및 마이크로파와 동시에 결합할 수 있어 양자 정보를 수십 km 거리로 전송하는 양자 통신 소자로도 응용이 가능하다.또한, 특수한 자석 물질인 반강자성체(antiferromagnet)를 이용하면 양자컴퓨터의 작동 주파수를 훨씬 빠른 속도, THz(테라헤르츠) 대역으로 높여서 현재 양자컴퓨터 하드웨어 한계를 뛰어넘는, 복잡한 냉각 장비 없이도 상온에서 작동하는 양자컴퓨터의 개발이 가능할 수 있다.그러나, 마그논을 기반으로 한 양자컴퓨팅과 통신 시스템 전반의 구현에 필요한 이 모든 기술을 실현하기 위해서는 마그논 위상 정보, 즉 마그논의 파동이 언제부터 시작되고 움직이는지에 대한 정보를 실시간으로 전송 및 측정하고, 그것을 제어하는 기술이 필수적이었다.< 그림 1. 초전도 회로 기반 마그논-광자 하이브리드 시스템. (a) 소자 개략도. 실리콘 기판 상에 제작된 NbN 초전도 공진기 회로와 구형 YIG 자성체(지름 250 μm)를 결합하고, 수직 안테나를 통해 마그논을 생성, 실시간으로 측정함. (b) 실제 소자 사진. 두 YIG 구체 간의 거리는 12 mm로, 초전도 회로 없이는 서로 영향을 줄 수 없는 수준의 거리임. >김갑진 교수 연구팀은 작은 자석 구슬인 이트륨 철 가넷(Yttrium Iron Garnet, YIG) 2개를 12 mm 간격으로 배치하고, 그 사이에 구글, IBM 등의 양자컴퓨터에서 사용되는 회로인 초전도 공진기를 설치하여 한쪽 자석에 신호(펄스)를 넣어서 다른 자석까지 정보가 잘 전달되는지를 측정하였다.그 결과, 수 나노초(ns) 길이의 아주 짧은 하나의 펄스부터 최대 네 개의 마이크로파 펄스를 입력하였을 때 그로 인해 생기는 자석 내부의 진동(마그논)이 초전도 회로를 통해 멀리 있는 다른 자석까지 손실 없이 전달되는 것을 확인하였고, 여러 펄스 사이에 간섭을 일으켰을 때 각각의 위상 정보를 유지하며 신호가 예측대로 보강 또는 상쇄되는 것(결맞음 간섭 현상)을 실시간 도메인에서 관측하는 데 성공했다.나아가 연구팀은 여러 펄스(신호)의 주파수와 이들 간의 시간 간격을 조절하여 자석 안에 생기는 마그논의 간섭 패턴을 임의로 제어할 수 있음을 입증함으로써, 전기 신호 입력을 통해 마그논의 양자 상태(위상 정보)를 자유롭게 제어할 가능성을 처음으로 입증하였다.이번 연구는 양자 정보 처리 분야에서 필수적인 여러 개의 신호(다중 펄스)를 활용한 양자 게이트 연산이 자성체-초전도 회로 하이브리드 시스템*에서도 구현될 수 있음을 보여주었다. 이 결과는 자성체 기반 양자 소자가 실질적으로 양자컴퓨팅에 활용될 수 있는 가능성을 열어준다는 점에서 중요한 의미를 가진다.* 자성체-초전도 회로 하이브리드 시스템: 자성체의 마그논과 초전도 회로를 결합해, 서로의 장점을 살린 새로운 양자 연산 시스템< 그림 2. 실험 데이터. (a) 연속파 측정을 통한 마그논-마그논 밴드 안티크로싱(band anticrossing) 측정 결과. 강결합(strong coupling) 하이브리드 시스템이 형성되었음을 보여줌. (b) 단일 펄스 인가에 따른 YIG 구체 간 마그논 펄스 교환 진동 현상. 마그논 정보가 초전도 회로를 통해 결맞음을 유지하며 일정 시간 간격으로 전송됨을 알 수 있음. (c,d) 이중 펄스 인가에 따른 마그논 간섭 현상. 펄스 간 시간 간격과 캐리어 주파수의 조절을 통해 마그논 정보 상태를 임의로 제어할 수 있음. >김갑진 교수는“이번 연구는‘세상에 없는 기술을 제안하라’는 KAIST 글로벌 특이점 연구사업에‘자석으로 양자컴퓨터를 개발할 수 있을까?’라는 다소 엉뚱하지만 모험적인 아이디어를 제안하며 시작되었다”며“그 여정 자체가 매우 흥미로웠으며, 특히 이번 연구 결과는 양자 스핀트로닉스(quantum spintronics)라는 새로운 연구 분야의 가능성을 열었을 뿐만 아니라, 고효율 양자정보 처리 장치 개발을 위한 중요한 전환점이 될 것으로 기대된다”라고 말했다.물리학과 송무준 박사후연구원이 제1 저자로 참여하고 미국 아르곤 국립 연구소(Argonne National Laboratory)의 이 리(Yi Li) 박사, 발렌틴 노보사드(Valentine Novosad) 박사, 일리노이 주립대학교(University of Illinois Urbana-Champaign, UIUC)의 악셀 호프만(Axel Hoffmann) 교수 연구팀이 참여한 이번 연구는 네이처 출판 그룹이 출간하는 국제 학술지 ‘엔피제이 스핀트로닉스(npj spintronics)’와 `네이처 커뮤니케이션즈(Nature Communications)'에 4월 1일, 4월 17일에 연이어 출판되었다.※ 논문명 1: Single-shot magnon interference in a magnon-superconducting-resonator hybrid circuit, Nat. Commun. 16, 3649 (2025), DOI: https://doi.org/10.1038/s41467-025-58482-2※ 논문명 2: Single-shot electrical detection of short-wavelength magnon pulse transmission in a magnonic ultra-thin-film waveguide, npj Spintronics 3, 12 (2025),DOI: https://doi.org/10.1038/s44306-025-00072-5이번 연구는 KAIST 글로벌특이점연구사업과 과학기술정보통신부 한국연구재단 중견연구, 선도연구센터, 양자정보과학인적기반 조성사업 및 미국 에너지부의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-05-22
-
신소재공학과
[연구]세계 최초 카이럴자성 양자점 개발- 빛 구동 AI용 소자 구현
< 염지현 신소재공학과 교수(좌), 권준영 신소재공학과 박사(우) >기존 양자점(quantum dots)에는 카이랄 방향성, 광학적 또는 자기적 특성을 복합적으로 구현하는 것이 매우 어려운 기술이었다. KAIST 연구진이 이런 한계를 극복하고, 세계 최초로 광학적 카이랄성과 자성의 융합 특성을 동시에 갖춘 ‘카이럴 자성 양자점’을 개발하고, 이를 활용하여 사람의 뇌처럼 정보를 보고, 판단하고, 저장하며 초기화할 수 있는 기능을 단일 소자에 집약해, 고성능 AI 하드웨어의 새로운 패러다임을 제시했다.우리 대학 신소재공학과 염지현 교수 연구팀이 빛에 의해 비대칭 반응하는 카이랄성과 자성을 동시에 갖는 특수 나노입자인 양자점(CFQD)을 세계 최초로 개발하고, 저전력 인간 뇌 구조와 작동 방식을 모방한 인공지능 뉴로모픽 소자(ChiropS)까지 성공적으로 구현했다.신소재공학과 염지현 교수 연구팀이 개발한 카이랄 양자점을 활용한 광 시냅스 트랜지스터는 편광 구분, 멀티 파장 인식, 전기 소거 등 다양한 기능을 단일 소자에 집약한 고속·고지능·저전력 AI 시스템 구현의 핵심 기술로 향후 광 암호화, 보안 통신, 양자 정보처리에도 활용될 수 있다.이번에 개발된 카이랄 자성 양자점은 은황화물(Ag2S) 기반의 무기 나노입자에 카이랄 유기물인 L-또는 D-시스테인을 도입해 합성한 것으로 빛의 편광 방향(원형 편광)에 따라 서로 다르게 반응하는 특성을 지닌다. 특히, 405, 488, 532 nm 등 가시광 전 영역에서 각각의 편광(LCP, RCP)에 따라 상이한 반응을 보여, 다채널 인식이 가능한 신경 시냅스 소자 플랫폼으로 활용할 수 있다. 또한, 물을 기반으로하여 친환경적으로 합성하고 그 안정성이 높다는 것에 상업적으로 큰 차별점이 있다.연구팀은 실리콘 위에 카이랄 자성 양자점을 활용한 은황화물층과 유기 반도체 펜타신을 적층한 시냅스 트랜지스터 구조를 제작했다. 해당 소자는 빛을 가하면 장기기억 특성(LTP)을 보이고 전기 펄스를 인가하면 초기화 되는 전기 소거 기능도 구현하여 뇌처럼 학습하고 적응할 수 있는 기능을 빛을 이용해서 인공적으로 만드는데 성공했다.< 카이랄 자성 양자점을 이용하여 제작한 뇌 모사 뉴로모픽 ChiropS 소자 모식도. 원형편광 방향성 및 다양한 파장을 이용하여 높은 집적도와 효과적인 에너지 절감을 구현 >또한, 반복하여 아주 짧은 시간동안 광 펄스(레이저 빛)을 비추게 되면 점진적으로 전류가 누적되며 단계적으로 증가하는 멀티 레벨 상태를 형성하였고, 이는 뇌처럼 인공지능이 학습하게 하는 시냅스 가중치 조절이 되고 다중 학습도 가능함을 의미한다.연구팀은 2×3 소자 어레이를 제작해 서로 다른 편광과 파장의 빛을 각각 비추었을때, 각 소자의 응답 전류가 뚜렷이 구분되는 것을 확인했다. 6개의 채널을 통해 총 9개의 정보를 병렬로 감지하고 처리할 수 있어, 기존 대비 최소 9배 이상의 정보량 처리가 가능함을 밝혔다.더 나아가, 이 소자는 빛(광)을 일정하게 받아도 복잡한 판단을 해주는 스마트 센서처럼 반응을 했다. 예를 들어, 이는 잡음(노이즈)을 걸러내고 신호를 증폭할 수 있는 기능을 소자 자체에 내장하고 있는 것처럼 자동 필터하는 역할을 한다. 실제로 손글씨(MNIST) 데이터에 잡음과 같은 가우시안 노이즈를 추가하고 소자에 통과시킬 경우, 고주파 잡음이 줄고 핵심 정보만 살아남는 효과가 확인되었다. 이를 통해 기존 컴퓨팅 기술 대비 최대 30% 적은 전력으로 구동이 가능했다고 밝혔다.이번 연구는 광학적 카이랄성과 자기적 스핀 특성을 하나의 나노소재에 융합함으로써, 기존에 구현되지 않았던 편광 구분 기능과 장기 기억 성능을 동시에 확보할 수 있다. 단일 소자에 감지(보기), 처리(판단), 기억(저장), 초기화(지우기) 기능 기능이 통합되어 있어 향후 고성능 인공지능 하드웨어를 더 작고 효율적으로 만들 가능성도 높다고 평가된다.< 카이랄 Ag2S CFQDs의 합성 및 광전자 특성 분석, a) 카이랄 Ag2S CFQDs의 합성 과정 모식도. b) L-시스테인을 카이랄 매개분자로 사용하여 합성한 Ag2S CFQDs의 고해상도 주사투과전자현미경 사진. 약 5 nm 크기의 양자점인 것을 알 수 있다. c) 해당 이미지의 고속 푸리에 변환(FFT, Fast Fourier Transform) 사진으로, 양자점 내부에 원자수준의 결함이 잘 유도된 것을 확인할 수 있다. d) L-Cys-Ag2S CFQDs의 자기적 성질을 보여주는 히스테리시스 곡선. e) L-, D-, DL-Cys-Ag2S CFQDs의 g-인자 스펙트럼. L-과 D-가 반반 섞인 DL-시스테인을 사용한 양자점의 경우 카이랄 광학적 활성 시그널이 없는 것을 볼 수 있고, L-과 D-를 각각 사용하여 합성한 양자점은 거울상으로 대칭이 되는 시그널이 잘 나오는 것을 확인할 수 있다. f) L-Cys-Ag2S CFQDs의 엑시톤 전이를 보여주는 원형 이색성(CD, Circular Dichroism), 형광 검출 원형 이색성(FDCD, Fluorescence Detected Circular Dichroism), Gaussian 피팅된 광여기 발광(PLE, Photoluminescence Excitation) 스펙트럼. 연구진이 유도한 원자수준 결함을 통해 양자점 내에 다양한 에너지 레벨이 생성되어, 시냅스를 구동할 때 다양한 파장을 활용할 수 있게 하는 장점이 있다. g) 펜타신/Ag2S/SiO2/Si 소자의 단면 주사 전자 현미경(SEM, Scanning Electron Microscopy) 이미지 (펜타신(50 nm)/Ag2S(50 nm)/SiO2 (100 nm)/Si). h) 초기 전자 상태에서의 에너지 밴드 구조 모식도. 암실 조건에서의 광 강화 및 전기적 삭제 동작 시연 >염지현 교수는“기존 양자점의 한계를 극복하기 위해 광학적 카이랄성과 자기적 스핀 특성을 융합한 새로운 개념의 양자점을 설계했다”며 “단일 소자가 다중 편광과 다중 파장을 처리할 수 있고, 전기 신호로 초기화할 수 있는 기능까지 통합한 만큼 저전력·고정밀 AI 시스템 구현을 위한 혁신적 플랫폼이 될 수 있다”고 강조했다.이번 연구는 국립부경대학교 나노융합공학전공 권준영 교수(전. KAIST 박사후연구원)와 KAIST 신소재공학과 김경민 교수 연구팀의 전재범 박사가 제1 저자로 참여했으며, 해당 논문은 국제 학술지 어드밴스드 머티리어스(Advanced Materials)에 4월 7일자 온라인 게재되었다.※ 논문명 : Chiroferromagnetic Quantum Dots for Chiroptical Synapse※ DOI : https://doi.org/10.1002/adma.202415366이번 연구는 과학기술정보통신부, 한국연구재단 우수신진연구지원사업과 삼성전자 등의 지원을 받아 수행되었다. < 2 × 3 ChiropS 배열에서의 6채널 광 시냅스 작동 시연. a) L-시스테인 기반 Ag2S CFQDs(Chiral Ferromagnetic Quantum Dots)로 구성된 2 × 3 시냅스 배열의 소자 구조 개략도. 여섯 개 개별 소자는 각각 왼원편광, 오른원편광 및 세 가지 파장(405, 488, 532 nm)의 빛에 대응하는 여섯 채널에 할당되었다. b) 여섯 가지 조명 조건 하에서 다양한 게이트 전압에 따른 드레인 출력 전류. c) 여섯 채널에서 네 번의 프로그램/삭제(P/E) 사이클 동안의 동적 P/E 시연 결과. d) 여섯 시점(초기 삭제 상태, 네 번의 프로그래밍 상태, 최종 삭제 상태)에서의 각 시냅스에 걸린 전류를 색으로 표현한 히트맵 사진. >
- KAIST총동문회
- 2025-05-22
-
물리학과
[연구]양자 컴퓨터 오류정정에 필요한 양자얽힘 구현
< 사진 1.(왼쪽부터) 물리학과 윤영도 석박통합과정, 노찬 석박통합과정, 라영식 교수, 곽근희 석박통합과정 >양자 컴퓨팅은 고전 컴퓨터로는 계산하기 어려운 문제를 효율적으로 해결할 수 있는 양자 기술이다. 양자 컴퓨터가 복잡한 연산을 정확히 수행하려면 연산 과정에서 발생하는 양자 오류를 정정하는 것이 필수적이다. 하지만 이에 필요한 양자얽힘 상태를 구현하는 것은 매우 큰 난관으로 여겨져 왔다.우리 대학 물리학과 라영식 교수 연구팀이 양자오류 정정 기술의 핵심이 되는 3차원 클러스터 양자얽힘 상태를 실험으로 구현하는데 성공했다고 25일 밝혔다.측정기반 양자 컴퓨팅은 특수한 양자얽힘 구조를 가진 클러스터 상태를 측정하여 양자 연산을 구현하는 새로운 패러다임의 양자 컴퓨팅 방식이다. 이러한 방식의 핵심은 클러스터 양자얽힘 상태의 제작에 있으며, 범용 양자컴퓨팅을 위해 2차원 구조의 클러스터 상태가 사용된다.하지만 양자연산에서 발생하는 양자오류를 정정할 수 있는 결함 허용 양자컴퓨팅(Fault-Tolerant Quantum Computing)으로 발전하려면 더욱 복잡한 3차원 구조의 클러스터 상태가 필요하다.기존 연구에서는 2차원 클러스터 상태 제작이 보고됐지만, 결함 허용 양자컴퓨팅에 필요한 3차원 클러스터 상태는 양자얽힘의 구조가 매우 복잡해 그동안 실험 구현이 이뤄지지 못했다.< 그림 1. (a) 실험 개략도. 800 nm 파장을 갖는 펄스 레이저가 이차 조화파 생성을 통해 400 nm 파장의 펄스 레이저로 변환되고, 이것이 비선형 결정 (PPKTP)에 입사해 다수의 양자얽힘 광원을 생성함. (b) 광학모드 기저 변경을 통한 3차원 클러스터 상태 생성 >연구팀은 펨토초 시간-주파수 모드를 제어하여 양자얽힘을 구현하는 기술을 개발함으로써 3차원 구조의 클러스터 양자얽힘 상태를 생성하는 데 최초로 성공했다.펨토초 레이저는 극도로 짧은 시간 동안 강한 빛 펄스를 방출하는 장치로, 연구팀은 비선형 결정에 펨토초 레이저를 입사시켜 여러 주파수 모드에서 양자 광원을 동시에 생성하고, 이를 활용하여 3차원 구조의 클러스터 양자얽힘을 생성했다.라영식 교수는 "이번 연구는 기존 기술로는 구현하기 어려웠던 3차원 클러스터 양자얽힘 상태 제작에 성공한 최초의 사례”라며, “향후 측정 기반 양자컴퓨팅 및 결함 허용 양자컴퓨팅 연구에 있어 중요한 발판이 될 것”이라고 말했다.< 그림 2. 3차원 클러스터 상태 생성 결과. (a) 클러스터 상태의 nullifier 측정. (b) 양자 상태 토모그래피로 재구성한 3차원 클러스터 상태. (c) 3차원 클러스터 상태의 양자얽힘 특성 확인 >물리학과 노찬 석박사통합과정 학생이 제1 저자로 참여하고 곽근희, 윤영도 석박사통합과정 학생이 공동 저자로 참여한 이번 연구는 저명 국제 학술지 `네이처 포토닉스(Nature Photonics)'에 2025년 2월 24일 온라인판으로 정식 출판됐다. (논문명: Generation of three-dimensional cluster entangled state, DOI: 10.1038/s41566-025-01631-2)한편 이번 연구는 한국연구재단 (양자컴퓨팅 기술개발사업, 중견연구자 지원사업, 소재혁신 양자시뮬레이터 개발사업)과 정보통신기획평가원 (양자인터넷 핵심원천기술 사업, 대학ICT연구센터지원사업) 및 미국 공군연구소의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-05-21
-
전기및전자공학부
[연구]최대 11배 빨라진 PIM 반도체 네트워크 개발
< (왼쪽부터) 전기및전자공학부 손효준 박사과정, 김동준 교수 >최근 인공지능, 빅데이터, 생명과학 등 연구에 사용되는 메모리 대역폭이 차지하는 비중이 높아, 메모리 내부에 연산장치를 배치하는 프로세싱-인-메모리(Processing-in-Memory, 이하 PIM) 반도체에 대한 연구개발이 활발히 진행되고 있다. 국제 공동 연구진이 기존의 PIM 반도체가 내부장치를 활용하면서도 통신을 할때 반드시 PIM 반도체 외부로 연결되는 CPU를 통해야한다는 문제점으로 발생한 병목현상을 해결했다.우리 대학 전기및전자공학부 김동준 교수 연구팀이 미국 노스이스턴 대학(Northeastern Univ.), 보스턴 대학(Boston Univ.)와 스페인 무르시아 대학(Universidad de Murcia)의 저명 연구진과‘PIM 반도체 간 집합 통신에 특화된 인터커넥션 네트워크 아키텍처’를 통한 공동연구로 PIM 반도체의 통신 성능을 비약적으로 향상하는 기법을 개발했다고 19일 밝혔다.김동준 교수 연구팀은 기존 PIM 반도체가 갖는 메모리 내부 연산 장치 간 통신 구조의 한계를 밝히고, 기존에 메모리 내부에 존재하는 데이터 이동을 위한 버스 구조를 최대한 활용하면서 각 연산장치를 직접적으로 상호 연결하는 *인터커넥션 네트워크 구조를 적용함으로써 PIM 반도체의 통신 성능을 극대화하는 기법을 제안했다.※ 인터커넥션 네트워크(interconnection network): 다중 연산 장치를 포함하는 대규모 시스템 설계에 쓰이는 연산 장치 간 연결 구조를 말한다. 인터커넥션 네트워크는 다중 연산 장치를 포함하는 시스템 설계의 필수 요소 중 하나로써 시스템 규모가 커질수록 더욱 중요해지는 특징이 있다.이를 통해 PIM 반도체를 위한 연산 과정에서 통신 처리를 위한 CPU의 개입을 최소화해 PIM 반도체 시스템의 전체적인 성능과 활용성을 높인 PIM 반도체에 특화된 인터커넥션 네트워크 구조를 개발했다.메모리 공정은 복잡한 로직의 추가가 어렵다는 문제점이 있는데 김동준 교수팀이 개발한 네트워크 구조는 PIM에서 비용 효율적인 인터커넥트를 구현했다.이 구조는 병렬 컴퓨팅과 기계학습 분야에서 널리 활용되는 집합 통신(Collective communication) 패턴에 특화돼 있으며, 각 연산장치의 통신량과 데이터 이동 경로를 미리 파악할 수 있다는 집합 통신의 결정성(determinism) 특징을 활용해 기존 네트워크에서 비용을 발생시키는 주요 구성 요소들을 최소화시켰다.기존 PIM 반도체들이 통신하기 위해서는 CPU를 거쳐야만 하기 때문에 상당한 성능 손실이 있었다. 하지만, 연구팀은 PIM 특화 인터커넥션 네트워크를 적용하면 기존 시스템 대비 어플리케이션 성능을 최대 11배 향상했다고 밝혔다. 그 이유는 PIM 반도체의 내부 메모리 대역폭 활용률을 극대화하고 PIM 메모리 시스템의 규모가 커짐에 따라 통신 성능의 확장성이 함께 증가했기 때문이다.최근 미국 전기전자공학회(IEEE) 컴퓨터 아키텍쳐 분야에서는 한국 최초로 2025 IEEE 펠로우(석학회원)로 선임되었고 이 연구를 주도한 김동준 교수는 “데이터 이동(data movement)을 줄이는 것은 PIM을 포함한 모든 시스템 반도체에서 핵심적인 요소이며, PIM은 컴퓨팅 시스템의 성능과 효율성을 향상할 수 있지만 PIM 연산장치 간 데이터 이동으로 인해 성능 확장성이 제약될 수 있어 응용 분야가 제한적이고, PIM 인터커넥트가 이에 대한 해법이 될 수 있다”고 연구의 의의를 설명했다.< 그림 1. KAIST 김동준 교수 연구팀이 제안하는 PIM 특화 인터커넥트를 적용한 PIM 연산장치 간 통신 개념도 >전기및전자공학부 손효준 박사과정이 제1 저자로 참여한 이번 연구는 미국 네바다주 라스베이거스에서 열리는 컴퓨터 구조 분야 최우수 국제 학술대회인 ‘2025 IEEE International Symposium on High Performance Computer Architecture, HPCA 2025’에서 올 3월에 발표될 예정이다. (논문명: PIMnet: A Domain-Specific Network for Efficient Collective Communication in Scalable PIM)한편 이번 연구는 한국연구재단, 삼성전자, 정보통신기획평가원 차세대지능형반도체기술개발사업의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-05-21
-
전산학부
[연구]감정노동 근로자 정신건강 살피는 AI 나왔다
< 사진 1. (왼쪽부터) 이의진 교수, 이두리 박사과정, 박은지 교수, 한윤조 석사 >감정노동이 필수적인 직무를 수행하는 상담원, 은행원 근로자들은 실제로 느끼는 감정과는 다른 감정을 표현해야 하는 상황에 자주 놓이게 된다. 이런 감정적 작업 부하에 장시간 노출되면 심각한 정신적, 심리적 문제뿐만 아니라 심혈관계 및 소화기계 질환 등 신체적 질병으로도 이어질 수 있어 이는 심각한 사회 문제로 여겨지고 있다. 한미 공동 연구진은 인공지능을 활용해서 근로자의 감정적 작업 부하를 자동으로 측정하고 실시간으로 모니터링할 수 있는 새로운 방법을 제시했다.우리 대학 전산학부 이의진 교수 연구팀은 중앙대학교 박은지 교수팀, 미국 애크런 대학교의 감정노동 분야 세계적인 석학인 제임스 디펜도프 교수팀과 다학제 연구팀을 구성해 근로자들의 감정적 작업 부하를 실시간으로 추정해 심각한 정신적, 신체적 질병을 예방할 수 있는 인공지능 모델을 개발했다고 11일 밝혔다.연구팀은 이번 연구를 통해 근로자가 감정적 작업 부하가 높은 상황과 그렇지 않은 상황을 87%의 정확도로 구분해 내는데 성공했다. 이 시스템은 기존의 설문이나 인터뷰 같은 주관적인 자기 보고 방식에 의존하지 않고도 감정적 작업 부하를 실시간으로 평가할 수 있어 근로자들의 정신건강 문제를 사전에 예방하고 효과적으로 관리할 수 있다는 장점이 있다. 또한, 이 시스템은 콜센터뿐만 아니라 고객 응대가 필요한 다양한 직종에 적용될 수 있어 감정 노동자들의 장기적인 정신건강 보호에 크게 기여할 것으로 기대된다.< 감정적 작업 부하 (Emotional workload) 는 직장에서 요구되는 규칙에 따라 감정을 조절하는 과정에서 발생하는 심리적 부하를 의미한다. 감정적 작업 부하는 특히 콜센터 근무자와 같은 고객을 대면하는 근로자들 (주로 서비스 근로자) 에게 자주 발생한다. 이들의 직무는 ‘고객’과의 관계에서, 매일 반복적으로 본인의 감정을 조절하는 것으로, 이 과정에서 요구되는 감정적 작업 부하로 근로자에게 많은 정서적 자원의 사용을 요구하는 주요한 스트레스 원인이다. 과도한 정서적 자원의 사용은 장기적으로 근로자의 번아웃을 유발하는 것으로 알려져 있으며, 실제로 콜센터 근무자의 과도한 번아웃으로 인한 높은 우울감은 중요한 사회적 화두로 대두되고 있다. 기존의 연구들은 다양한 직종의 근로자들의 과도한 작업 부하에 따른 잠재적인 위험을 방지하기 위해서, 근로자의 안전을 보장하기 위한 다양한 인터벤션 기술 (예: 정서적 과부하 상황에서 디지털 치료제 중재 제공) 들을 연구 해 왔다. 그러나 기존 연구에서는 노동자의 인지적 작업 부하 (cognitive workload) 에 초점을 주로 맞추어 왔으며, 감정적 작업 부하 (emotional workload) 를 자동으로 측정하는 거의 수행되지 않았다. >기존 연구는 주로 사무실에서 컴퓨터를 사용해 서류 업무를 주로 다루는 직장인의 인지적 작업 부하(정보를 처리하고 의사결정을 내리는 데 필요한 정신적 노력)를 다뤘으며, 고객을 상대하는 감정 노동자들의 작업 부하를 추정하는 연구는 전무한 상황이었다.감정 노동자들의 감정적 작업 부하는 고용주로부터 요구되는 정서 표현 규칙과 관련이 깊다. 특히 감정노동이 요구되는 상황에서는 자신의 실제 감정을 억제하고 친절한 응대를 해야 하기 때문에 대체적으로 근로자의 감정이나 심리적 상태가 표면적으로 드러나 있지 않다.기존의 감정-탐지 인공지능 모델들은 주로 인간의 감정이 표정이나 목소리에 명백하게 드러나는 데이터를 활용해 모델을 학습해왔기 때문에 자신의 감정을 억제하고 친절한 응대를 강요받는 감정 노동자들의 내적인 감정적 작업 부하를 측정하는 것은 어려운 일로 여겨져 왔다.모델 개발을 위해서는 현실을 충실히 반영한 고품질의 상담 시나리오 데이터셋 구축이 필수적어서 연구팀은 현업에 종사 중인 감정 노동자들을 대상으로 고객상담 데이터셋을 구축했다. 일반적인 콜센터 고객을 응대 시나리오를 개발하여 31명의 상담사로부터 음성, 행동, 생체신호 등 다중 모달 센서 데이터를 수집했다.< 연구에 사용된 이론적 배경과, 이를 측정하기 위한 데이터 수집에 대한 설명을 제공하는 그림이다. 상단의 그림은 감정적 작업 부하가 고객의 고함이나 욕설 등의 상황적 자극에 의해 발생하고, 그에 따른 두 가지 유형화된 반응 (조절된 반응 vs. 조절되지 않는 반응)으로 나타남을 보여준다. 하단의 그림은 이러한 요소들을 고려하여, 상황적 자극을 발생시키는 데이터 수집 시나리오의 설계와 두 가지 상이한 반응을 측정하는 데이터의 수집 장치를 시각적으로 보여준다. >연구팀은 인공지능 모델 개발을 위해 고객과 상담사의 음성 데이터로부터 총 176개의 음성특징을 추출했다. 음성 신호 처리를 통해서 시간, 주파수, 음조 등 다양한 종류의 음성특징이 추출하며, 대화 내용은 고객의 개인정보 보호를 위하여 사용하지 않았다. 정서 표현 규칙으로 인한 상담사의 억제된 감정 상태를 추정하기 위하여 상담사로부터 수집된 생체신호로부터 추가적인 특징을 추출했다.피부의 전기적 특성을 나타내는 피부 전도도(EDA, Electrodermal activity) 13개의 특징, 뇌의 전기적 활성도를 측정하는 뇌파(EEG, Electroencephalogram) 20개의 특징, 심전도(ECG, Electrocardiogram) 7개의 특징, 그 외 몸의 움직임, 체온 데이터로부터 12개의 특징을 추출했다. 총 228개의 특징을 추출해 9종의 인공지능 모델을 학습하여 성능 비교 평가를 수행했다.결과적으로, 학습된 모델은 상담사가 감정적 작업 부하가 높은 상황과 그렇지 않은 상황을 87%의 정확도로 구분해 냈다. 흥미로운 점은 기존 감정-탐지 모델에서 대상의 목소리가 성능 향상에 기여하는 주요한 요인이었지만 본인의 감정을 억누르고 친절함을 유지해야 하는 감정노동의 상황에서는 상담사의 목소리가 포함될 경우 오히려 모델의 성능이 떨어지는 현상을 보였다는 것이다. 그 외에 고객의 목소리, 상담사의 피부 전도도 및 체온이 모델 성능 향상에 중요한 영향을 미치는 특징으로 밝혀졌다.< 연구의 전체적인 수행과정을 설명하는 그림이다. 음성데이터와 신체반응 데이터의 수집, 인공지능 모델 학습 및 결과 분석의 과정을 시각적으로 보여준다. 성능 분석 결과는 감정노동 수행 중 표현을 억제하는 상담사 목소리의 경우, 감정적 작업 부하 측정에 낮은 영향을 주었지만, 다른 데이터들은 높은 영향을 주었음을 나타낸다. >이의진 교수는 "감정적 작업 부하를 실시간으로 측정할 수 있는 기술을 통해 감정노동의 직무 환경 개선과 정신건강을 보호할 수 있다”며 "개발된 기술을 감정 노동자의 정신건강을 관리할 수 있는 모바일 앱과 연계하여 실증할 예정이다”고 말했다.중앙대학교 박은지 교수(KAIST 전산학부 박사 졸업)가 제1 저자이며 유비쿼터스 컴퓨팅 분야 국제 최우수 학술지인 「Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies」 2024년 9월호에 게재됐다. 또한, 이 연구는 인간-컴퓨터 상호작용 분야의 최우수 학술대회인 ACM UbiComp 2024에서 발표됐다. (논문제목: Hide-and-seek: Detecting Workers’ Emotional Workload in Emotional Labor Contexts Using Multimodal Sensing, https://doi.org/10.1145/3678593)이번 연구는 과학기술정보통신부 정보통신기획평가원 ICT융합산업혁신기술개발사업의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-05-21
-
전기및전자공학부
[연구]스스로 학습·수정하는 뉴로모픽 반도체칩 개발
< (왼쪽부터) 전기및전자공학부 윤영규 교수, 한승재 석박사통합과정, 정학천 석박사통합과정, 최신현 교수 >기존 컴퓨터 시스템은 데이터 처리 장치와 저장 장치가 분리돼 있어, 인공지능처럼 복잡한 데이터를 처리하기에는 효율적이지 않다. KAIST 연구팀은 우리 뇌의 정보 처리 방식과 유사한 멤리스터 기반 통합 시스템을 개발했다. 이제 원격 클라우드 서버에 의존하지 않고 의심스러운 활동을 즉시 인식하는 스마트 보안 카메라부터 건강 데이터를 실시간으로 분석할 수 있는 의료기기까지 다양한 분야에 적용될 수 있게 되었다.우리 대학 전기및전자공학부 최신현 교수, 윤영규 교수 공동연구팀이 스스로 학습하고 오류를 수정할 수 있는 차세대 뉴로모픽 반도체 기반 초소형 컴퓨팅 칩을 개발했다고 17일 밝혔다.연구팀이 개발한 이 컴퓨팅 칩의 특별한 점은 기존 뉴로모픽 소자에서 해결이 어려웠던 비이상적 특성에서 발생하는 오류를 스스로 학습하고 수정할 수 있다는 것이다. 예를 들어, 영상 스트림을 처리할 때 칩은 움직이는 물체를 배경에서 자동으로 분리하는 법을 학습하며 시간이 지날수록 이 작업을 더 잘 수행하게 된다.이러한 자가 학습 능력은 실시간 영상 처리에서 이상적인 컴퓨터 시뮬레이션에 견줄 만한 정확도를 달성하며 입증됐다. 연구팀의 주요성과는 뇌와 유사한 구성 요소의 개발을 넘어, 신뢰성과 실용성을 모두 갖춘 시스템으로 완성한 것에 있다.< 그림 1. 높은 신뢰성을 가진 셀렉터리스(selector-less) 32×32 멤리스터 크로스바 어레이가 탑재된 컴퓨팅 칩의 주사 전자 현미경(SEM) 이미지 (왼쪽). 실시간 인공지능 구현을 위해 개발된 하드웨어 시스템 (오른쪽) >연구팀은 세계 최초로 즉각적인 환경 변화에 적응할 수 있는 멤리스터 기반 통합 시스템을 개발하며, 기존 기술의 한계를 극복하는 혁신적인 해결책을 제시했다.이 혁신의 핵심에는 멤리스터(memristor)*라고 불리는 차세대 반도체 소자가 있다. 이 소자의 가변 저항 특성은 신경망의 시냅스 역할을 대체할 수 있게 되고, 이를 활용해 우리 뇌세포처럼 데이터 저장 및 연산을 동시에 수행할 수 있다.*멤리스터: 메모리(memory)와 저항(resistor)의 합성어로 두 단자 사이로 과거에 흐른 전하량과 방향에 따라 저항값이 결정되는 차세대 전기소자연구팀은 저항 변화를 정밀하게 제어할 수 있는 고신뢰성 멤리스터를 설계하고, 자가 학습을 통해 복잡한 보정 과정을 배제한 효율적인 시스템을 개발했다. 이번 연구는 실시간 학습과 추론을 지원하는 차세대 뉴로모픽 반도체 기반 통합 시스템의 상용화 가능성을 실험적으로 검증했다는 점에서 중요한 의미를 가진다.< 그림 2. 멤리스터 소자의 비이상적 특징이 포함된 영상의 배경 및 전경 분리 결과 (왼쪽). 본 연구진이 개발한 멤리스터 컴퓨팅 칩을 통한 기기 내 학습을 통한 실시간 영상 분리 결과 (오른쪽) >이 기술은 일상적인 기기에서 인공지능을 사용하는 방식을 혁신하여 AI 작업 처리를 위해 원격 클라우드 서버에 의존하지 않고 로컬에서 처리할 수 있게 되어, 더 빠르고 사생활 보호가 강화되며 에너지 효율성이 높아질 것이다.이 기술 개발을 주도한 KAIST 정학천 연구원과 한승재 연구원은 “이 시스템은 책상과 자료 캐비닛을 오가며 일하는 대신 모든 것이 손이 닿는 곳에 있는 스마트 작업 공간과 같다. 이는 모든 것이 한 곳에서 처리돼 매우 효율적인 우리 뇌의 정보 처리 방식과 유사하다”고 설명했다.전기및전자공학부 정학천 석박통합과정생과 한승재 석박사통합과정생이 제 1저자로 연구에 참여했으며 국제 학술지 `네이처 일렉트로닉스 (Nature Electronics)'에 2025년 1월 8일 자로 온라인 게재됐다.(논문 제목: Self-supervised video processing with self-calibration on an analogue computing platform based on a selector-less memristor array, https://doi.org/10.1038/s41928-024-01318-6)이번 연구는 한국연구재단의 차세대지능형반도체기술개발사업, 우수신진연구사업, PIM인공지능반도체핵심기술개발사업, 정보통신기획평가원의 한국전자통신연구원연구개발지원사업의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-05-21
-
전기및전자공학부
[연구]강유전체 활용 차세대 반도체 메모리 혁신
< 전기및전자공학부 전상훈 교수 연구팀 단체사진 >강유전체는 메모리 소자에서 전하를 잘 저장하기 때문에 "전기를 기억하는 소재"와 같다는 특성으로 차세대 반도체 기술 개발에 있어 핵심 소재로 부각되고 있다. 우리 연구진이 이러한 강유전체 소재를 활용해 현재 메모리 반도체 산업의 양대 산맥인 디램(DRAM)과 낸드 플래시(NAND Flash) 메모리의 한계를 극복한 고성능, 고집적 차세대 메모리 소자를 개발하는데 성공했다.우리 대학 전상훈 교수 연구팀이 하프니아 강유전체 소재*를 활용한 차세대 메모리 및 스토리지 메모리 기술을 개발했다고 6일 밝혔다.*하프니아 강유전체 소재: 비휘발성 절연막으로, CMOS 공정 호환성, 동작 속도, 내구성 등의 우수한 물리적 특성을 바탕으로 차세대 반도체의 핵심 소재로 활발하게 연구되고 있는 물질디램 메모리는 우리가 스마트폰, 컴퓨터, USB 등에서 사용하는 데이터를 저장하는 휘발성 메모리다. 휘발성 특성으로 인해, 외부 전력이 끊어지면 저장된 데이터가 손실되지만, 공정 단가가 낮고 집적도가 높아 메인 메모리로 활용돼 왔다. 하지만 디램 메모리 기술은 소자의 크기가 작아질수록 디램 소자가 정보를 저장하는 저장 커패시터의 용량도 작아지게 되고, 더 이상 메모리 동작을 수행하기 어렵다.연구팀은 저장 커패시터는 정보를 저장하는 디램 기술의 한계를 극복하고자 이러한 저장 커패시터가 물리적으로 작은 면적에서도 높은 저장 용량을 달성할 수 있도록 개선하는 데에 집중했다. 이를 위해 하프니아 강유전체 기반 극박막의 고유전율 물질을 개발했다. 연구 결과 현재까지 보고된 디램 커패시터 중, 가장 낮은 2.4 Å (머리카락 굵기의 약 10만분의 1)의 SiO2(실리콘 산화물) 유효 두께와 같이 얇은 층에 저장하는 것을 달성했다.또한 연구팀은 디램 메모리 기술을 잠재적으로 대체할 수 있는 후보군으로 주목받고 있는 강유전체 메모리 FRAM 메모리도 개발하였다. 현 DRAM 수준의 1V 이하의 낮은 전압에서도 비 휘발성 정보 저장과 삭제가 확실히 이루어지는 기술은 에너지 효율성을 크게 향상시켜 차세대 메모리에 필수적이다.디램 메모리 기술에 이어 연구팀은 낸드 플래시 메모리의 한계를 극복할 하프니아 강유전체 기반의 차세대 메모리 기술을 개발했다. 낸드 플래시 메모리는 우리가 스마트폰, 컴퓨터, USB 등에서 사용하는 데이터를 저장하는 비휘발성 메모리이다. 현재, 낸드플래시 메모리의 저장 용량을 늘리기 위해 여러 층을 쌓아 올리는 방식으로 발전해 왔지만, 물리적인 한계로 인해 500층, 1000층 이상으로 쌓기가 어려운 상황이다.이에 연구팀은 강유전체라는 새로운 소재를 낸드 플래시에 적용하는 방식을 연구한 결과, 소재 계면에 TiO2 층이라는 얇은 층을 추가함으로써 1000단 이상의 수직 적층 3차원이며 외부 환경의 간섭에도 데이터를 안정적으로 유지하도록 설계했다.< 그림 1 차세대 DRAM 메모리 개발 연구 대표도. DRAM 메모리 소자의 모식도와 저장 커패시터의 용량을 획기적으로 증가시키기 위한 차세대 강유전체 소재 기반 FRAM 메모리. 강유전체 소재는 낮은 동작 전압과 높은 분극 스위칭 특성 달성이 요구되며, 전상훈 교수 연구팀은 이를 위해 2가지 접근법을 적용하였음. 결과적으로 세계 최초로 1 V 이하의 동작 전압과 20 μC/cm2 이상의 분극 스위칭 특성을 동시에 달성하였음. 또한 수직 적층 3D 1T-nC FRAM 메모리 최적화를 위한 수학적 모델링 프레임워크를 개발하였음. >마지막으로 기존의 낸드 플래시 기술에서 산화물 채널 기반의 메모리 소자는 데이터를 완전히 지울 수 없는 한계가 있어 새로운 구조의 고성능 산화물 채널 기반 낸드 플래시 소자를 개발하는 데 성공했다. 이 소자는 더 많은 데이터를 저장할 수 있고 데이터를 10년 이상 안정적으로 보존할 수 있는 특징을 가진다.전상훈 교수는 “이번 연구 결과들은 스케일링 이슈로 인해 답보상태에 있는 메모리 반도체 기술 개발에 돌파구가 되는 기술이 될 것으로 판단되며, 향후 다양한 인공지능 컴퓨팅 및 엣지 컴퓨팅 기술 상용화에 기여할 수 있을 것”이라고 설명했다.< 그림 2 차세대 스토리지 메모리 개발 연구 대표도. 3D 수직 적층 강유전체 NAND Flash 소자 어레이와 게이트 스택 구조. 강유전체 NAND Flash 소자는 저전압 고집적 성능을 가지지만, 강유전체 소재의 부분 분극 스위칭 동작으로 인해 교란 이슈에 취약함. 전상훈 교수 연구팀은 강유전체 소재의 자유 에너지를 고려하여 도메인 크기를 극대화할 수 있는 TiO2 층을 포함하는 NAND Flash 소자 게이트 스택 구조를 제안하여 성공적으로 고성능, 교란이 없는 강유전체 NAND Flash 소자를 개발하였음. >벤카테스왈루 가담(Venkateswarlu Gaddam) 연구 교수, 김기욱 박사 과정, 조홍래 박사 과정, 황정현 박사 과정, 이상호 박사 과정, 최효준 석사 과정, 강현준 석사 과정이 공동 제1 저자로 참여했고 이러한 연구 성과를 국제적으로 인정받아 반도체 산업계 최고 수준의(Top-tier) 컨퍼런스에 2024년 5편의 논문을 발표했다. (2024 VLSI 2편, 2024 IEDM 3편)- In-depth analysis of the Hafnia ferroelectrics as a key enabler for low voltage & QLC 3D VNAND beyond 1K layers: Experimental demonstration and modeling VLSI 24 DOI: 10.1109/VLSITechnologyandCir46783.2024- Low-Damage Processed and High-Pressure Annealed High-k Hafnium Zirconium Oxide Capacitors near Morphotropic Phase Boundary with Record-Low EOT of 2.4 Å & high-k of 70 for DRAM … VLSI 24 DOI: 10.1109/VLSITechnologyandCir46783.2024- Unveiling the Origin of Disturbance in FeFET and the Potential of Multifunctional TiO2 as a Breakthrough for Disturb-free 3D NAND Cell: Experimental and Modeling https://iedm24.mapyourshow.com/8_0/sessions/session-details.cfm?scheduleid=4- Oxide Channel Ferroelectric NAND Device with Source- tied Covering Metal Structure: Wide Memory Window (14.3 V), Reliable Retention (> 10 years) and Disturbance Immunity (△Vth ≤ 0.1 V) for QLC Operationhttps://iedm24.mapyourshow.com/8_0/sessions/session-details.cfm?scheduleid=47- Design Methodology for Low-Voltage Operational (≤1 V) FRAM Cell Capacitors and Approaches for Overcoming Disturb Issues in 1T-nC Arrays: Experimental & Modeling:https://iedm24.mapyourshow.com/8_0/sessions/session-details.cfm?scheduleid=54참고로, IEEE VLSI와 IEEE IEDM 학회는 삼성전자, SK 하이닉스, 마이크론, 인텔 등 굴지의 반도체 업계와 세계적인 석학들이 최신 기술 개발을 공유하고 미래 기술의 지향점을 논의하는 학회로 반도체 올림픽이라고 불린다.한편, 이 연구는 삼성전자, 한양대학교와 협업을 통해서 수행되었으며, 한국산업기술평가원 (KEIT) 민관공동투자 반도체 고급인력양성사업, 과학기술정보통신부 혁신연구센터(IRC) 지원 사업, 삼성전자(Samsung Electronics)의 지원을 받아 진행됐다.
- KAIST총동문회
- 2025-05-21
-
뇌인지과학과
[연구]뇌 기반 인공지능의 난제 해결
< (왼쪽부터) 뇌인지과학과 백세범 교수, 이상완 교수, 천정환 석사과정 >인간의 두뇌는 외부 세상으로부터 감각 정보를 받아들이기 이전부터 자발적인 무작위 활동을 통해 학습을 시작한다. 우리 연구진이 개발한 기술은 뇌 모방 인공신경망에서 무작위 정보를 사전 학습시켜 실제 데이터를 접했을 때 훨씬 빠르고 정확한 학습을 가능하게 하며, 향후 뇌 기반 인공지능 및 뉴로모픽 컴퓨팅 기술 개발의 돌파구를 열어줄 것으로 기대된다.우리 대학 뇌인지과학과 백세범 교수 연구팀이 뇌 모방 인공신경망 학습의 오래된 난제였던 가중치 수송 문제(weight transport problem)*를 해결하고, 이를 통해 생물학적 뇌 신경망에서 자원 효율적 학습이 가능한 원리를 설명했다고 23일 밝혔다.*가중치 수송 문제: 생물학적 뇌를 모방한 인공지능 개발에 가장 큰 장애물이 되는 난제로, 현재 일반적인 인공신경망의 학습에서 생물학적 뇌와 달리 대규모의 메모리와 계산 작업이 필요한 근본적인 이유임.지난 수십 년간 인공지능의 발전은 올해 노벨 물리학상을 받은 제프리 힌튼(Geoffery Hinton)이 제시한 오류 역전파(error backpropagation) 학습에 기반한다. 그러나 오류 역전파 학습은 생물학적 뇌에서는 가능하지 않다고 생각되어 왔는데, 이는 학습을 위한 오류 신호를 계산하기 위해 개별 뉴런들이 다음 계층의 모든 연결 정보를 알고 있어야 하는 비현실적인 가정이 필요하기 때문이다.< 그림 1. 무작위 정보 훈련의 방법과 그 효과를 묘사하는 그림 >가중치 수송 문제라고 불리는 이 난제는 1986년 힌튼에 의해 오류 역전파 학습이 제안된 이후, DNA 구조의 발견으로 노벨 생리의학상을 받은 프랜시스 크릭(Francis Crick)에 의해 제기됐으며, 이후 자연신경망과 인공신경망 작동 원리가 근본적으로 다를 수밖에 없는 이유로 여겨진다.인공지능과 신경과학의 경계선에서, 힌튼을 비롯한 연구자들은 가중치 수송 문제를 해결함으로써 뇌의 학습 원리를 구현할 수 있는, 생물학적으로 타당한 모델을 만들고자 하는 시도를 계속해 왔다.지난 2016년, 영국 옥스퍼드(Oxford) 대학과 딥마인드(DeepMind) 공동 연구진은 가중치 수송을 사용하지 않고도 오류 역전파 학습이 가능하다는 개념을 최초로 제시해 학계의 주목을 받았다. 그러나, 가중치 수송을 사용하지 않는 생물학적으로 타당한 오류 역전파 학습은 학습 속도가 느리고 정확도가 낮은 등 효율성이 떨어져, 현실적인 적용에는 문제가 있었다.연구팀은 생물학적 뇌가 외부적인 감각 경험을 하기 이전부터 내부의 자발적인 무작위 신경 활동을 통해 이미 학습을 시작한다는 점에 주목했다. 이를 모방해 연구팀은 가중치 수송이 없는 생물학적으로 타당한 신경망에 의미 없는 무작위 정보(random noise)를 사전 학습시켰다.< 그림 2. 무작위 정보 훈련의 메타 학습 효과를 묘사하는 그림 >그 결과, 오류 역전파 학습을 위해 필수적 조건인 신경망의 순방향과 역방향 신경세포 연결 구조의 대칭성이 만들어질 수 있음을 보였다. 즉, 무작위적 사전 학습을 통해 가중치 수송 없이 학습이 가능해진 것이다.연구팀은 실제 데이터 학습에 앞서 무작위 정보를 학습하는 것이 ‘배우는 방법을 배우는’메타 학습(meta learning)의 성질을 가진다는 것을 밝혔다. 무작위 정보를 사전 학습한 신경망은 실제 데이터를 접했을 때 훨씬 빠르고 정확한 학습을 수행하며, 가중치 수송 없이 높은 학습 효율성을 얻을 수 있음을 보였다.< 그림 3. 인공신경망을 통해 뇌의 작동 원리를 이해하는 연구를 묘사하는 일러스트레이션 >백세범 교수는 “데이터 학습만이 중요하다는 기존 기계학습의 통념을 깨고, 학습 전부터 적절한 조건을 만드는 뇌신경과학적 원리에 주목하는 새로운 관점을 제공하는 것”이라며 “발달 신경과학으로부터의 단서를 통해 인공신경망 학습의 중요한 문제를 해결함과 동시에, 인공신경망 모델을 통해 뇌의 학습 원리에 대한 통찰을 제공한다는 점에서 중요한 의미를 가진다”고 언급했다.뇌인지과학과 천정환 석사과정이 제1 저자로, 같은 학과 이상완 교수가 공동 저자로 참여한 이번 연구는 12월 10일부터 15일까지 캐나다 벤쿠버에서 열리는 세계 최고 수준의 인공지능 학회인 제38회 신경정보처리학회(NeurIPS)에서 발표될 예정이다. (논문명: Pretraining with random noise for fast and robust learning without weight transport (가중치 수송 없는 빠르고 안정적인 신경망 학습을 위한 무작위 사전 훈련))한편 이번 연구는 한국연구재단의 이공분야기초연구사업, 정보통신기획평가원 인재양성사업 및 KAIST 특이점교수 사업의 지원을 받아 수행됐다.
- KAIST총동문회
- 2025-05-13
-
[연구]고비용 인프라 없이 AI 학습 가속화 가능
< (왼쪽부터) 전기및전자공학부 한동수 교수, 임휘준 박사, 예준철 박사과정 >우리 대학 연구진이 고가의 데이터센터급 GPU나 고속 네트워크 없이도 AI 모델을 효율적으로 학습할 수 있는 기술을 개발했다. 이 기술을 통해 자원이 제한된 기업이나 연구자들이 AI 연구를 보다 효과적으로 수행할 수 있을 것으로 기대된다. 우리 대학 전기및전자공학부 한동수 교수 연구팀이 일반 소비자용 GPU를 활용해, 네트워크 대역폭이 제한된 분산 환경에서도 AI 모델 학습을 수십에서 수백 배 가속할 수 있는 기술을 개발했다고 19일 밝혔다. 기존에는 AI 모델을 학습하기 위해 개당 수천만 원에 달하는 고성능 서버용 GPU(엔비디아 H100) 여러 대와 이들을 연결하기 위한 400Gbps급 고속 네트워크를 가진 고가 인프라가 필요했다. 하지만 소수의 거대 IT 기업을 제외한 대부분의 기업과 연구자들은 비용 문제로 이러한 고가의 인프라를 도입하기 어려웠다.한동수 교수 연구팀은 이러한 문제를 해결하기 위해 '스텔라트레인(StellaTrain)'이라는 분산 학습 프레임워크를 개발했다. 이 기술은 고성능 H100에 비해 10~20배 저렴한 소비자용 GPU를 활용해, 고속의 전용 네트워크 대신 대역폭이 수백에서 수천 배 낮은 일반 인터넷 환경에서도 효율적인 분산 학습을 가능하게 한다.< 그림 1. 기존 저비용 분산 딥러닝 환경에서는 네트워크 제약으로 인해 멀티 클러스터 및 하이브리드 클라우드 환경에서 학습 시 GPU 이용률이 저하되고, 학습 시간과 클라우드 비용이 증가하는 문제가 있다. >기존의 저가 GPU를 사용할 경우, 작은 GPU 메모리와 네트워크 속도 제한으로 인해 대규모 AI 모델 학습 시 속도가 수백 배 느려지는 한계가 있었다. 하지만 연구팀이 개발한 스텔라트레인 기술은 CPU와 GPU를 병렬로 활용해 학습 속도를 높이고, 네트워크 속도에 맞춰 데이터를 효율적으로 압축 및 전송하는 알고리즘을 적용해 고속 네트워크 없이도 여러 대의 저가 GPU를 이용해 빠른 학습을 가능하게 했다. 특히, 학습을 작업 단계별로 CPU와 GPU가 나누어 병렬적으로 처리할 수 있는 새로운 파이프라인 기술을 도입해 연산 자원의 효율을 극대화했다. 또한, 원거리 분산 환경에서도 GPU 연산 효율을 높이기 위해, AI 모델별 GPU 활용률을 실시간으로 모니터링해 모델이 학습하는 샘플의 개수(배치 크기)를 동적으로 결정하고, 변화하는 네트워크 대역폭에 맞추어 GPU 간의 데이터 전송을 효율화하는 기술을 개발했다.< 그림 2. 한동수 교수 연구팀은 StellaTrain과 ES-MoE 연구를 통해 GPU 수가 제한적이거나 고성능 GPU가 없는 상황에서도 저렴한 컴퓨팅 환경으로 AI 모델 학습을 가능하게 했다. >연구 결과, 스텔라트레인 기술을 사용하면 기존의 데이터 병렬 학습에 비해 최대 104배 빠른 성능을 낼 수 있는 것으로 나타났다. 한동수 교수는 "이번 연구가 대규모 AI 모델 학습을 누구나 쉽게 접근할 수 있게 하는 데 큰 기여를 할 것"이라고 밝혔다. “앞으로도 저비용 환경에서도 대규모 AI 모델을 학습할 수 있는 기술 개발을 계속할 계획이다”라고 말했다. 이번 연구는 우리 대학 임휘준 박사, 예준철 박사과정 학생, UC 어바인의 산기타 압두 조시(Sangeetha Abdu Jyothi) 교수와 공동으로 진행됐으며, 연구 성과는 지난 8월 호주 시드니에서 열린 ACM SIGCOMM 2024에서 발표됐다.< 그림 3. 연구팀이 개발한 StellaTrain 프레임워크는 다중 클러스터 및 다중 노드 환경에서 GPU 활용률을 극대화하고 학습 시간을 단축하기 위해, CPU 기반 그래디언트 압축 및 최적화로 통신 오버헤드를 최소화하고, 네트워크 상황에 따라 배치 크기와 압축률을 실시간으로 조절하는 동적 최적화 기술을 적용했다. >한편, 한동수 교수 연구팀은 2024년 7월 GPU 메모리 한계를 극복해 소수의 GPU로 거대 언어 모델을 학습하는 새로운 기술도 발표했다. 해당 연구는 최신 거대 언어 모델의 기반이 되는 전문가 혼합형(Mixture of Expert) 모델을 제한된 메모리 환경에서도 효율적인 학습을 가능하게 한다. 이 결과 기존에 32~64개 GPU가 필요한 150억 파라미터 규모의 언어 모델을 단 4개의 GPU만으로도 학습할 수 있게 됐다. 이를 통해 학습의 필요한 최소 GPU 대수를 8배~16배 낮출 수 있게 됐다. 해당 논문은 KAIST 임휘준 박사와 김예찬 연구원이 참여했으며, 오스트리아 빈에서 열린 AI 분야 최고 권위 학회인 ICML에 발표됐다. 이러한 일련의 연구 결과는 자원이 제한된 환경에서도 대규모 AI 모델 학습이 가능하다는 점에서 중요한 의미를 가진다.< 그림 4. 저비용 GPU에 의존하는 다수의 연구자들은 GPU 메모리 용량 초과로 인하여, 다량의 expert 모델을 이용한 학습이 불가능하다. 본 연구팀이 ICML 2024에서 발표한 ES-MoE 프레임워크에서는 CPU 메모리 및 SSD를 계층적으로 사용하여 부족한 GPU 메모리를 보완할 수 있는 Expert Switching 기법을 제안한다. 이는 저비용 GPU에서도 expert 개수를 크게 늘릴 수 있는 확장성을 제공한다. >해당 연구는 과학기술정보통신부 한국연구재단이 주관하는 중견연구사업 (RS-2024-00340099), 정보통신기획평가원(IITP)이 주관하는 정보통신·방송 기술개발사업 및 표준개발지원사업 (RS-2024-00418784), 차세대통신클라우드리더십구축사업 (RS-2024-00123456), 삼성전자의 지원을 받아 수행됐다.
- 총동문회 관리자
- 2024-11-10