연구개발
- KAIST총동문회
- 2026-03-03
- 조회수 14

< (왼쪽부터) 이상완 교수, 하명훈, 성윤도 박사 >
인공지능은 이제 바둑을 두고, 그림을 그리고, 사람처럼 대화까지 한다. 하지만 결정적인 차이가 있다. AI는 인간의 뇌보다 훨씬 많은 전기를 써야 작동한다는 점이다. 과학자들이 오랫동안 던져온 질문은 이것이다. “뇌는 어떻게 이렇게 적은 에너지로도 똑똑하게 학습할 수 있을까?”우리 대학 연구진이 그 답에 한 걸음 다가섰다.
우리 대학은 뇌인지과학과 이상완 교수 연구팀이 인간 뇌의 학습 원리를 딥러닝에 적용해, 깊은 인공지능 모델도 안정적으로 학습시키는 새로운 기술을 개발했다고 1일 밝혔다.
우리 뇌는 세상을 수동적으로 받아들이지 않는다. 현재 벌어지는 일을 단순히 인식하는데서 그치지 않고‘다음에 무슨 일이 일어날까?’를 먼저 예측하고, 실제 결과가 다르면 그 차이(오차)를 줄이는 방향으로 스스로를 수정한다. 바둑에서 상대의 다음 수를 예상했다가 빗나가면 전략을 바꾸는 것과 비슷하다. 이 같은 정보처리 방식을 ‘예측 부호화(Predictive Coding)’라고 한다.

< 예측 부호화(PC) 모듈 >
과학자들은 이 원리를 AI에 적용하려 했지만, 난관이 있었다. 신경망이 깊어질수록 오차가 특정 부위에 몰리거나 아예 사라져 성능이 떨어지는 문제가 반복됐기 때문이다.
연구팀은 그 원인을 수학적으로 규명하고 새로운 해법을 제시했다. 핵심은 단순하다. AI가 결과만 예측하는 것이 아니라, ‘예측 오차가 앞으로 어떻게 변할지’까지 다시 예측하도록 만든 것이다. 연구팀은 이를 ‘메타 예측(Meta Prediction)’이라 설명한다. 쉽게 말해, ‘틀림을 한 번 더 생각하는 AI’다. 이 방식을 적용하자, 깊은 신경망에서도 학습이 멈추지 않고 안정적으로 진행됐다.

< 예측 부호화 모델 오차의 불안정성 분석 >
실험 결과도 인상적이다. 총 30가지 실험 중 29개에서, 현재 AI의 표준 학습법인 ‘역전파(Backpropagation)’보다 높은 정확도를 기록했다. 역전파는 AI가 ‘틀린 만큼 거꾸로 되돌아가며 고치는’ 현재의 대표적 학습 방법이다.
기존 AI 학습방식(역전파)는 모든 층이 서로 긴밀하게 연결돼 있어, 전체 네트워크를 한 번에 계산하고 한 번에 수정해야 하지만 이 방법은 이 방식은 뇌처럼 분산적·부분적으로 학습해도 큰 AI 모델을 잘 학습시킬 수 있음을 입증한 것이다.

< 예측 부호화 모델 성능비교 >
이번 기술은 전력 효율이 중요한 뉴로모픽 컴퓨팅, 환경에 적응해야 하는 로봇 AI, 기기 내부에서 작동하는 엣지 AI 등 다양한 분야로 확장될 것으로 기대된다.
이상완 석좌교수는 “뇌의 구조를 단순히 모방한 것이 아니라, 뇌의 학습 원리 자체를 AI가 따르도록 만든 것이 이번 연구의 핵심”이라며 “뇌처럼 효율적으로 배우는 인공지능의 가능성을 열었다”고 말했다.
이번 연구는 하명훈 박사가 제1저자, 이상완 교수가 교신저자로 참여했으며, 인공지능 국제학회 ICLR 2026(International Conference on Learning Representations)에 채택돼 1월 26일 온라인 게재됐다.
※ 논문명: Stable and Scalable Deep Predictive Coding Networks with Meta Prediction Errors, 논문 원본: https://openreview.net/forum?id=kE5jJUHl9i¬eId=e6T5T9cYqO
본 연구는 과학기술정보통신부·정보통신기획평가원 디지털분야글로벌연구지원사업(마이크로소프트연구소 공동연구), 삼성전자 SAIT NPRC 사업, SW스타랩 사업의 지원을 받아 수행됐다.
출처 :https://researchnews.kaist.ac.kr/researchnews/html/news/?mode=V&mng_no=58810&skey=&sval=&list_s_date=&list_e_date=&GotoPage=1
