< (왼쪽부터) 전기및전자공학부 이성주 교수, 신재민 박사과정, 칭화대 윤신 리우 교수, 위안춘 리 교수 >
우리 대학 전기및전자공학부 이성주 교수 연구팀이 국제공동연구를 통해 다수의 모바일 기기 위에서 인공지능(AI) 모델을 학습할 수 있는 연합학습 기술의 학습 속도를 4.5배 가속할 수 있는 방법론을 개발했다고 2일 밝혔다.
이성주 교수 연구팀은 지난 6/27~7/1에 열린 세계컴퓨터연합회(ACM) 주최로 진행된 제20회 모바일 시스템, 어플리케이션, 및 서비스 국제학술대회(MobiSys, International Conference on Mobile Systems, Applications, and Services)에서 연합학습(Federated Learning)의 학습 속도 향상(4.5배 가속)을 위한 데이터 샘플 최적 선택 및 데드라인 조절 방법론을 발표했다. 이 학회는 2003년에 시작됐으며 모바일 시스템, 소프트웨어, 어플리케이션, 서비스를 위한 최신 연구를 소개하는 데 초점을 맞추고 있으며, 모바일 컴퓨팅 및 시스템 분야의 최우수 학회 중 하나로 오랫동안 주목받고 있다.
이번 논문(FedBalancer: Data and Pace Control for Efficient Federated Learning on Heterogeneous Clients)은 KAIST 전산학부 신재민 박사과정이 제1 저자로 참여했으며, 중국 칭화대학과의 국제협력으로 이루어진 성과다 (칭화대학교 위안춘 리(Yuanchun Li) 교수, 윤신 리우(Yunxin Liu) 교수 참여).
< 그림 1. 연구 모식도 >
최근 구글에 의해 제안된 연합학습은 새로운 기계학습 기술로, 개인정보의 유출 없이 방대한 사용자 기기 위 데이터를 활용할 수 있게 하여 의료 인공지능 기술 등 새로운 인공지능 서비스를 개발할 수 있게 해 각광받고 있다. 연합학습은 구글을 비롯해 애플, 타오바오 등 세계적 빅테크 기업들이 널리 도입하고 있으나, 실제로는 인공지능 모델 학습이 사용자의 스마트폰 위에서 이뤄져, 기기에 과부하를 일으켜 배터리 소모, 성능 저하 등이 발생할 수 있는 우려를 안고 있다.
이성주 교수 연구팀은 연합학습에 참여하는 사용자 기기 위 데이터 샘플 각각의 학습 기여도 측정을 기반으로 최적의 샘플을 선택함으로써 연합학습 속도 향상을 달성했다. 또한, 샘플 선택으로 줄어든 학습 시간에 대응해, 연합학습 라운드의 데드라인 또한 최적으로 조절하는 기법을 제안해 모델 정확도의 저하 없이 학습 속도를 무려 4.5배 높였다. 이러한 방법론의 적용을 통해 연합학습으로 인한 사용자 스마트폰 과부하 문제를 최소화할 수 있을 것으로 기대된다.
이성주 교수는 "연합학습은 많은 세계적 기업들이 사용하는 중요한 기술이다ˮ며 "이번 연구 결과는 연합학습의 학습 속도를 향상하고 활용도를 높여 의미가 있으며, 컴퓨터 비전, 자연어 처리, 모바일 센서 데이터 등 다양한 응용에서 모두 좋은 성능을 보여, 빠른 파급효과를 기대한다ˮ라고 소감을 밝혔다.
한편 이 연구는 과학기술정보통신부의 재원으로 한국연구재단과 정보통신기술진흥센터의 지원을 받아 수행됐다.
우리 대학 과학기술정책대학원 최문정 교수가 유엔(UN) 산하 국제전기통신연합(ITU, International Telecommunication Union)*에서 주관하는 『AI 포 굿 글로벌 서밋(AI for Good Global Summit)』의 ‘사회적 가치를 위한 혁신(Innovate for Impact)’ 자문위원으로 선임되었다고 8일 밝혔다. *ITU(International Telecommunication Union): 정보통신기술(ICT) 분야에서 가장 오랜 역사를 가진 유엔(UN) 전문기구로, 전 세계 ICT 정책과 표준을 조율하는 핵심 기관이다. 이번 위원회는 인공지능(AI)의 사회적 가치 실현과 지속가능한 발전을 위한 글로벌 협력 방안을 모색하기 위해 구성되었으며, 전 세계 각지의 전문가들이 위원으로 참여한다. 한국인으로는 최문정 교수가 유일하게 이름을 올렸다. AI 포 굿 글로벌 서밋은 7월 8일부터 11일까지 스위스 제네바에서
2025-07-08오픈AI 챗GPT4, 구글 Gemnini 2.5 등 최신 생성형AI 모델들은 높은 메모리 대역폭(Bandwidth) 뿐만 아니라 많은 메모리 용량(Capacity)를 필요로 한다. 마이크로소프트, 구글 등 생성형AI 클라우드 운영 기업들이 엔비디아 GPU를 수십만 장씩 구매하는 이유다. 이런 고성능 AI 인프라 구축의 핵심 난제를 해소할 방안으로, 한국 연구진이 최신 GPU 대비 약 44% 낮은 전력 소모에도 평균 60% 이상 생성형 AI 모델의 추론 성능을 향상할 NPU(신경망처리장치)* 핵심 기술을 개발하는데 성공했다. *NPU(Neural Processing Unit): 인공신경망(Neural Network)을 빠르게 처리하기 위해 만든 AI 전용 반도체 칩 우리 대학 전산학부 박종세 교수 연구팀과 (주)하이퍼엑셀(전기및전자공학부 김주영 교수 창업기업)이 연구 협력을 통해, 챗GPT와 같은 생성형AI 클라우드에 특화된 고성능·저전력의 NPU(신경망처리장치)
2025-07-04우리 대학과 사우디아라비아 킹사우드대학교(King Saud University, 총장 압둘라 알살만)는 7월 3일 서울 도곡캠퍼스에서 회의를 갖고, 인공지능(AI) 및 디지털 플랫폼 구축을 위한 전략적 협력을 추진하기로 했다고 4일 밝혔다. 글로벌 AI 생태계는 사용자나 개발자의 활용이 제한된 미국의 클로즈드(폐쇄형) 모델(OpenAI, Google 등)과 중국의 자국 중심 기술 체계를 중심으로 양분화되는 추세다. 이러한 미·중 양강 구도 속에서, 한국을 비롯한 여러 국가들은 기술적 다양성과 접근성을 보장할 수 있는 제3의 협력 모델 구축 필요성을 꾸준히 제기해 왔다. 이에 대해 이광형 총장은 오픈소스 기반의 국제 협력체 구상을 바탕으로, 기존의 양극적 디지털 질서를 넘어 상호협력·공존하는 AI 신질서인 ‘삼분지계(三分之計)’ 전략을 제안한 바 있다. 이번 KAIST-킹사우드대 협력은 기술적 다양성과 접근성을 확보하기 위한 새로
2025-07-04최근 음성 언어 모델(Spoken Language Model, SLM)은 텍스트 없이 인간의 음성을 학습해 음성의 언어적, 비언어적 정보를 이해 및 생성하는 기술로 텍스트 기반 언어 모델의 한계를 넘어서는 차세대 기술로 각광받고 있다. 하지만 기존 모델은 장시간 콘텐츠 생성이 요구되는 팟캐스트, 오디오북, 음성비서 등에서 한계가 두드러졌는데, 우리 연구진이 이런 한계를 뛰어넘어, 시간 제약 없이 일관되고 자연스러운 음성 생성을 실현한 ‘스피치SSM’을 개발하는데 성공했다. 우리 대학 전기및전자공학부 노용만 교수 연구팀의 박세진 연구원(박사과정)이 장시간 음성 생성이 가능한 음성 언어 모델 ‘스피치SSM(SpeechSSM)’을 개발했다고 3일 밝혔다. 이번 연구는 국제 최고 권위 머신러닝 학회인 ICML(International Conference on Machine Learning) 2025에 전체 제출된 논문 중 약 1%만이 선
2025-07-03원자력 에너지 활용에 있어 방사성 폐기물 관리는 핵심적인 과제 중 하나다. 특히 방사성 ‘아이오딘(요오드)’는 반감기가 길고(I-129의 경우 1,570만 년), 이동성 및 생체 유독성이 높아 환경 및 인체에 심각한 위험을 초래할 수 있다. 한국 연구진이 인공지능을 활용해 아이오딘을 제거할 원자력 환경 정화용 신소재 발굴에 성공했다. 연구팀은 향후 방사성 오염 흡착용 분말부터 오염수 처리 필터까지 다양한 산학협력을 통해 상용화를 추진할 예정이다. 우리 대학 원자력및양자공학과 류호진 교수 연구팀이 한국화학연구원 디지털화학연구센터 노주환 박사가 협력하여, 인공지능을 활용해 방사성 오염 물질이 될 수 있는 아이오딘을 효과적으로 제거하는 신소재를 발굴하는 기술을 개발했다고 2일 밝혔다. 최근 보고에 따르면 방사능 오염 물질인 아이오딘이 수용액 환경에서 아이오딘산염(IO3-) 형태로 존재하는 것으로 밝혀졌으나, 기존의 은 기반 흡착제는 이에 대해 낮은 화학적
2025-07-02