-
- [교수동정] 소프트웨어융합대학 소속 한진영 교수, 과기정통부 ‘디지털 분야 해외석학유치지원’ 사업 선정
- 소프트웨어융합대학 소속 한진영 교수, 과기정통부 ‘디지털 분야 해외석학유치지원’ 사업 선정 - 펜실베니아주립대 샴 선더 교수와 ‘신뢰가능한 인공지능 연구단’ 설립 - 2026년까지 50억원 지원 ▲ 성균관대 한진영 교수(왼쪽)와 펜실베니아주립대 샴 선더 교수(오른쪽) 우리 대학은 과학기술정보통신부(이하 과기정통부)와 정보통신기획평가원이 공고한 ‘디지털 분야 해외석학유치지원’ 사업에 선정되었다. 지원 규모는 2026년까지 총 50억원이다. 올해 새롭게 추진하는 디지털 분야 해외석학유치지원 사업은 해외 석학급 최고급 연구자를 국내 대학에 유치해 공동 연구를 수행하고 이를 통해 국내 고급인재들의 연구 역량 향상을 지원하는 사업이다. 해외석학급 최고급 연구자는 QS세계대학평가 100위권 내 해외 우수대학 또는 글로벌 빅테크 기업 등에서 10년 이상 연구개발(R&D) 경험 및 연구 성과가 있는 박사급 재외한인 및 외국인 연구자를 말한다. 공모를 통해 총 3개 과제가 접수되었으며 연구 추진계획 및 기대효과, 해외석학급 연구자의 역량 및 우수성 등을 종합적으로 평가해 성균관대와 서울대가 최종 선정되었다. 인공지능(AI) 분야에 선정된 성균관대는 ‘신뢰가능한 인공지능 연구단(Pioneer Research Group for Socially Responsible Aritificial Intelligence, 연구책임자: 한진영 교수)’을 제안하였으며, 미국 펜실베니아주립대 ‘인공지능의 사회적 책임 연구소’ 소장인 샴 선더 교수 연구팀과 함께 최근 중요성이 커지고 있는 Socially Responsible AI(사회적으로 책임감 있는 AI) 기술을 연구한다. 스탠포드대가 발표한 ‘세계에서 가장 많이 인용된 과학자 상위 2%’에 4년 연속으로 선정된 바 있는 샴 선더 교수는 우리 대학 석좌교수 및 실감미디어연구센터 소장으로 부임하여 인공지능융합학과 및 실감미디어공학과 학생들을 지도하고 인공지능 윤리 분야에서 국제적으로 선도적 연구 성과를 낼 계획이다. 연구단은 ▲사회과학 측면에서 인공지능 윤리 가이드라인 개발 ▲안전하고 설명가능하며 신뢰성 있는 인공지능 요소 기술 개발 ▲개인정보 보호 및 인공지능 보안 기술 개발 등을 국내외 다학제 전문가들과 함께 진행할 계획이다. 또 국내외 인공지능 분야 전문가가 참여해 인공지능 윤리 연구 분야 성과 및 동향 등을 논의하는 온·오프라인 공개 세미나도 개최한다. 이은석 소프트웨어융합대학장은 “이번 연구단의 출범은 성균관대가 인공지능 분야에서 국제적인 연구 경쟁력을 갖추고 사회적으로 책임감 있는 AI 기술을 선도적으로 개발하는 데 중요한 역할을 할 것”이라며 “특히, 샴 선더 교수와의 협력을 통해 인공지능 윤리 분야 연구 역량이 크게 증진될 것”이라고 밝혔다. 그러면서 “안전하고 신뢰성 있는 AI 기술 개발을 통해 인류와 미래사회에 기여할 수 있는 방안을 모색할 것”이라고 덧붙였다.
-
- 작성일 2024-09-04
- 조회수 443
-
- [일반] 2024 후기 실감미디어공학과 Pre-School 성료
- 지난 8월 28일(수) 신입생 & 재학생 대상 '2024학년도 후기 실감미디어공학과 Pre-School'이 성료되었습니다. 류은석 학과장님과 이경호 교수님, 김진필 교수님, 홍성은 교수님, 이대호 교수님께서 참가해주셨고 많은 신입생, 재학생들이 오프라인으로 참가하였습니다. 실감미디어공학과, 지능형 멀티미디어센터에 대한 소개와 학사제도에 대한 안내와 함께 학과 전임 교수님 특강, 간담회를 통해 많은 이야기를 나눌 수 있는 유익한 시간이었습니다. 앞으로 실감미디어공학과에서 큰 꿈을 펼쳐나갈 신입생들을 환영합니다.
-
- 작성일 2024-08-29
- 조회수 586
-
- [일반] 실감미디어공학과, ‘2024 디지털혁신인재 심포지엄’에 참가. 우수성과발표 정보통신기획평가원장상 수상
- 과학기술정보통신부가 주최하고, 정보통신기획평가원(IITP)과 인공지능대학원협의회가 공동으로 주관하는 '2024 디지털혁신인재 심포지엄'이 지난 8월22~23일 이틀간 서울 중구 대한상공회의소에서 개최되었고, ‘AI’, ‘AI 융합’과 ‘AI 반도체’, ‘Metaverse융합’, ‘Cybersecurity’의 5개 분야 42개 디지털혁신대학원이 최초로 연합하여 '디지털혁신인재, 대한민국의 미래를 이끌다'를 주제로 우수성과 공유·확산과 대학원 간 협력 강화, 학생 진로 탐색의 장을 함께 마련하기 위해 진행되었다. ▲ 실감미디어공학과 대학원 전시부스에 방문하신 유지범총장님 성균관대학교 SW융합대학 실감미디어공학과는 ‘Metaverse융합’대학원 분야로 학과 소개 부스 전시와 ‘우수연구논문 포스터세션’, '디지털혁신인재와의 대화' 그리고, '대학원생의 우수성과 발표회’ 행사에 각각 정종범(실감미디어공학과 연구원/강사, 류은석교수 연구실), 조한나(석사과정), 이종민(박사과정, 이상 이장원교수 연구실)학생이 행사에 참여하였으며, 이종민학생은 ‘대학원생 우수발표 정보통신기획평가원 원장상’을 수상하는 쾌거를 이뤄냈다. ▲ 우수연구논문 포스터세션, 정종범 연구원/강사(실감미디어공학과) 이종민 학생이 발표한 "Motion-aware Heatmap Regression for Human Pose Estimation in Video" 연구는 메타버스 등 실감미디어 분야의 핵심 기술인 인간 자세 추정(Human Pose Estimation) 정확도를 높이는 새로운 방법의 제안으로, 'Motion-Aware Heatmap Regression' 기법을 통해 사람 관절의 움직임 정보로 히트맵을 조정, 비디오에서의 인간 자세 추정 정확도를 크게 향상시켰다. 해당 연구는 인공지능 분야의 최고 권위 학회인 'International Joint Conference on Artificial Intelligence (IJCAI) 2024'에 채택되어 그 우수성을 국제적으로 인정받았다. ▲ 우수석과발표 정보통신기획평가원 원장상 수상, 이종민학생(실감미디어공학과 박사과정) 이종민 학생은 "이번 연구 결과가 메타버스, 원격 화상회의, 홈트레이닝, 가상 피팅 등 다양한 실감미디어 콘텐츠의 성능 향상에 기여할 것"이라며, "송인표 석사과정 학생과의 협력 연구를 통해 의미 있는 성과를 얻을 수 있었다"고 밝혔다. 성균관대는 2023년 메타버스 융합대학원 사업 선정으로 메타버스 분야의 핵심 인재를 양성하고 있으며, 이번 수상을 통해 교육 및 연구 역량을 다시 한 번 입증했다. 이번 성과는 해당 대학원의 지속적인 발전 가능성을 시사하며, 향후 메타버스 기술 발전에 중요한 역할을 할 것으로 기대된다. 한편, 이번 심포지엄에서는 구글, NVIDIA 등 관련 분야 기업의 연구 동향 등에 대한 기조강연이 있었고, LG전자 AI반도체 개발 연구부서 및 한국전자통신연구원(ETRI) 등 디지털혁신인재 대학원생들의 채용 안내도 함께 진행 되어, 미래 혁신인재의 육성과 발전에 많은 도움이 되는 행사로 진행되었다.
-
- 작성일 2024-08-27
- 조회수 500
-
- [일반] 멀티미디어 컴퓨팅 시스템 연구실 (MCSL, 지도교수 : 류은석), 제 147차 MPEG 국제표준화 미팅 참석
- ▲ 표준화 미팅 행사장 앞에서 단체 사진 2024년 7월 14일~19일 성균관대학교 실감미디어공학과 류은석 교수님 및 멀티미디어 컴퓨팅 시스템 연구실 (MCSL) 연구원들은 일본 삿포로에서 개최된 제 147차 MPEG 국제표준화 회의에 참석했습니다. 5박 6일간의 출장 기간 동안 연구원들은 다양한 working group (WG)에서 진행된 여러 표준화 미팅에 참가하였고, 표준화에 대한 이해도와 견문을 넓힐 수 있었습니다. 특히, MCSL은 본 표준화 회의에서 WG04 내 INVR 표준화 그룹에 아래 2건의 기고서를 제출하였습니다. - m68229 (Jaeyeol Choi, Jun-Hyeong Park, Jong-Beom Jeong, Yeong Gyu Kim, Eun-Seok Ryu) [INVR]EE2.2: Compression of 4D Gaussian Splatting based on Video Codec and Gaussian Pruning - m68240 (Jong-Beom Jeong, Jun-Hyeong Park, Jaeyeol Choi, Yeong Gyu Kim, Eun-Seok Ryu) Report on EE3: Thoughts on MIV DSDE Anchor Generation m68229은 3D Gaussian Splatting 기반 동적 공간 표현 방법인 4D Gaussian Splatting 모델에 대해 동영상 코덱 및 가우시안 prunning 을 적용하여 압축하는 기법을 제안한 기고서이며, m68240의 경우에는 INVR의 anchor로 사용되는 MIV 의 실험 조건에 대한 실험 결과 및 논의 사항을 담은 기고서입니다. ▲ 최재열 학생의 발표 모습 ▲ 정종범 학생의 표준화 회의 참여 모습 연구원들은 준비한 기고서를 발표하는 것에 그치지 않고 적극적으로 회의 중 발언하였으며 다른 기관의 발표에 대해 경청을 하고 표준화 방향에 대해서도 논의하였습니다. 위 사진들은 MCSL 학생들이 INVR AHG 및 BOG 회의에 참여하여 발표 및 발언하는 모습입니다. ▲ 홀로그램 표현기술 시연 관람 WG04 Plenary에 참여하여 LCEVC, LVC, FCM 등 다른 비디오 표준화 과정이 어떻게 진행되는지 동향을 파악했으며, MIV BoG에 참석하여 6자유도 영상 표준인 MIV의 연구 방향을 follow up할 수 있는 기회를 가졌습니다. 뿐만 아니라 WG07 회의와의 Joint Meeting에도 참석하여 3DGS를 통한 공간/객체 표현 기법이 WG07과 협업을 통해 구체화 되고 있는 현황을 파악하고 MCSL 자체의 대응 방안을 모색했습니다. ▲ MPEG & JVET 표준화 회의가 개최된 삿포로 컨벤션 센터 전경 회의 일과가 끝난 후 쉬는 시간에는 시내를 둘러보며 다양한 볼거리를 즐겼고, 맛있는 식사도 하며 즐거운 시간을 보냈습니다. 국제 표준화에 대한 전문적인 지식을 배울 수 있는 좋은 기회였습니다. MCSL에서는 이후에도 내실을 다진 후 적극적으로 국제 표준화 활동에 참여할 계획입니다.
-
- 작성일 2024-07-22
- 조회수 545
-
- [연구] I2SLAB 송인표 석사 (지도교수: 이장원), IROS 2024 논문 채택
- I2SLAB (지도교수: 이장원)의 송인표 (실감미디어공학과) 학생이 연구한 논문 “SFTrack: A Robust Scale and Motion Adaptive Algorithm for Tracking Small and Fast Moving Objects” 이 ICRA와 더불어 Robotics 분야에서 세계적 권위를 자랑하는 양대 국제학술대회인 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) 2024 에 게재 승인되어 10월에 발표될 예정입니다. 본 논문에서 이장원 교수 연구팀은 UAV 영상에서의 빠른 움직임과 고고도 및 광각뷰로 인해 객체가 불명확하게 나타나는 문제를 해결할 수 있는 새로운 다중 객체 추적 알고리즘을 제안하였습니다. 논문의 자세한 내용은 다음과 같습니다. [논문] Inpyo Song and Jangwon Lee, “SFTrack: A Robust Scale and Motion Adaptive Algorithm for Tracking Small and Fast Moving Objects,“ IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2024), Oct. 2024. [Abstract] This paper addresses the problem of multi-object tracking in Unmanned Aerial Vehicle (UAV) footage. It plays a critical role in various UAV applications, including traffic monitoring systems and real-time suspect tracking by the police. However, this task is highly challenging due to the fast motion of UAVs, as well as the small size of target objects in the videos caused by the high-altitude and wide-angle views of drones. In this study, we thus introduce a refined method to overcome these challenges. Our approach involves a new tracking strategy, which initiates the tracking of target objects from low-confidence detections commonly encountered in UAV application scenarios. Additionally, we propose revisiting traditional appearance-based matching algorithms to improve the association of low-confidence detections. To evaluate the effectiveness of our method, we conducted benchmark evaluations on two UAV-specific datasets (VisDrone2019, UAVDT) and a general dataset (MOT17). The results demonstrate that our approach surpasses current state-of-the-art methodologies, highlighting its robustness and adaptability in diverse tracking environments. Furthermore, we have improved the annotation of the UAVDT dataset by rectifying several errors and addressing omissions found in the original annotations. We will provide this refined version of the dataset to facilitate better benchmarking in the field.
-
- 작성일 2024-07-19
- 조회수 632
-
- [학생실적] MCSLab 석사과정 박준형 학생(지도교수 : 류은석), 한국방송·미디어공학회 하계학술대회에서 최우수 논문상 수상
- 2024년 6월 25-28일 개최된 한국방송·미디어공학회 하계학술대회에서 멀티미디어컴퓨팅시스템연구실(지도교수 류은석)의 박준형 석사과정 학생이 최우수논문상을 수상하였습니다. 시상식은 2022년 12월 7일 한국과학기술회관 아이리스홀에서 진행되었습니다. 이번 하계학술대회에서는 총 231개의 논문이 발표되었고, 총 401명이 참가하였습니다. 박준형 학생은 정종범, 최재열, 김영규 학생과 함께 6DoF 영상 합성을 위한 고품질의 다시점 깊이 정보를 생성하기 위해 Transformer 기반의 단안 시점 깊이 정보 생성 모델을 활용해 MPEG Immersive Video (MIV) decoder-side depth estimation (DSDE) 프로파일에 채택된 Imersive video depth estimation (IVDE) 방식으로 생성된 다시점 깊이 정보의 품질을 향상 시키는 기법에 대해 논문 작성 및 발표를 진행하였습니다. (논문 제목: Depth Prediction Transformer 모델을 활용한 다시점 실사 데이터의 고품질 깊이 정보 생성 기법)
-
- 작성일 2024-07-12
- 조회수 541
-
- [교수동정] 소프트웨어융합대학 이지형, 박은일 교수, 대학ICT연구센터사업 선정
- ▲ 2024학년도 대학ICT연구센터(ITRC) 사업에 선정된 이지형 교수(왼쪽)과 박은일 교수(오른쪽) 과학기술정보통신부의 2024학년도 대학ICT연구센터(ITRC) 사업에 이지형 교수와 박은일 교수의 연구가 각각 선정돼 앞으로 8년간 과제별 75억 원씩 총 150억 원의 연구비를 지원받는다. 이지형 교수는 인공지능(AI) 분야에, 박은일 교수는 사회문제해결 분야에 선정되었다. 사회문제해결 분야에 선정된 박은일 교수 연구팀의 ‘D2 연구센터’는 딥페이크의 생성, 탐지, 추적을 위한 시스템을 개발할 예정이다. 아울러 해당 기술의 안전성, 공정성 기반의 감사 프레임워크와 다양한 도메인 유형에도 강건한 탐지 모델 추론을 혁신도약 과제로 설정하여 사회/산업적으로 반드시 필요한 연구개발 결과물을 도출할 예정이다. 이 연구에는 8년간 약 400명의 석박사급 인력이 참여하여 연구를 수행한다. 박은일 교수는 “AI 발전과 함께 역기능에 대한 우려와 대응이 절실한 상황에서 딥페이크와 가짜 뉴스에 대한 생성, 탐지, 추적을 위한 인공지능 기반 기술이 연구, 개발될 예정이고, 이러한 기술을 공공과 민간을 위한 서비스를 제공하여, 안전하고 신뢰성 높은 AI 사용과 관련 전문 인력 양성 및 배출에 기여할 수 있을 것으로 기대된다”고 말했다.
-
- 작성일 2024-07-08
- 조회수 142
-
- [연구] MCSLab.(지도교수 : 류은석) , JCR 2023기준 상위 8% 논문 개제 성과
- MCSLab (지도교수 : 류은석)의 정종범, 이순빈 학생들이 연구한 논문 " DATRA-MIV: Decoder-Adaptive Tiling and Rate Allocation for MPEG Immersive Video " 을 제출한 ACM TOMM이 JCR 2023 기준 상위 8% 논문 개제 성과를 이뤘습니다. 본 논문에서 류은석 교수 연구팀은 MIV 인코더를 활용하여 VR 같은 입체 장치에 사용할 수 있는 인코딩을 제안합니다. 논문의 자세한 내용은 다음과 같습니다. [논문] DATRA-MIV: Decoder-Adaptive Tiling and Rate Allocation for MPEG Immersive Video [Abstract] The emerging immersive video coding standard moving picture experts group (MPEG) immersive video (MIV), which is ongoing standardization by MPEG-Immersive (MPEG-I) group, enables six degrees of freedom in a virtual reality environment that represents both natural and computer-generated scenes using multi-view video compression. The MIV eliminates the redundancy between multi-view videos and merges the residuals into multiple pictures, called an atlas. Thus, bitstreams with encoded atlases are generated and corresponding number of decoders are needed, which is challenging for the lightweight device with a single decoder. This article proposes a decoder-adaptive tiling and rate allocation method for MIV to overcome the challenge. First, the proposed method divides atlases into subpictures considering two aspects: (i) subpicture bitstream extracting and merging into one bitstream to use a single decoder and (ii) separation of each source view from the atlases for rate allocation. Second, the atlases are encoded by versatile video coding (VVC), using an extractable subpicture to divide the atlases into subpictures. Third, each subpicture bitstream is extracted, and asymmetric quality allocation for each subpictures is conducted by considering the residuals in the subpicture. Fourth, mixed-quality subpictures were merged by using the proposed bitstream merger. Fifth, the merged bitstream is decoded by using a single decoder. Finally, the viewing area of the user is synthesized by using the reconstructed atlases. Experimental results with the VVC test model (VTM) show that the proposed method achieves a 21.37% Bjøntegaard delta rate saving for immersive video peak signal-to-noise ratio and a 26.76% decoding runtime saving compared to the VTM anchor configuration. Moreover, it supports bitstreams for multiple decoders and single decoder without re-encoding, transcoding, or a substantial increase of the server-side storage.
-
- 작성일 2024-06-25
- 조회수 780
-
- 실감미디어공학과 FUN DAY - "PIZZA DAY"
- 봄날의 햇볕이 따스했던 지난 5월 13일, 인사캠 금잔디 광장 옆 야외무대에서 실감미디어공학과 PIZZA DAY를 진행하였습니다. 이번에 2번째로 실시된 PIZZA DAY에서 진행 중인 STAYING HEALTHY MONTH CHALLENGE의 중간 결과를 발표하며, "건강히 연구하자"는 메시지와 걷기에 동참할 것을 독려하였습니다. 참여 교수진과 재학생들이 모두 모여 피자를 나눠먹으며 친목과 유대감을 다지고, 교류를 통해 연구성과를 증진시킬 수 있는 귀중한 시간이었습니다. 실감미디어공학과에서는 매월 첫 번째 월요일에 PIZZA DAY를 개최하며, 6월 3일에 다음 PIZZA DAY가 개최될 예정입니다.
-
- 작성일 2024-05-20
- 조회수 1114