성균관대학교 정보통신대학, DATE 2025 학회에서 국내 최다 논문 발표
- ice
- 조회수996
- 2025-04-11
성균관대학교 정보통신대학의 고종환, 김율화, 박정우, 이윤명, 홍석인 교수 연구팀은 반도체 설계 자동화 분야 세계 최고 권위의 국제학술대회인 Design, Automation and Test in Europe (DATE) 2025에서 총 10편의 논문을 발표했다. 이는 전 세계 대학 중 여덟 번째로 많은 수이며, 국내 대학 중에서는 가장 많은 논문을 발표한 기록으로, 성균관대학교의 글로벌 반도체 설계 분야에서의 선도적 연구 역량을 보여준다.
이번 성과는 각 교수 연구팀의 지속적인 연구개발 노력과 글로벌 협업의 결실이며, 특히 정보통신대학이 추진해온 반도체 설계 및 인공지능 시스템 분야의 전략적 집중이 효과를 거두고 있음을 보여준다. 발표된 논문들은 인메모리컴퓨팅, 메모리 시스템, AI 가속기 등 최첨단 주제를 다루며 학계와 산업계의 주목을 받았다.
인메모리 컴퓨팅
논문 1
(주제) 메모리 효율적인 Hyper-dimensional computing 기법 제안
(논문명) MEMHD: Memory-Efficient Multi-Centroid Hyperdimensional Computing for Fully-Utilized In-Memory Computing Architectures
(저자) Do Yeong Kang, Yeong Hwan Oh, Chanwook Hwang, Jinhee Kim, Kang Eun Jeon, Jong Hwan Ko
논문 2
(주제) 인메모리 컴퓨팅을 위한 Weight과 Partial Sum의 Column-wise Quantization 기법 제안
(논문명) Column-wise Quantization of Weights and Partial Sums for Accurate and Efficient Compute-In-Memory Accelerators
(저자) Jiyoon Kim, Kang Eun Jeon, Yulhwa Kim and Jong Hwan Ko
논문 3
(주제) 효율적인 인메모리 컴퓨팅을 위한 Low-rank 기반 딥러닝 모델 압축기법 제안
(논문명) Low Rank Compression for IMC Arrays
(저자) Kang Eun Jeon, Johnny Rhe, Jong Hwan Ko
논문 4
(주제) hybrid IGZO/Si eDRAM 기반 인메모리 컴퓨팅용 메모리 어레이 제안
(논문명) Compute-in-Memory Array Design using Stacked Hybrid IGZO/Si eDRAM cells
(저자) Munhyeon Kim, Yulhwa Kim, Jae-Joon Kim
메모리 시스템
논문 5
(주제) DRAM 캐시에서 효율적인 주소 변환을 위한 PTE 관리 기법 제안
(논문명) Improving Address Translation in Tagless DRAM Cache by Caching PTE Pages
(저자) Osang Kwon, Yongho Lee, Seokin Hong
논문 6
(주제) CXL 메모리시스템 기반 저비용, 고효율 데이터 신뢰성 향상 기법 제안
(논문명) Buddy ECC: Making Cache Mostly Clean in CXL-based Memory Systems for Enhanced Error Correction at Low Cost
(저자) Yongho Lee, Junbum Park, Osang Kwon, Sungbin Jang, Seokin Hong
논문 7
(주제) 추측적 프로토콜 우회를 통한 저지연 CXL 메모리 구현 방안 제안
(논문명) SPB: Towards Low-Latency CXL Memory via Speculative Protocol Bypassing
(저자) Junbum Park, Yongho Lee, Sungbin Jang, Wonyoung Lee, Seokin Hong
논문 8
(주제) MRAM에서 공정 변이에 내성을 강화할 수 있는 효율적인 reference 탐색 기법 제안
(논문명) An Efficient On-Chip Reference Search and Optimization Algorithms for Variation-Tolerant STT-MRAM Read
(저자) Kiho Chung, Youjin Choi, Donguk Seo, Yoonmyung Lee
AI 가속기
논문 9
(주제) Vision Transformer에서 효율적인 Self-Attention 연산 방법과 아키텍처 제안
(논문명) Zebra: Leveraging Diagonal Attention Pattern for Vision Transformer Accelerator
(저자) Sukhyun Han, Seongwook Kim, Gwangeun Byeon, Jihun Yoon, Seokin Hong
논문 10
(주제) 거대언어모델 양자화 지원을 위한 재구성형 부동소수점-정수 연산기 제안
(논문명) RGHT-Q: Reconfigurable GEMM Unit for Heterogeneous-Homogeneous Tensor Quantization
(저자) Seungho Lee, Donghyun Nam, and Jeongwoo Park
- 다음글
- 다음글이 없습니다.