http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
박창현(Changhyun Park),원유집(Youjip Won),박영준(Yongjun Park) 대한전자공학회 2019 전자공학회논문지 Vol.56 No.7
SSD의 예상 수명을 알기 위하여 플래시 기반 저장장치의 쓰기 증폭을 예측하는 여러 분석 모델들이 제안되었다. 본 논문에서 우리는 4가지의 쓰기 증폭 예측 모델을 조사하여 분석하였다. 분석 결과 대부분의 모델들은 SSD 모든 영역을 균일하게 활용하는 워크로드를 가정하여 쓰기 증폭을 예측하였고, 그렇기 때문에 일반적인 작업 부하에서 쓰기 증폭을 예측하는 데는 적용할 수 없음을 알 수 있었다. 본 논문은 추가적으로 각 모델의 장단점을 비교하고, 실제 SSD에서의 쓰기 증폭 측정을 통해 정확도를 검증하였다. 모든 모델들이 균일한 워크로드에서의 예측은 매우 높은 정확도를 나타내었으나, 실제 워크로드에서의 쓰기 증폭은 1.2 미만으로 모델 예측값보다 매우 낮으므로 이를 정확하게 예측하기 위한 후속 연구가 필요하다. Several analytical models have been proposed to estimate the write amplification of flash-based storage devices to obtain the expected lifetime of SSDs. In this study, we analyze four write amplification models. Most models assume uniform workload to predict write amplification, and therefore, they can not be directly applied to predict write amplification in real-world workloads. We also found the strengths and weaknesses of the models, and validate them using real SSD. All models are proven to be accurate in uniform workloads, but the write amplification in real-world workloads is much lower than the model-expected values in real SSD. Therefore, more studies are needed to accurately predict the write amplification.
박재민(Jaemin Park),박영준(Yongjun Park) 대한전자공학회 2023 대한전자공학회 학술대회 Vol.2023 No.11
Although the significant advances in image super-resolution (SR) with convolutional neural networks (CNNs) have led to continuous performance improvement, the state-of-the-art (SOTA) SR models face the challenges conducting in resource-constrained environments due to its complexity. Quantization, one of the neural network optimizations, is used to address these challenges. However, Quantization for the SR model should take its characteristics into 1account. To address this issue, we propose Frequency Aware Multi-Bit Quantization (FAMBQ), which considers the frequency in input image and layers to select adequate bit-width to quantize each layer. Frequency is the basic component in image that helps improve the SR performance, proved in numerous recent works[1-2]. We apply our quantization approach across various widely used super-resolution architectures, including EDSR[3], IMDN[4]. Experiments show that our framework achieve comparable PSNR to full precision original model and SOTA frameworks for low bit-width quantization on four benchmark datasets.