http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
기와의 와당에 인공신경망 적용을 통한 인공지능의 문화재 복구 가능성에 대한 연구
김준오(JunO Kim),이병권(Byong-Kwon Lee) 한국컴퓨터정보학회 2021 韓國컴퓨터情報學會論文誌 Vol.26 No.1
역사적 지역에서 발굴되는 문화재는 시대적 배경을 바탕으로 고유의 특징을 가지고 있으며, 역사와 전파 지역의 흐름에 따라 그 문양과 특징이 조금씩 변화하는 것을 볼 수 있다. 어떤 지역에서 발굴된 문화재는 그 당시의 문화를 대표하며 온전한 모습을 유지하는 것도 있지만, 대부분이 파손/손실되거나 일부분으로 나누어져 그 구성을 연구하고 파손된 부분을 복구하기 위해 많은 전문가가 동원된다. 이 연구의 목적은 이러한 복원연구에 인공지능 신경망을 통해 과거의 문양과 패턴들을 학습시키고, 출토된 문화재에서 손실된 부분을 복원시키는 데 있으며, 문화재를 복원하기 위해 기본적인 생성적 적대 신경망인 GAN(Generative Adversarial Network)[1]을 사용한다. 연구에서는 GAN을 기반으로 출토된 문화재 일부를 기반으로 하여 손상/손실된 나머지 부분을 복구한 연구 과정으로, 학습에 기반이 되는 온전한 문화재의 이미지로 훈련을 하고, 일부를 마음대로 손상해 복구할 수 있도록 했다. 연구는 문화재 복구에 있어, 시대적 특징을 어느 정도 복구하는지, 색상과 재질을 복구하는지에 중점을 두고 있다. 마지막으로는 실제 출토된 비슷한 문화재를 기반으로 훈련된 신경망을 사용하여 문양을 복구함으로써 인공신경망의 적용 범위를 연구한다. Cultural assets excavated in historical areas have their own characteristics based on the background of the times, and it can be seen that their patterns and characteristics change little by little according to the history and the flow of the spreading area. Cultural properties excavated in some areas represent the culture of the time and some maintain their intact appearance, but most of them are damaged/lost or divided into parts, and many experts are mobilized to research the composition and repair the damaged parts. The purpose of this research is to learn patterns and characteristics of the past through artificial intelligence neural networks for such restoration research, and to restore the lost parts of the excavated cultural assets based on Generative Adversarial Network(GAN)[1]. The research is a process in which the rest of the damaged/lost parts are restored based on some of the cultural assets excavated based on the GAN. To recover some parts of dammed of cultural asset, through training with the 2D image of a complete cultural asset. This research is focused on how much recovered not only damaged parts but also reproduce colors and materials. Finally, through adopted this trained neural network to real damaged cultural, confirmed area of recovered area and limitation.
천득염,김준오,Cheon, Deuk-Youm,Kim, Juno 한국건축역사학회 2012 건축역사연구 Vol.21 No.6
The typical form of Indian Stupa, which is going to understood the gradual development and various forms at the Kushan-era Stupa. Buddhist art and architecture of the Kushan-era was influenced Gandharan Hellenistic culture of the foreign. And indigenous Indian cultures of mature was visually big change. The Kushan-era Stupa has been ten feature. First, a circular podium at typical form of the initial Stupa was constantly changed. Second, is the Stupa of the overlaps and increase podium. Third, the Stupa has been square podium. Forth, is down scale of Anda(Bokbal). Fifth, increases the Stupa and Railing smaller, and Change the position of the Torana(gateway). Sixth, changing the target of the faith, thereby a statue of Buddha has been added in the Stupa. Seventh, around the main Stupa and podium are made in a tabernacle. Eighth, the developed spokes structure was added to on the podium inside. Ninth, crosswise plan appears unlike general Stupa. This type has relevance with Tower Stupa. Tenth, the Votive Stupa was added to the temples and Apse type chaitya has been developed.
주하람(Haram Joo),김준오(Juno Kim),이상완(Sang Wan Lee) 한국지능시스템학회 2018 한국지능시스템학회논문지 Vol.28 No.5
본 논문은 상태천이에 불확실성이 있는 동적 환경에서도 안정적인 학습이 가능한 model-based 강화학습 전략을 제안한다. 기존의 강화학습 알고리즘은 보상의 기대치 최대화에 초점을 둔 model-free 방식으로 환경의 불확실성을 경험적으로 습득하므로 적응 속도가 느리다. 이에 비해 환경 모델을 학습하는 model- based 방식은 아직 경험하지 못한 상황에 대한 시뮬레이션 결과를 보상의 기대치 학습에 적용함으로써 환경변화에 빠른 적응이 가능하다. 본 연구에서는 환경의 상태천이에 대한 확률 모델을 온라인 학습하고, 학습된 모델을 이용하여 확률적으로 시나리오를 시뮬레이션하며, 이를 바탕으로 보상의 기대치를 최대화하는 전략을 찾아내는 model-based 강화학습 방식을 구현하였다. OpenAI의 FrozenLake 시뮬레이터를 이용하여 불확실성을 내포한 동적 환경을 구현하였으며, 제안한 모델과 기존 방법의 성능을 다양한 측면에서 비교하였다. 제안된 모델은 상태천이의 불확실성과 환경변화의 불안정성이 모두 존재하는 극한 상황 속에서도 변화에 강인한 전략 탐색의 기틀을 제공한다. This paper proposes a model-based reinforcement learning strategy that enables stable learning even in a dynamic environment containing state transition uncertainty. The existing reinforcement learning algorithm is a model-free method that focuses on maximizing the expectation of the reward, and the adaptation speed is slow because it empirically learns the uncertainty of the environment. In contrast, the model-based method that learns the environmental model can adapt quickly to changes in the environment by applying the simulation results to the expectation reward. In this paper, we propose a model-based reinforcement learning method that finds a strategy that maximizes the expectation of reward based on the on-line learning of the probability transition model of the environment, simulates the scenario probabilistically using the learned model. We implemented the dynamic environment containing uncertainty using FrozenLake simulator of OpenAI and compared the performance of the proposed model with the existing method in various aspects. The proposed model provides a framework for strategy exploration even in extreme situations where both uncertainty of state transition and instability of environmental change exist.