RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        순회 판매원 문제에서 개미 군락 시스템을 이용한 효율적인 경로 탐색

        홍석미(SeokMi Hong),이영아(young ah Lee),정태충(Tae Choong Chung) 한국정보과학회 2003 정보과학회논문지 : 소프트웨어 및 응용 Vol.30 No.9·10

        조합 최적화 문제인 순회 판매원 문제(Traveling Salesman Problem, TSP)를 유전자 알고리즘(Genetic Algorithm)과 Local Search Heuristic인 Lin-Kernighan(LK) Heuristic[1]을 이용하여 접근하는 것은 최적 해를 구하기 위해 널리 알려진 방법이다. 본 논문에서는 TSP 문제를 해결하기 위한 또 다른 접근법으로 ACS(Ant Colony System) 알고리즘을 소개하고 새로운 페로몬 갱신 방법을 제시하고자 한다. ACS 알고리즘은 다수의 개미들이 경로를 만들어 가는 과정에서 각 에지상의 페로몬 정보를 이용하며, 이러한 반복적인 경로 생성 과정을 통해 최적 해를 발견하는 방법이다. ACS 기법의 전역 갱신 단계에서는 생성된 모든 경로들 중 전역 최적 경로에 속한 에지들에 대하여 페로몬을 갱신한다. 그러나 본 논문에서는 전역 갱신 규칙이 적용되기 전에 생성된 모든 에지에 대하여 페로몬을 한번 더 갱신한다. 이 때 페로몬 갱신을 위해 각 에지들의 발생 빈도수를 이용한다. 개미들이 생성한 전체 에지들의 발생 빈도수를 페로몬 정보에 대한 가중치(weight)로 부여함으로써 각 에지들에 대하여 통계적 수치를 페로몬 정보로 제공할 수 있었다. 또한 기존의 ACS 알고리즘보다 더 빠른 속도로 최적 해를 찾아내며 더 많은 에지들이 다음 번 탐색에 활용될 수 있게 함으로써 지역 최적화에 빠지는 것을 방지할 수 있다. Traveling Salesman Problem( TSP ) is a combinational optimization problem, Genetic Algorithm(GA) and Lin-Kernighan(LK) Heuristic[1] that is Local Search Heuristic are one of the most commonly used methods to resolve TSP. In this paper, we introduce ACS(Ant Colony System) Algorithm as another approach to solve TSP and propose a new pheromone updating method. ACS uses pheromone information between cities in the process where many ants make a tour, and is a method to find a optimal solution through recursive tour creation process. At the stage of Global Updating of ACS method, it updates pheromone of edges belonging to global best tour of created all edge. But we perform once more pheromone update about created all edges before global updating rule of original ACS is applied. At this process, we use the frequency of occurrence of each edges to update pheromone. We could offer stochastic value by pheromone about each edges, giving all edges' occurrence frequency as weight about pheromone. This finds an optimal solution faster than existing ACS algorithm and prevent a local optima using more edges in next time search.

      • KCI등재

        혼합형 기계 학습 모델을 이용한 프로야구 승패 예측 시스템

        홍석미(SeokMi Hong),정경숙(KyungSook Jung),정태충(TaeChoong Chung) 한국정보과학회 2003 정보과학회 컴퓨팅의 실제 논문지 Vol.9 No.6

        야구는 매 경기마다 다양한 기록을 생성하며, 이러한 기록을 기반으로 다음 경기에 대한 승패 예측이 이루어진다. 프로야구 승패 예측에 대한 연구는 많은 사람들에 의해 행해져 왔으나 아직 이렇다할 결과를 얻지 못하고 있는 상태이다. 이처럼 승패 예측이 어려운 이유는 많은 경기 기록들 중 승패 예측에 영향을 주는 요소의 선별이 어렵고, 예측에 사용된 자료들 간의 중복 요인으로 인해 학습 모델의 복잡도만 증가시킬 뿐 좋은 성능을 보이지 못하고 있다. 이에 본 논문에서는 전문가들의 의견을 바탕으로 학습 요소들을 선택하고, 선택된 자료들을 이용하여 휴리스틱 함수를 구성하였다. 요소들 간의 조합을 통해 예측에 영향을 줄 수 있는 새로운 값을 산출함과 동시에 학습 알고리즘에 사용될 입력 값의 차원을 줄일 수 있는 혼합형 모델을 제안하였다. 그 결과, 학습 알고리즘으로 사용된 역전파 알고리즘의 복잡도를 감소시키고, 프로야구 경기 승패 예측에 있어서도 정확성이 향상되었다. Every baseball game generates various records and on the basis of those records, win/lose prediction about the next game is carried out. Researches on win/lose predictions of professional baseball games have been carried out, but there are not so good results yet. Win/lose prediction is very difficult because the choice of features on win/lose predictions among many records is difficult and because the complexity of a learning model is increased due to overlapping factors among the data used in prediction. In this paper, learning features were chosen by opinions of baseball experts and a heuristic function was formed using the chosen features. We propose a hybrid model by creating a new value which can affect predictions by combining multiple features, and thus reducing a dimension of input value which will be used for backpropagation learning algorithm. As the experimental results show, the complexity of backpropagation was reduced and the accuracy of win/lose predictions on professional baseball games was improved.

      • KCI등재

        스마트로 모바일 애플리케이션을 이용한 컨테이너터미널 게이트의 운영 효율 분석

        홍석미(SeokMi Hong),홍동희(Dong-Hee Hong) 한국정보기술학회 2013 한국정보기술학회논문지 Vol.11 No.12

        SmartLo, made in February 2012, is an mobile application service for information exchange between container terminals and container trailer drivers. SmartLo service was developed to operate container terminal gates economically. This study analyzed operation efficiency to have an effect on container terminal gate operation by SmartLo mobile application through CJ KBCT. The result of the analysis was proved that terminal operation efficiency was increased by swift gate operation, fuel-price of truck owners was decreased and carbon emission quantity was also decreased in protecting the environment when trailer drivers used SmartLo mobile application.

      • 함수근사와 규칙추출을 위한 크러스터링을 이용한 강화학습

        이영아(YoungAh Lee),홍석미(SeokMi Hong),정태충(TaeChoong Chung) 한국정보과학회 2003 정보과학회논문지 : 소프트웨어 및 응용 Vol.30 No.11·12

        강화학습의 대표적인 알고리즘인 Q-Learning은 상태공간의 모든 상대-행동 쌍(state-action pairs)의 평가값이 수렴할 때까지 반복해서 경험하여 최적의 전략(policy)을 얻는다. 상태공간을 구성하는 요소(feature)들이 많거나 요소의 데이타 형태가 연속형(continuous)인 경우, 상태공간은 지수적으로 증가 하게 되어, 모든 상태들을 반복해서 경험해야 하고 모든 상태-행동 쌍의 Q값을 저장하는 것은 시간과 메모리에 있어서 어려운 문제이다. 본 논문에서는 온라인으로 학습을 진행하면서 비슷한 상황의 상태들을 클러스터링(clustering)하고 새로운 경험에 적용해서 클러스터(cluster)의 수정(update)을 반복하여, 분류된 최적의 전략(policy)을 얻는 새로운 함수근사 (function approximation) 방법인 Q-Map을 소개한다. 클러스터링으로 인해 정교한 제어가 필요한 상태(state)는 규칙(rule)으로 추출하여 보완하였다. 미로환경과 마운틴 카 문제를 제안한 Q-Map으로 실험한 결과 분류된 지식을 얻을 수 있었으며 가시화된(explicit) 지식의 형태인 규칙(rule)으로도 쉽게 변환할 수 있었다. Q-Learning, a representative algorithm of reinforcement learning, experiences repeatedly until estimation values about all state-action pairs of state space converge and achieve optimal policies. When the state space is high dimensional or continuous complex reinforcement learning tasks involve very large state space and suffer from storing all individual state values in a single table. We introduce Q-Map that is new function approximation method to get classified policies. As an agent learns on-line, Q-Map groups states of similar situations and adapts to new experiences repeatedly State-action pairs necessary for fine control are treated in the form of rule. As a result of experiment in maze environment and mountain car problem, we can achieve classified knowledge and extract easily rules from Q-Map

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼