RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      깊은강화학습 기반 1-vs-1 공중전 모델링 및 시뮬레이션 = Modeling and Simulation on One-vs-One Air Combat with Deep Reinforcement Learning

      한글로보기

      https://www.riss.kr/link?id=A106823925

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      인공지능(AI)를 교전상황에 활용하는 것은 최근 10년간 국방 분야의 주요 관심사였다. 이러한 응용을 위해서, AI 교전에이전트를 훈련해야 하며, 이를 위해 현실적인 시뮬레이션이 반드시 필...

      인공지능(AI)를 교전상황에 활용하는 것은 최근 10년간 국방 분야의 주요 관심사였다. 이러한 응용을 위해서, AI 교전에이전트를 훈련해야 하며, 이를 위해 현실적인 시뮬레이션이 반드시 필요하다. 하드웨어 차원의 현실성을 가진 공중 무기체계 공중전 모델에서 AI 에이전트를 학습한 사례에 대해서 본 논문은 서술하고 있다. 특히, 본 논문은 기총만을 활용하는 공중전 상황에서 적을 어떻게 추적해야하는지 AI를 학습하였다. 본 논문은 현실적인 공중전 시뮬레이터를 작성하여, 에이전트의 행동을 강화학습으로 수행한 결과를 제시한다. 훈련 결과로는 Lead 추적을 활용하여 단축된 교전시간과 높은 보상을 갖는 에이전트의 학습에 성공하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      The utilization of artificial intelligence (AI) in the engagement has been a key research topic in the defense field during the last decade. To pursue this utilization, it is imperative to acquire a realistic simulation to train an AI engagement agent...

      The utilization of artificial intelligence (AI) in the engagement has been a key research topic in the defense field during the last decade. To pursue this utilization, it is imperative to acquire a realistic simulation to train an AI engagement agent with a synthetic, but realistic field. This paper is a case study of training an AI agent to operate with a hardware realism in the air-warfare dog-fighting. Particularly, this paper models the pursuit of an opponent in the dog-fighting setting with a gun-only engagement. In this context, the AI agent requires to make a decision on the pursuit style and intensity. We developed a realistic hardware simulator and trained the agent with a reinforcement learning. Our training shows a success resulting in a lead pursuit with a decreased engagement time and a high reward.

      더보기

      참고문헌 (Reference)

      1 이동진, "강화학습을 이용한 무인전투기(UCAV) 근접 공중전" 249-252, 2009

      2 Breton, R., "The C-OODA:A cognitive version of the OODA loop to represent C2 activities" 2005

      3 박현주, "Scoring Function Matrix를 활용한 전투기 3 차원 공중전 기동생성" 442-445, 2015

      4 Ng, A. Y., "Policy invariance under reward transformations:Theory and application to reward shaping" 99 : 278-287, 1999

      5 Sutton R. S., "Policy Gradient Methods for Reinforcement Learning with Function" 2000

      6 Sutton, R. S., "Introduction to reinforcement learning (Vol. 135)" MIT press 1998

      7 Ernest, N., "Genetic fuzzy based artificial intelligence for unmanned combat aerial vehicle control in simulated air combat missions" 6 (6): 2167-0374, 2016

      8 Shaw, R. L., "Fighter Combat" Naval Institute Press 1985

      9 Toghiani-Rizi, B., "Evaluating deep reinforcement learning for computer generated forces in ground combat simulation" IEEE 3433-3438, 2017

      10 박현주, "Differential Game Based Air Combat Maneuver Generation Using Scoring Function Matrix" 한국항공우주학회 17 (17): 204-213, 2016

      1 이동진, "강화학습을 이용한 무인전투기(UCAV) 근접 공중전" 249-252, 2009

      2 Breton, R., "The C-OODA:A cognitive version of the OODA loop to represent C2 activities" 2005

      3 박현주, "Scoring Function Matrix를 활용한 전투기 3 차원 공중전 기동생성" 442-445, 2015

      4 Ng, A. Y., "Policy invariance under reward transformations:Theory and application to reward shaping" 99 : 278-287, 1999

      5 Sutton R. S., "Policy Gradient Methods for Reinforcement Learning with Function" 2000

      6 Sutton, R. S., "Introduction to reinforcement learning (Vol. 135)" MIT press 1998

      7 Ernest, N., "Genetic fuzzy based artificial intelligence for unmanned combat aerial vehicle control in simulated air combat missions" 6 (6): 2167-0374, 2016

      8 Shaw, R. L., "Fighter Combat" Naval Institute Press 1985

      9 Toghiani-Rizi, B., "Evaluating deep reinforcement learning for computer generated forces in ground combat simulation" IEEE 3433-3438, 2017

      10 박현주, "Differential Game Based Air Combat Maneuver Generation Using Scoring Function Matrix" 한국항공우주학회 17 (17): 204-213, 2016

      11 Silver, D., "Deterministic Policy Gradient Algorithms" 32 : 2014

      12 Lillicrap T. P., "Continuous Control with Deep Reinforcement Learning" 2016

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2026 평가예정 재인증평가 신청대상 (재인증)
      2020-01-01 평가 등재학술지 유지 (재인증) KCI등재
      2017-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2013-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2010-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2007-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      2006-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2005-06-22 학술지명변경 외국어명 : 미등록 -> JOURNAL OF THE KOREA SOCIETY FOR SIMULATION KCI등재후보
      2004-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      2004-01-01 평가 등재후보 탈락 (등재후보1차)
      2002-01-01 평가 등재후보 1차 FAIL (등재후보1차) KCI등재후보
      2000-07-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.3 0.3 0.32
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.28 0.25 0.541 0.11
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼