RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      LVLN: 시각-언어 이동을 위한 랜드마크 기반의 심층 신경망 모델 = LVLN: A Landmark-Based Deep Neural Network Model for Vision-and-Language Navigation

      한글로보기

      https://www.riss.kr/link?id=A106369872

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      In this paper, we propose a novel deep neural network model for Vision-and-Language Navigation (VLN) named LVLN (Landmark- based VLN). In addition to both visual features extracted from input images and linguistic features extracted from the natural l...

      In this paper, we propose a novel deep neural network model for Vision-and-Language Navigation (VLN) named LVLN (Landmark- based VLN). In addition to both visual features extracted from input images and linguistic features extracted from the natural language instructions, this model makes use of information about places and landmark objects detected from images. The model also applies a context-based attention mechanism in order to associate each entity mentioned in the instruction, the corresponding region of interest (ROI) in the image, and the corresponding place and landmark object detected from the image with each other. Moreover, in order to improve the success rate of arriving the target goal, the model adopts a progress monitor module for checking substantial approach to the target goal. Conducting experiments with the Matterport3D simulator and the Room-to-Room (R2R) benchmark dataset, we demonstrate high performance of the proposed model.

      더보기

      국문 초록 (Abstract)

      본 논문에서는 시각-언어 이동 문제를 위한 새로운 심층 신경망 모델인 LVLN을 제안한다. LVLN 모델에서는 자연어 지시의 언어적 특징과 입력 영상 전체의 시각적 특징들 외에, 자연어 지시에...

      본 논문에서는 시각-언어 이동 문제를 위한 새로운 심층 신경망 모델인 LVLN을 제안한다. LVLN 모델에서는 자연어 지시의 언어적 특징과 입력 영상 전체의 시각적 특징들 외에, 자연어 지시에서 언급하는 주요 장소와 랜드마크 물체들을 입력 영상에서 탐지해내고 이 정보들을 추가적으로 이용한다. 또한 이 모델은 자연어 지시 내 각 개체와 영상 내 각 관심 영역, 그리고 영상에서 탐지된 개별 물체 및 장소 간의 서로 연관성을 높일 수 있도록 맥락 정보 기반의 주의 집중 메커니즘을 이용한다. 그뿐만 아니라, LVLN 모델은 에이전트의 목표 도달 성공율을 향상시키기 위해, 목표를 향한 실질적인 접근을 점검할 수 있는 진척 점검기 모듈도 포함하고 있다. Matterport3D 시뮬레이터와 Room-to-Room (R2R) 벤치마크 데이터 집합을 이용한 다양한 실험들을 통해, 본 논문에서 제안하는 LVLN 모델의 높은 성능을 확인할 수 있었다.

      더보기

      참고문헌 (Reference)

      1 J. Redmon, "You Only Look Once: Unified, Real-Time Object Detection" 2016

      2 J. Redmon, "YOLOv3: An Incremental Improvement"

      3 J. Redmon, "YOLO9000: Better, Faster, Stronger" 2017

      4 A. Das, "Visual Dialog" 2017

      5 P. Anderson, "Vision-and-Language Navigation: Interpreting Visually-grounded Navigation Instructions in Real Environments" 2018

      6 K. Simonyan, "Very Deep Convolutional Networks for Large-Scale Image Recognition" 2015

      7 A. Agrawal, "VQA: Visual Question Answering" 2425-2433, 2015

      8 C. Ma, "The Regretful Agent:Heuristic-Aided Navigation through Progress Estimation" 2019

      9 L. Ke, "Tactical Rewind: Self-Correction via Backtracking in Vision-and-Language Navigation" 2019

      10 W. Liu, "Ssd: Single Shot Multibox Detector" Springer 21-37, 2016

      1 J. Redmon, "You Only Look Once: Unified, Real-Time Object Detection" 2016

      2 J. Redmon, "YOLOv3: An Incremental Improvement"

      3 J. Redmon, "YOLO9000: Better, Faster, Stronger" 2017

      4 A. Das, "Visual Dialog" 2017

      5 P. Anderson, "Vision-and-Language Navigation: Interpreting Visually-grounded Navigation Instructions in Real Environments" 2018

      6 K. Simonyan, "Very Deep Convolutional Networks for Large-Scale Image Recognition" 2015

      7 A. Agrawal, "VQA: Visual Question Answering" 2425-2433, 2015

      8 C. Ma, "The Regretful Agent:Heuristic-Aided Navigation through Progress Estimation" 2019

      9 L. Ke, "Tactical Rewind: Self-Correction via Backtracking in Vision-and-Language Navigation" 2019

      10 W. Liu, "Ssd: Single Shot Multibox Detector" Springer 21-37, 2016

      11 D. Fried, "Speaker-Follower Models for Vision-and-Language Navigation" 28 : 2018

      12 C. Ma, "Self-Monitoring Navigation Agent via Auxiliary Progress Estimation" 2019

      13 R. Grishick, "Rich Feature Hierarchies for Accurate Oobject Detection and Semantic Segmentation" 2014

      14 X. Wang, "Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vision-Language Navigation" 2019

      15 B. Zhou, "Places: A 10million Image Database for Scene Recognition" 40 : 1452-1464, 2017

      16 T.-Y. Lin, "Microsoft COCO: Common Objects in Context" 13 : 740-755, 2014

      17 A. Chang, "Matterport3D:Learning from RGB-D Data in Indoor Environments" 5 : 2017

      18 K. He, "Mask R-CNN" 2017

      19 X. Wang, "Look Before You Leap: Bridging Model-Free and Model-Based Reinforcement Learning for Planned-Ahead Vision-and-Language Navigation" 696-711, 2018

      20 N. Silberman, "Indoor Segmentation and Support Inference from RGBD Images" 746-760, 2012

      21 J. Deng, "ImageNet:A Large-Scale Hierarchical Image Database" 2009

      22 D. Gordon, "IQA:Visual Question Answering in Interactive Environments" 2018

      23 C. Szegedy, "Going Deeper with Convolutions" 1-9, 2015

      24 S. Ren, "Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks" 2015

      25 R. Girshick, "Fast R-CNN" 2015

      26 A. Das, "Embodied Question Answering" 5 : 2018

      27 A. Hanni, "Deep learning Framework for Scene based Indoor Location Recognition" IEEE 2017

      28 K. He, "Deep Residual Learning for Image Recognition" 770-778, 2016

      29 K. Wang, "A Discriminative Algorithm for Indoor Place Recognition based on Clustering of Features and Images" 14 : 407-419, 2017

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2027 평가예정 재인증평가 신청대상 (재인증)
      2021-01-01 평가 등재학술지 유지 (재인증) KCI등재
      2018-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2015-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2012-10-31 학술지명변경 한글명 : 소프트웨어 및 데이터 공학 -> 정보처리학회논문지. 소프트웨어 및 데이터 공학 KCI등재
      2012-10-10 학술지명변경 한글명 : 정보처리학회논문지B -> 소프트웨어 및 데이터 공학
      외국어명 : The KIPS Transactions : Part B -> KIPS Transactions on Software and Data Engineering
      KCI등재
      2010-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2006-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2003-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      2002-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2000-07-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.35 0.35 0.28
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.23 0.19 0.511 0.06
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼