RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      이미지의 Symbolic Representation 기반 적대적 예제 탐지 방법 = Adversarial Example Detection Based on Symbolic Representation of Image

      한글로보기

      https://www.riss.kr/link?id=A108316814

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      Deep learning is attracting great attention, showing excellent performance in image processing, but is vulnerable to adversarial attacks that cause the model to misclassify through perturbation on input data. Adversarial examples generated by adversarial attacks are minimally perturbated where it is difficult to identify, so visual features of the images are not generally changed. Unlikely deep learning models, people are not fooled by adversarial examples, because they classify the images based on such visual features of images. This paper proposes adversarial attack detection method using Symbolic Representation, which is a visual and symbolic features such as color, shape of the image. We detect a adversarial examples by comparing the converted Symbolic Representation from the classification results for the input image and Symbolic Representation extracted from the input images. As a result of measuring performance on adversarial examples by various attack method, detection rates differed depending on attack targets and methods, but was up to 99.02% for specific target attack.
      번역하기

      Deep learning is attracting great attention, showing excellent performance in image processing, but is vulnerable to adversarial attacks that cause the model to misclassify through perturbation on input data. Adversarial examples generated by adversar...

      Deep learning is attracting great attention, showing excellent performance in image processing, but is vulnerable to adversarial attacks that cause the model to misclassify through perturbation on input data. Adversarial examples generated by adversarial attacks are minimally perturbated where it is difficult to identify, so visual features of the images are not generally changed. Unlikely deep learning models, people are not fooled by adversarial examples, because they classify the images based on such visual features of images. This paper proposes adversarial attack detection method using Symbolic Representation, which is a visual and symbolic features such as color, shape of the image. We detect a adversarial examples by comparing the converted Symbolic Representation from the classification results for the input image and Symbolic Representation extracted from the input images. As a result of measuring performance on adversarial examples by various attack method, detection rates differed depending on attack targets and methods, but was up to 99.02% for specific target attack.

      더보기

      국문 초록 (Abstract)

      딥러닝은 이미지 처리에 있어 우수한 성능을 보여주며 큰 주목을 받고 있지만, 입력 데이터에 대한 변조를 통해 모델이 오분류하게 만드는 적대적 공격에 매우 취약하다. 적대적 공격을 통해 생성된 적대적 예제는 사람이 식별하기 어려울 정도로 최소한으로 변조가 되며 이미지의 전체적인 시각적 특징은 변하지 않는다. 딥러닝 모델과 달리 사람은 이미지의 여러 특징을 기반으로 판단하기 때문에 적대적 예제에 속지 않는다. 본 논문은 이러한 점에 착안하여 이미지의 색상, 모양과 같은 시각적이고 상징적인 특징인 Symbolic Representation을 활용한 적대적 예제 탐지 방법을 제안한다. 입력 이미지에 대한 분류결과에 대응하는 Symbolic Representation과 입력 이미지로부터 추출한 Symbolic Representation을 비교하여 적대적 예제를 탐지한다. 다양한 방법으로 생성한 적대적 예제를 대상으로 탐지성능을 측정한 결과, 공격 목표 및 방법에 따라 상이하지만 specific target attack에 대하여 최대 99.02%의 탐지율을 보였다.
      번역하기

      딥러닝은 이미지 처리에 있어 우수한 성능을 보여주며 큰 주목을 받고 있지만, 입력 데이터에 대한 변조를 통해 모델이 오분류하게 만드는 적대적 공격에 매우 취약하다. 적대적 공격을 통...

      딥러닝은 이미지 처리에 있어 우수한 성능을 보여주며 큰 주목을 받고 있지만, 입력 데이터에 대한 변조를 통해 모델이 오분류하게 만드는 적대적 공격에 매우 취약하다. 적대적 공격을 통해 생성된 적대적 예제는 사람이 식별하기 어려울 정도로 최소한으로 변조가 되며 이미지의 전체적인 시각적 특징은 변하지 않는다. 딥러닝 모델과 달리 사람은 이미지의 여러 특징을 기반으로 판단하기 때문에 적대적 예제에 속지 않는다. 본 논문은 이러한 점에 착안하여 이미지의 색상, 모양과 같은 시각적이고 상징적인 특징인 Symbolic Representation을 활용한 적대적 예제 탐지 방법을 제안한다. 입력 이미지에 대한 분류결과에 대응하는 Symbolic Representation과 입력 이미지로부터 추출한 Symbolic Representation을 비교하여 적대적 예제를 탐지한다. 다양한 방법으로 생성한 적대적 예제를 대상으로 탐지성능을 측정한 결과, 공격 목표 및 방법에 따라 상이하지만 specific target attack에 대하여 최대 99.02%의 탐지율을 보였다.

      더보기

      참고문헌 (Reference)

      1 B. Biggio, "Wild patterns : Ten years after the rise of adversarial machine learning" 84 : 317-331, 2018

      2 S. Freitas, "Unmask: Adversarial detection and defense through robust feature al ignment" 1081-1088, 2020

      3 H. Hirano, "Universal adversarial attacks on d eep neural networks for medical imag e classification" 21 (21): 1-13, 2021

      4 L. Munoz-Gonzalez, "Towards poi soning of deep learning algorithms wi th back-gradient optimization" 27-38, 2017

      5 A. Madry, "Towards deep learning models resistant to adversari al attacks"

      6 N. Carlini, "Towards Evaluating the Robustness of Neural Networks" 39-57, 2017

      7 N. Akhtar, "Threat of ad versarial attacks on deep learning in computer vision : A survey" 6 : 14410-14430, 2018

      8 X. Chen, "Targeted backdoor attacks on deep learning systems using data pois oning"

      9 F. Tramèr, "Stealingm achine learning models via prediction APIs" 601-618, 2016

      10 R. Timofte, "Sparse r epresentation based projections" 61-61, 2011

      1 B. Biggio, "Wild patterns : Ten years after the rise of adversarial machine learning" 84 : 317-331, 2018

      2 S. Freitas, "Unmask: Adversarial detection and defense through robust feature al ignment" 1081-1088, 2020

      3 H. Hirano, "Universal adversarial attacks on d eep neural networks for medical imag e classification" 21 (21): 1-13, 2021

      4 L. Munoz-Gonzalez, "Towards poi soning of deep learning algorithms wi th back-gradient optimization" 27-38, 2017

      5 A. Madry, "Towards deep learning models resistant to adversari al attacks"

      6 N. Carlini, "Towards Evaluating the Robustness of Neural Networks" 39-57, 2017

      7 N. Akhtar, "Threat of ad versarial attacks on deep learning in computer vision : A survey" 6 : 14410-14430, 2018

      8 X. Chen, "Targeted backdoor attacks on deep learning systems using data pois oning"

      9 F. Tramèr, "Stealingm achine learning models via prediction APIs" 601-618, 2016

      10 R. Timofte, "Sparse r epresentation based projections" 61-61, 2011

      11 K. Eykholt, "Robust Physical-World Attacks o n Deep Learning Visual Classificatio n" 1625-1634, 2018

      12 M. Fredrikson, "Model inversion attacks that ex ploit confidence information and basic countermeasures" 1322-1333, 2015

      13 D. Meng, "Magnet: a t wo-pronged defense against adversari al examples" 135-147, 2017

      14 M. Xue, "Machine learning securit y : Threats, countermeasures, and eva luations" 8 : 74720-74742, 2020

      15 C. Szegedy, "Intriguing properties of neural netsworks"

      16 C. Yang, "Generative poisoning attack methoda gainst neural networks"

      17 W. Xu, "Feature squeezing : Detecting adversarial exa mples in deep neural networks"

      18 I. Goodfellow, "Explaining and Harnessing Adver sarial Examples" 2015

      19 S. Moosavi-Dezfooli, "Deepfool: a simple and accu rate method to fool deep neural netwo rks" 2574-2582, 2016

      20 Y. . Dong, "Boosting adve rsarial attacks with momentum" 9185-9193, 2018

      21 T. Gu, "Badnets: Identifying vulnerabilities i n the machine learning model supply chain"

      22 A. Kurakin, "Artificial intelligence s afety and security" Chapman and Hall /CRC 99-112, 2018

      23 G. Ryu, "Advers arial attacks by attaching noise mark ers on the face against deep face reco gnition" 60 : 1-11, 2021

      24 G. Ryu, "A Research Tre nds in Artificial Intelligence Security Attacks and Countermeasures" 30 (30): 93-99, 2020

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼