RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        대학생의 약·강 AI 인식 집단 간의 차이 분석: 개인적, 심리적, 윤리적 쟁점을 중심으로

        신나민,김종욱 한국지식정보기술학회 2021 한국지식정보기술학회 논문지 Vol.16 No.5

        This study analyzed group differences between weak and strong AI perceptions over personal and psychological variables and ethical issues. The research participants were 349 university students (female=60.2%, natural science/engineering major=71.6%, strong AI group=58.2%) recruited from three 4-year universities located in the city of Seoul, Busan, and Kyung-nam province. The survey was administered online; and collected data were analyzed via spss version 21.0 using t-test, cross-tab and frequency analyses. The results of the data analysis are summarized as following. First, no statistical differences were found out between the two groups in the variables of sex, major, experience and knowledge of AI. Second, psychological variables such as negative attitude towards AI, anxiety, pessimistic and optimistic scores proved to make a difference between the two groups. Weak AI groups were more negative, anxious, pessimistic and less optimistic towards AI than strong AI groups. Third, no difference was observed in their perceptions of usefulness and easiness of AI technology. Fourth, perceived need for AI ethics education is higher in strong AI groups than weak AI groups. Fifth, among the 12 application areas of AI, both groups ranked high in service (1st) and transportation (3rd) sectors along with translation and medical fields ranked second in each group. Sixth, regarding the subject of AI ethics, both groups gave developers strong responsibilities in the areas of self-driving car, medical services, education, elderly care, and military robots/AI. In addition, the degree of ethical requirements for manufacturers, service providers, and users were found to vary in each areas. The results of this study suggest that an individual's perception of AI has to do with psychological variables, but not directly related to the acceptance of AI technology. Regarding AI ethics, this study revealed that different weights of responsibility are given to differing AI applications and stakeholders.

      • 인공지능에 대한 비판적 고찰

        이상원(Sangwon Lee) 신학지남사 2017 신학지남 Vol.84 No.4

        The power of logical reasoning and calculation themselves are natural technology and the expressions of the general grace of God and the general operation of the Holy Spirit. But, if the powerful technology of weak AI is abused, it can give harms to human society. Therefore it has to be under the moral control of man. The technology separated from moral directions can fall into inhuman and destructive instruments. Asimov’s three laws of a robot is one of the efforts subjecting weak AI to the moral control of man. Weak AI imitates a part of human intelligence alone, not other functions like emotion, will, conscience, free choice, and physicality. Therefore, even if its reasoning and calculating ability is excellent, it is just a fake of human personality. The reductionism of weak AI technology can dehumanize our human society. Strong AI is constructed imaginatively, when too much confidence is given to the power of weak AI. Speculative scientists and science fiction authors are certain that in the near future AI will imitate all of the functions of the human spirit. But strong AI is not the result of scientific study but a sort of myth. Strong AI is a superman. Speculative science focuses upon utopia, but science fictions upon dystopia. Too much fear of AI technology can generate too much attachment to dystopia. This fear comes from the false application of the present advanced up-to date scientific technology to the future human society without considering that future human beings will meet the same technology with more advanced spiritual and physical powers and devices. But this fear can give us serious warnings not to abuse AI technology. A too much attachment to utopia is dangerous. The attempt to get eternal life and to build up utopia with technology is spiritual arrogance before God. This attempt cannot be realized, and can lead mankind into a big disaster. Furthermore the utopia of scientific speculation and science fictions is pantheistically confined in the present society. But the Scriptural ideal society is dynamic, abundant, and personal. It has a continuity with the present world in its outer form and identity, but its content has a discontinuity with the present world in that its content is wholly new ones. This ideal society will be given by the grace of God alone.

      • KCI등재

        A study on legal service of AI

        Jong-Ryeol Park(박종렬),Sang-Ouk Noe(노상욱) 한국컴퓨터정보학회 2018 韓國컴퓨터情報學會論文誌 Vol.23 No.7

        Last March, the world Go competition between AlphaGo, AI Go program developed by Google Deep Mind and professional Go player Lee Sedol has shown us that the 4th industrial revolution using AI has come close. Especially, there ar many system combined with AI hae been developing including program for researching legal information, system for expecting jurisdiction, and processing big data, there is saying that even AI legal person is ready for its appearance. As legal field is mostly based on text-based document, such characteristic makes it easier to adopt artificial intelligence technology. When a legal person receives a case, the first thing to do is searching for legal information and judical precedent, which is the one of the strength of AI. It is very difficult for a human being to utilize a flow of legal knowledge and figures by analyzing them but for AI, this is nothing but a simple job. The ability of AI searching for regulation, precedent, and literature related to legal issue is way over our expectation. AI is evaluated to be able to review 1 billion pages of legal document per second and many people agree that lot of legal job will be replaced by AI. Along with development of AI service, legal service is becoming more advanced and if it devotes to ethical solving of legal issues, which is the final goal, not only the legal field but also it will help to gain nation’s trust. If nations start to trust the legal service, it would never be completely replaced by AI. What is more, if it keeps offering advanced, ethical, and quick legal service, value of law devoting to the society will increase and finally, will make contribution to the nation. In this time where we have to compete with AI, we should try hard to increase value of traditional legal service provided by human. In the future, priority of good legal person will be his/her ability to use AI. The only field left to human will be understanding and recovering emotion of human caused by legal problem, which cannot be done by AI’s controlling function. Then, what would be the attitude of legal people in this period? It would be to learn the new technology and applying in the field rather than going against it, this will be the way to survive in this new AI period.

      • KCI등재

        약인공지능 시대의 윤리적 위기: 개별화된 예측 정보의 증가로 인한 상호협력 기반의 상실

        손제연 한국윤리학회(8A3209) 2022 윤리학 Vol.11 No.2

        As paradoxical as it may sound, the easier it becomes for credit rating agencies in a society to predict individual credit, the less likely it is for the society to be a credit-based society. This is because mutual cooperation to prepare for an unpredictable future is based on mutual ignorance of personalized information between members. In a society where personalized information that makes possible predictions for each person increases, people who know but hide such information about themselves in cooperation are regarded as free riders or cheaters. As a result, it becomes more difficult to expect mutual cooperation through the free market for the realization of ordinary welfare, which has been previously considered to be achieved more efficiently through cooperation through the market rather than through social planning. However, any attempts of denying the positive function of individualized information or completely blocking its increase and distribution are not only unpromising, but also undesirable. What is clear is that in many areas that have relied on markets for the achievement of vital value(s) of liberalism or even utilitarianism, it is no longer reasonable to rely solely on the probability of mutual cooperation in the free market. It is the current weak artificial intelligence technology that is rapidly increasing individualized predictive information. It can be seen from this that the crisis facing in the era of weak AI is not a further intensification of the traditional problems such as black-box of a technology or misuse of personal information, but is a new type of grave crisis in which significant loss of mutual cooperation arises from technology with enhanced individual prediction. Moreover, regulatory prescriptions against the black-box nature of AI, such as ‘eXplainable AI’ or ‘trustworthy AI’, seem to be based in many cases on unreflective and superficial counterfeits from old ethical debates, which can only lead people to ethics-washing and -bashing. 개인별 신용을 더 잘 예측할 수 있게 될 수록, 역설적으로 신용을 토대로 성립하는 사회의 기초는 더 위협받을 수 있다. 예측불가능한 미래를 대비하기 위한 상호협력은 협력 당사자들 사이의 신용을 구성하는 정보에 대한 상호적 무지(mutual ignorance)를 중대한 기초로 하기 때문이다. 개별화된 예측정보가 증가하는 사회에서는 자신에 대한 정보를 잘 알고 있는 사람은 무임승차자나 사기꾼으로 간주된다. 이로 인해 사회의 공적 계획보다는 시장을 통한 자유로운 상호협력을 통해 더 효율적으로 달성되는 것으로 여겨져 왔던 일상적인 복지에 대해서조차 그 실현을 위해 자유 시장을 통한 상호협력을 기대하기가 점점 더 어려워진다. 그러나 개별화된 정보가 주는 순기능을 부인하거나 그 생산과 유통을 근원적으로 차단하는 방향은 대개 유망하지 않을 뿐만 아니라 바람직하지도 않다. 분명한 것은, 자유주의 또는 심지어 공리주의의 중요한 가치의 성취를 시장에 의탁해 왔던 많은 영역에서, 자유시장에서의 협력 가능성에 이를 기대하는 것은 이제 불합리하다는 것이다. 개별화된 예측정보를 급격히 증가시키고 있는 것은 바로 현재의 약인공지능 기술이다. 이로부터, 약인공지능이 발생시키는 중대한 윤리적 위기는 불투명한 기술적 특성이나 개인정보의 오남용 같은 심화된 전통적 문제가 아니라 강화된 개인별 예측기술로부터 발생하는 이례적인 공정하고 합리적인 상호협력의 상실이라는 점을 알 수 있다. 게다가 AI기술의 불투명성을 극복하려는 규제적 대응—예를 들어, ‘설명가능한 AI’나 ‘신뢰할 만한 AI’—은 많은 경우 지나간 윤리적 논의와 논점을 피상적으로 재구성한 것으로 보이는데, 성급한 규제의 방향이 윤리세탁을 유발하거나 사회 구성원들로부터 윤리거부의 태도를 불러일으킬 수 있다.

      • KCI등재

        대학 글쓰기 수업에서 생성형 인공지능의 비판적 활용을 위한 연구 : 자기소개서의 장점과 단점 항목을 중심으로

        안예림(Ahn, Ye-rim) 다빈치미래교양연구소 2024 교양학연구 Vol.- No.27

        이 연구의 목적은 대학 교양 수업에서 생성형 인공지능을 이용한 글쓰기의 효용성을 평가하고 대학생의 인식을 조사함으로써, 대학 글쓰기 교육에서 생성형 인공지능의 활용 가능성을 탐색하는 것이다. 대학 글쓰기 수업의 수강생 51명을 대상으로 생성형 인공지능을 활용하여 자기소개서의 장점과 단점 항목을 기술하도록 하였다. 대학생들은 자신의 질문을 토대로 생성형 인공지능이 작성한 글을 평가하고 사람이 작성한 글과 생성형 인공지능이 작성한 글을 비교하였다. 생성형 인공지능이 작성한 글에 대한 만족도는 평균 6.38점으로 나타났다. 대학생들은 생성형 인공지능이 작성한 글의 구성, 내용, 표현 방식에 있어서 사람이 작성한 글과 차이가 있다고 응답하였고 대체로 부정적인 평가를 내렸다. 특히 생성형 인공지능이 작성한 글은 내용이 단조롭고 문장이 어색하다고 평가했다. 응답자 중 34명은 독창성, 구성력 측면에서 자신이 생성형 인공지능보다 글을 더 잘 쓴다고 응답하였다. 생성형 인공지이 작성한 글이 아직 부족하기는 하지만 생성형 인공지능이 글의 구성을 도와주고, 인공지능이 글의 구성을 도와주고, 새로운 표현을 사용하도록 도와준다는 점에서 43명이 생성형 인공지능을 글쓰기에 활용할 것이라고 응답하였다. 그러나 대학생들은 인간의 고유한 특성이 반영된 글이 좋은 글이라고 생각하기 때문에, 생성형 인공지능의 글을 그대로 수용하지 않고 참고적으로 활용할 것이라고 밝혔다. 대학 수업에서 생성형 인공지능을 활용하기 위해서는 대학생 스스로 생성형 인공지능의 답변을 평가하고 비판적으로 활용할 수 있도록 교육해야 한다. 더 나아가 생성형 인공지능의 한계점을 파악하여 생성형 인공지능을 주도적으로 글쓰기에 활용할 수 있어야 한다. The aim of this study is to evaluate the effectiveness of utilizing generative AI for writing in college liberal arts courses and to examine college students perceptions. Specifically, we investigate the potential for the use of generative AI in college writing education. 51 students enrolled in a college writing course were directed to utilize generative AI to identify the strengths and weaknesses of a personal statement. The study evaluated texts generated by AI and surveyed students perceptions of them. The average score assigned to the AI-generated texts was 6.38. Students noted differences in structure, content, and expression compared to human-written texts, resulting in negative reviews. Specifically, the AI-generated texts were criticized for their monotonous and awkward sentence construction. Out of the respondents, 34 believed they could write better than the generative AI, especially in terms of originality and organization. However, 43 respondents expressed a willingness to use generative AI in writing, appreciating its assistance in organizing text and introducing new expressions. Nevertheless, students indicated that they would prefer to use AI-generated texts as a reference rather than accepting them outright, valuing the unique qualities of human-written texts. To effectively utilize generative AI in college courses, it is crucial to educate students on how to evaluate AI-generated responses and comprehend the limitations of generative AI. This will enable them to use it proactively in their writing.

      • 인공지능(AI)과 지능형 로봇의 법인격에 대한 소고

        정영진(Young-Jin Jung) 4차산업혁명융합법학회 2021 4차산업혁명 법과 정책 Vol.4 No.-

        2012년 이미지넷 대회에서 힌튼 교수팀이 딥러닝 기술을 이용한 알렉스넷(Alexnet)으로 15.31%의 오류율을 기록하면서, 2등(26.2%)과 압도적인 차이로 우승함으로써 딥러닝 기술이 인공지능에 있어서 대세가 되었다. 딥 러닝의 경우, 입력된 데이터와 출력된 결과는 알 수 있지만 그 과정은 알 수 없는 경우가 많아 “Black Box Machine”이라 칭해지기도 한다. 인공지능 관련 기술이 발달함에 따라 현재 특정 영역에서 이용되고 있는 약한 인공지능(전문가 시스템)이 장차 통합되면서, 언젠가는 강한 인공지능(일반지능)이 출현될 것으로 예상된다. 약한 AI가 탑재된 로봇, 예를 들면 완전자율주행자동차에 법인격을 부여하기는 쉽지 않을 것 같다. 그러나 사회적 로봇에 대하여는 일정한 범위 내에서 동물과 유사한 지위를 부여할 수 있을 것 같다. 강한 AI가 탑재된 지능형 로봇의 경우 법인격을 부여받을 조건을 갖추었다고 볼 수 있다. 그러나 강한 AI의 출현이 인류의 재앙이 되지 않고 축복이 되기 위해서는, 관련 법률뿐만 윤리코드 등 연성법(soft law)에 대한 정비도 필요하다. Soon after Professor Hinton's team recorded an error rate of 15.31% with Alexnet using deep learning technology and won by an overwhelming difference from the second place who recorded an error rate of 26.2% in the ImageNet Challenge of 2012, deep learning technology became a trend in artificial intelligence. In the case of deep learning, input data and output results can be known, but the process is often not known, so it is called “Black Box Machine”. As artificial intelligence-related technologies develop, weak artificial intelligence (expert system) currently used in specific areas will be integrated in the future, and strong artificial intelligence (general intelligence) is expected to emerge one day. It will not be easy to give legal personality to robots equipped with weak AI, such as fully autonomous vehicles. However, it seems that social robots can be given a status similar to that of animals within a certain range. Intelligent robots equipped with strong AI can be said that they have met the conditions for to be granted legal personality. In order for the advent of the intelligent robots to become a blessing rather than a disaster for mankind, it is necessary to improve not only related laws but also soft laws such as ethical codes.

      • KCI등재후보

        Exploring the Intersection of Artificial Intelligence in the Evolving Landscape of Art

        한창희 한양대학교(ERICA캠퍼스) 한국미래문화연구소 2023 미래문화 Vol.0 No.8

        This paper scrutinizes the collaborative role of AI as an artistic partner, examining how generative algorithms and neural networks contribute to the ideation phase of artistic creation. The evolution of generative art, driven by AI algorithms, emerges as a distinct genre within the artistic realm, offering novel and unpredictable expressions. A focal point of the investigation revolves around the key characteristics and features of AI arts, pondering the definition of AI arts and dissecting the innovations introduced in artistic creation through AI. The paper critically reflects on AI's impact on traditional artistic principles, prompting a reevaluation of concepts like authorship, originality, and the role of the artist. Looking toward the future, the inquiry concludes with reflections on the forthcoming landscape of art in the era of artificial intelligence. While acknowledging the unprecedented opportunities presented by AI in revolutionizing the art world, the paper highlights concerns related to biases, authenticity, and the potential displacement of human creators. The academic journey advocates for a measured and cautious approach, emphasizing the necessity of balancing the benefits of AI with the preservation of the unique qualities inherent in human-created art.

      • KCI등재

        인공지능 로봇의 형사법이론 체계에 관한 일고

        이인곤(Lee, In-Gon),강철하(Kang, Chul-Ha) 한국법학회 2018 법학연구 Vol.71 No.-

        최근 사물인터넷(Internet of Things) 기술과 인공지능(Artificial Intelligence) 기술의 결합체인 자율주행자동차의 상용화를 앞두고 있는 등 이른바 ‘제4차 산업혁명’의 성장가능성에 대한 기대가 높아지고 있다. 특히 제4차 산업의 총아인 인공지능형 로봇은 인간만이 독점해 왔던 학습능력, 추론능력, 지각능력, 자연언어의 이해능력, 논증 등의 기능을 갖춤으로써 상상 속에서나 가능했던 혁신 서비스나 제품의 생산을 가능케 하는 원천이 되고 있다. 특히 2016년 3월 인공지능 바둑프로그램인 알파고와 이세돌 9단의 세기의 대국(對局) 이후 인공지능의 무한한 가능성은 세간에 충격을 주기에 충분하였으며, 이에 따라 인간지능을 초월하는 인공지능의 기술력에 감탄하면서도 향후 그 파급력에 대한 우려도 나타나게 되었다. 이처럼 동 사건은 미래 인류의 청사진을 제시해 주고 있지만, 동시에 사람은 아니지만 ‘사람처럼 행동하는 인공지능 로봇(기계)’을 기존의 법제도로 통제가 가능한 것인지 난해한 과제를 던져 주고 있다. 왜냐하면 인공지능 기술의 활용이 목전에 다가오면서 문화인류사에서 그 어떤 법률도 스스로 판단하고 운행하는 차량을 상정하거나 로봇의사가 환자의 병을 진단하고 집도하는 상황에 대해 규범적 문제로 고민해 본 전례가 없었기 때문이다. 이처럼 경험하지 못한 다양한 문제 상황을 해결하기에는 종래의 법적 틀과 이론적 토대가 미흡한 상황임에 따라 향후 ‘인공지능에 의한 법익침해나 범죄행위’에 대한 효과적인 대응이 어려운 실정이다. 따라서 본 연구에서는 인공지능 및 로봇 기술이 이미 산업분야(자율주행자동차), 의료분야(수술용 로봇) 등에 적용되어 상용화를 앞두고 있다는 점에서 인공지능 로봇 행위의 형법적 행위성, 범죄주체성, 형사책임능력 등 형법이론의 적용방안과 해석론을 시급히 모색해 보고, ‘인공지능 로봇에 의한 범죄행위’에 대한 형법적 대응방안을 규명한다. At present, the human society has entered the era of the fourth industrial revolution, such as artificial intelligence (AI) -based robots, commercialization of autonomous vehicles, which is a combination of Internet of Things (IoT) technology and artificial intelligence technology . In particular, artificial intelligent robots, which are the generals of the 4th industry, have functions and systems such as learning ability, reasoning ability, perception ability, and argumentation, which have been monopolized only by human intelligence, It is becoming a power to make. The endless possibilities of artificial intelligence after the confrontation of the anti-monarchy of the 9th century of Alpha Kogyo and Ise Se-dol, the artificial intelligence Go program in March 2016, were enough to shock the world. Therefore, while artificial intelligence admires the technological power beyond human intelligence, people have experienced the contemplation of future power, expectation and concern. This case presents the blueprint of the future humanity, and it presents the difficult problem of being able to manage an artificial intelligence robot (machine) acting as a `person`, though it is not a person, with the existing legal system. As the use of artificial intelligence approaches to the fore, there was no precedent in the human history to assume a vehicle that judges and operates any laws, or a robot physician was worried about the normative problem of the operation to diagnose and collect the patient`s disease. is not simple to solve problems that have not been experienced like this and it is difficult to compete with the conventional legal framework that lacks the theoretical basis for it, The current law system can not effectively cope with the future robot and artificial intelligence era. Artificial intelligence, and robot technology have already entered the commercialization stage in autonomous vehicles and medical fields. Therefore, in this study, in the field of criminal law related to artificial intelligence robots, we are urgently looking for the ways to cope with and respond to criminal theories such as subjectivity, crime ability, criminal responsibility, We will focus on the necessity to prepare for the future crime that will be caused by artificial intelligence.

      • KCI등재

        우리는 ‘곧’ 필요 없는 존재가 될 것인가?: 인공지능의 발전에 따른 인간 실존의 문제 고찰

        이진현 서강대학교 서강대학교 신학연구소 2022 신학과 철학 Vol.- No.42

        현재 급속도로 발전하고 있는 자동화와 인공지능은 노동해방도 아니고 노동착취도 아닌 ‘노동소멸’을 초래할 가능성이 높다. 대량실업 정도가 아니라 인간노동이 필요 없어진다는 뜻이다. 아예 인간이 뭔가 구현하는 기능적 행위의 필요성이 사라지는 것이다. 이에 대비하고 예방하고 ‘막아야 한다’의 문제가 아니라, “이미 실현되고 있고 더 확산되고 있는 인공지능 기술과 문화 속에서 어떻게 살아가야 하는가?”의 문제이다. 우리는 대공황같은 경제문제를 훨씬 넘어서 근본적인 인간 실존의 문제를 직면해야 할 것이다. 그 때는 생각보다 빨리 찾아올 것이다. 어쩌면 우리 생애에 닥칠 현실일 수 있다. 이 글은 현재진행형인 인공지능 발전추세에 기반한 일종의 미래 예측 사고실험으로 AI의 유용성보다는 필연적으로 마주하게 될 문제 중심으로 고찰한 것이다. 본문의 질문들은 당장 해답을 구하기보다 급속한 기술 발전 속에서 인간 존재의 근본적인 의미에 대해 깊이 고민해 볼 화두가 되길 바라는 뜻에서 마련되었다.

      • KCI등재후보

        표준 AIS 프로토콜 분석을 통한 보안 AIS 프로토콜 제안

        이정수(Jung-Su Lee),허욱(Ouk Heo),김재환(Jae-Hwan Kim),정성욱(Sung-Wook Chung) 한국정보전자통신기술학회 2016 한국정보전자통신기술학회논문지 Vol.9 No.1

        최근 몽골 선적 화물선 침몰사고, 진도 세월호 여객선 침몰사고 등 해양 사고는 끊임없이 발생하고 있다. 이러한 해양 사고 발생 건수를 줄이기 위해 국제표준에 따라 국내선박은 AIS(Automatic Identification System) 시스템을 의무장착하고 있다. AIS 시스템은 선박 항해를 위한 정보들의 통신 프로토콜 체계이나 프로토콜 분석결과 표준 AIS 프로토콜은 보안성을 전혀 고려하지 않고 있음을 알 수 있다. 또한, The FUNcuve Dongle Pro+라는 위성 통신 수신기를 이용하면 손쉽게 AIS 무선 프로토콜을 Hijacking 할 수 있다. 따라서 본 논문에서는 AIS 시스템의 표준 프로토콜의 보안 취약점을 분석하고 안전한 선박통신을 위해 송수신자의 MAC Address를 표기하여 신뢰성을 확보하고, VPN Tunnelling 암호화 기법을 이용하여 DATA 전송 시 안전한 전송을 할 수 있는 프로토콜에 대해 제안한다. 그리고 본 논문에서 제안하는 프로토콜 구조를 사용하는 경우, 통신정보의 Hijacking 발생시 보다 안전한 데이터 송수신을 할 수 있음을 확인한다. 그래서 제안된 보안 AIS 프로토콜을 통하여 앞으로의 선박 안전 기술에 영향을 미칠 것으로 기대된다. Recently, marine accidents such as the sinking accident Mongol freighter ship and the sinking accident of Sewol ferry in Jindo continuously happen. In order to decrease the number of these marine accidents, Korean ships are obliged to follow the AIS(Automatic Identification System) system. The AIS protocol includes all information for sailing ships. However, the standard AIS protocol does not provide any security function, In addition, it is possible to hijack the standard AIS protocol in case of using a satellite communication device called FUNcuve Dongle Pro+. Therefore, this paper analyzes weak points of the security in the standard AIS protocol. Furthermore, this paper ensures reliability by marking the MAC Address of sender and receiver for secure communication and suggests the protocol that can securely send data, using the VPN Tunnelling method. Therefore, the suggested AIS protocol provides the secure communication to the AIS protocol and protect the messages in the AIS protocol, which can serve safe voyages by decreasing the marine accidents.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼