http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
나비 아마둔 조선대학교 일반대학원 2025 국내석사
사물 인터넷 지원 계층적 항공 컴퓨팅 시스템을 위한 오프로딩 및 자원 할당의 공동 최적화 나비 아마둔 지도교수: 모상만 컴퓨터공학과 조선대학교 대학원 사물 인터넷(IoT) 기기의 급속한 확장에 따라 관련 응용은 지상 사용자(GU)를 위한 계산 집약적이고 지연에 민감한 특성을 띠고 있다. 모바일 엣지 컴퓨팅(MEC)이 중요한 계산 지원을 제공하지만, 기존 MEC 서비스는 원격 지역이나 재난 상황에서 어려움을 겪는 경우가 많다. 이러한 문제를 해결하기 위해 본 연구에서는 다양한 IoT 응용의 계산 및 지연 요구 사항을 충족하기 위해 무인 비행체(UAV)와 고고도 플랫폼(HAP)을 결합한 계층적 항공 컴퓨팅 플랫폼을 탐구한다. 본 연구에서는 오프로딩 결정, 사용자 연관, 자원 할당을 공동 최적화하는 기법(JOUR)을 제안하며, GU 에서 UAV 로의 이진 오프로딩과 UAV 에서 HAP 로의 부분 오프로딩을 최적화하게 된다. JOUR 기법은 에너지 소비와 지연을 최소화하고 네트워크 전반에 걸쳐 부하 균형을 극대화하도록 설계된다. 오프로딩 결정과 GU-UAV 연관은 매칭 게임 기반 알고리즘을 사용하여 관리하며, UAV-HAP 오프로딩과 계산 자원 할당에는 향상된 소프트 액터-크리틱(ESAC) 알고리즘이 적용된다. 제안 프레임워크는 여러 계층에서 계산 부하를 효과적으로 관리하여 자원 활용도를 최적화하고 통신 지연을 줄여준다. 시뮬레이션 결과에 따르면, JOUR 기법은 에너지 소비와 지연을 크게 줄이고 부하 균형과 작업 완료율을 개선하여 기존 솔루션을 능가한다. 이는 동적 원격 환경에서 IoT 응용에 신뢰할 수 있는 서비스를 보장하면서 계층적 항공 컴퓨팅 플랫폼을 최적화하는 강력한 솔루션을 제공할 수 있음을 나타낸다. Joint Optimization of Offloading and Resource Allocation for Hierarchical Aerial Computing Systems for IoT Ahmadun Nabi Advisor: Prof. Sangman Moh, Ph.D. Department of Computer Engineering Graduate School of Chosun University With the rapid expansion of Internet of Things (IoT) devices, applications are becoming increasingly computation-intensive and delay- sensitive for ground users (GUs). While mobile edge computing (MEC) offers critical computational support, conventional MEC services often struggle in remote regions and disaster situations. To address these challenges, this study introduces a hierarchical aerial computing platform that combines unmanned aerial vehicles (UAVs) and high-altitude platforms (HAPs) to meet the computational and latency requirements of diverse IoT applications. We propose a joint offloading decision, user association, and resource allocation (JOUR) scheme that optimizes binary offloading from GUs to UAVs and partial offloading from UAVs to HAPs. The JOUR scheme is designed to minimize energy consumption and latency while maximizing load balancing across the network. The offloading decision and GU-to-UAV association are managed using a matching game-based algorithm, while an enhanced soft actor-critic (ESAC) algorithm is employed for UAV-to-HAP offloading and computation resource allocation. The proposed framework optimizes resource utilization and reduces communication delays by effectively managing the computational loads across multiple layers. Simulation results demonstrate that the JOUR scheme significantly reduces energy consumption and latency while improving load balancing and task completion rates, outperforming existing solutions. This demonstrates its potential as a robust solution for optimizing hierarchical aerial computing platforms, ensuring reliable service for IoT applications, especially in dynamic and remote environments.
합성생물학은 공학자와 생물학자들이 생물학적 부품, 시스템, 장치를 만들기 위해 함께 연구하고있는 융합연구분야로서, 합성생물시스템에서는 유전자 논리회로가 핵심적 역할을 한다. 유전자 논리회로는 세포 내 생체회로에서 발생하는 논리함수를 구현한다. 유전자 회로의 설계는 일반적으로 그들의 수학적 모델을 시뮬레이션하고 회로가 이에 따라 적절하게 반응하는지 여부를 식별하는 것으로, 전자회로에 비해 유전자 회로는 비결정론적 행동을 보여서 특징짓기가 훨씬 어렵다. 유전자 회로는 체외 실험(in-vitro)으로 설계되고 실험된다. 이 과정은 실험 기구를 세심하게 다루는 등 매우 지루한 설계 흐름이 특징이다. 이러한 연유로, 컴퓨터 모형을 활용한 유전자 회로의 모델링, 시뮬레이션 및 테스트를 수행하는 몇 가지 설계방식이 그동안 제안되었다. 컴퓨터 모형의 계산 도구는 설계 프로세스를 가속화하고 사람의 실수를 줄이는 데 도움이 된다. 이에 더 나아가서, 가상의 실험실에서 사용자가 시밀레이션 중에 투입되는 특정 농도를 변경하고 이의 영향을 런타임 중에 관찰할 수 있는, 동적 회로 시뮬레이션을 제공할 수 있다면, 매우 유용할 것이다. D-VASim은 사용자가 시뮬레이션 중에 단백질 농도 투입을 동적으로 변경할 수 있는 기능을 제공하는 첫 번째 설계도구이다. 이를 통하여, 회로 설계의 프로세스를 더욱 가속화할 수 있고, 보다 빠른 프로토타이핑이 가능하였다. 유전자 회로의 임계값 분석은 시뮬레이션과 논리 검증 이전의 기본적인 단계로서, D-VASim은 유전자 회로의 임계값 및 타이밍 분석을 위한 알고리즘을 구현하였지만, 알고리즘의 병렬화를 고려하지는 않아서, D-VASim 은 유전자 회로의 문턱값(임계값) 분석과 검증 시간이 여전히 충분히 빠르지 못하다는 문제가 있었다. 본 논문에서는, D-VASim의 고속처리를 위하여, 유전자 회로 문턱값 분석 및 검증의 병렬처리 기법을 제시한다. 이와 더불어, 추정된 문턱값으로 유전자 논리회로 결과값이 유지되고, 안정화될 수 있도록 알고리즘을 수정하였으며, 이를 시밀레이션을 통하여 확인하였다. 또, D-VASim에서 동일한 매개변수를 사용하는 경우, 시뮬레이션 실행 시간의 편차가 감소될 수 있도록, 알고리즘을 수정하였다. NOT 논리회로의 경우, 본 논문에서 제시한, 유전자 회로의 임계값 및 타이밍 분석을 위한 알고리즘의 병렬처리는 기존의 방식보다 16배 빠른 속도로 처리하였으며, 본 논문에서 제시한 이러한 기법들은 D-VASim의 고속처리를 가능하게 하여, 이의 효용성을 크게 개선하였다. Synthetic biology is an area of research where researchers in engineering and biology are synergetically working to create biological parts, systems, and devices. At the heart of a synthetic biological system exist genetic logic circuits. Such circuits seek to implement desired logic functions inside a biological cell. The design of gene circuits commonly requires simulating their mathematical models and to identify whether or not the circuit is reacting appropriately. Compared to electronic circuits, genetic circuits show a non-deterministic behavior and are therefore much harder to characterize. Normally, genetic circuits are designed and experimented with in-vitro. This process is characterized by a very tedious design-flow including careful handling of the apparatus. To which end, several approaches have been designed to enable modeling, simulation, and testing of gene circuits in-silico. The computational tools accelerate the design process and help reduce human error in the process. It is obviously useful to have a computational tool that enables all of the above in addition to providing a lab-like dynamic circuit a simulation where specie concentrations could be modified and their effect observed on run-time. D-VASim is the first tool to provide this functionality where users can change the input protein concentrations during the simulation. This enables faster prototyping of the circuit design and further accelerates the circuit design process. A fundamental step before the simulation of a genetic circuit is its threshold value estimation. D-VASim implements an algorithm for threshold value and timing analyses of genetic circuits. However, a parallel implementation of the algorithm can reduce the computation time of D-VASim which becomes even more necessary when it is known that D-VASim can still take up to hours for processing complex genetic circuits. In this thesis, we propose a parallel approach for faster threshold value analysis and verification of genetic logic circuits. We also modify the algorithm to reduce inconsistencies in the output species concentration. The estimated threshold value is now more accurate which can be seen from experimentation for long simulation runtimes. We introduce further modifications to reduce the deviation in the algorithm runtimes across multiple simulations runs at the same parameter settings. Overall, with the proposed modifications to D-VASim, its usability has considerably improved and the threshold value and timing analysis algorithm are now significantly faster as in the case of NOT gate by up to 16 times.
This IMed-CNN, a groundbreaking deep learning framework, is specifically designed for the precise diagnosis of knee diseases and lung cancer using ad- vanced medical imaging techniques. Representing a significant leap forward in the domain of medical image analysis, this framework synergizes cutting-edge deep learning methodologies with detailed data preprocessing, markedly enhanc- ing the accuracy and precision of medical diagnostics. The IMed-CNN model is structured around two pivotal phases: meticulous data preprocessing and compre- hensive model training. The preprocessing phase is multi-faceted, incorporating both channel-based and pixel-based techniques. The channel-based approach in- volves decomposing image data into distinct color channels, specifically red, green, and blue, enabling a more nuanced analysis of the image data. In contrast, the pixel-based preprocessing utilizes a thresholding technique to accentuate criti- cal image features, thereby refining the raw medical data into a format that is optimally suited for deep learning analysis. IMed-CNN’s architecture is an innovative ensemble of several convolutional neural networks (CNNs), each uniquely trained on different forms of preprocessed data. This architecture is comprised of a series of convolutional layers, integrated with batch normalization and max pooling, culminating in a series of fully con- nected layers. Crucial to this architecture is the implementation of a system- atic model dropout ensemble (SMDE) and an analysis of unique true predictions (UTP). These elements play a critical role in the model selection process, signif- icantly enhancing the framework’s diagnostic capabilities. The robustness of the IMed-CNN framework was rigorously tested across a diverse array of ten different datasets, which included challenging datasets like the LC25000 Lung and colon histopathological image dataset and the KneeMRI dataset. These datasets en- compass a broad spectrum of medical imaging challenges, ranging from intricate histopathological images to complex MRI data. In evaluating the IMed-CNN framework, it was benchmarked against various established baseline models, em- ploying metrics such as accuracy, precision, recall, and AUC scores. The results from these comprehensive evaluations demonstrated that the IMed-CNN frame- work significantly outperforms existing pretrained models, showcasing exceptional prowess in identifying knee diseases and lung cancer with heightened precision and accuracy. A novel aspect of this research is the strategic application of pixel-based eval- uation during the model training process. This method involves categorizing test images into distinct subsets based on their pixel intensity values and subsequently evaluating the model’s performance across these varying subsets. This innovative approach is instrumental in identifying any potential biases or dependencies the model may have on specific pixel intensity ranges. Such an evaluation ensures the development of a holistic and reliable diagnostic tool. The IMed-CNN framework marks a major milestone in the realm of medical image analysis. By amalga- mating advanced deep learning techniques with sophisticated data preprocessing methodologies, it establishes a new benchmark for accuracy, reliability, and effi- ciency in medical diagnostics. This research not only demonstrates the immense potential and applicability of deep learning in medical diagnostics but also sets the stage for future advancements and innovations in this rapidly evolving field. xviii
Secure Sharing of Health Data Over Cloud : 클라우드 시스템을 이용한 개인 건강데이터의 보안 공유기법
알암리파하드 Yeungnam University graduation school 2015 국내석사
클라우드 컴퓨팅은 차세대 IT기술 인프라의 중요한 주제이다. 이를 통하여 대량의 데이터를원격에서 접근 가능케하고 다양한 응용 서비스를 제공한다. 그 중에서도 특히 요즘은 보다 향상된 의료 서비스와 비용을 낮추기 위하여 건강관리에 관련된 정보를 많이 활용하고 있다. 따라서 이러한 자료들은 저장하고 가공하고, 관리하기 위하여 일반적인 IT 정보 제공자를 많이 활용하고 있다. 물론 이러한 클라우드 시스템을 도입하게 되면 데이터의 소유자와 사용자들의 편의성과 비용을 줄여주는 효과가 있지만, 개인들의 님감한 정보가 원하지 않게 사용되거나 악용될 소지가 있다. 클라우드 시스템을 통한 외부 지원이 활성화 됨에 따라 개인적인 데이터나 건강관련 데이터 등 민감한 정보들이 포함되게 된다. 따라서 민감한 개인정보들은 임호화하여 클라우드 시스템 게시되어야 하고 그것의 사용에 제한이 있어야 한다. 즉, 민감한 데이터 자체의 비밀 유지 뿐만 아니라 데이터 처리과 정도 비밀이 유지되도록 하는 시스템이 필요하며 본 연구에서는 이러한 시스템을 제안한다. 성능평가를 통하여 제안된 시스템의 유용성을 검증한다. Cloud computing is now considered as a next generation infrastructure of IT technologies, providing convenient remote access to massively data storage and application services. Especially, modern information technology is increasingly used in healthcare with the goal to improve and enhance medical services and to reduce costs. In this context, the outsourcing of computation and storage resources to general IT providers (cloud computing) has become very appealing . However, while this outsourced storage and computing paradigm can potentially bring great economical savings for data owners (hospitals) and users (patients), its benefits may not be fully realized due to wide concerns of data owners that their private data may be involuntarily exposed or handled by cloud providers. As cloud computing is becoming more mature data outsourcing in public cloud is also gaining momentum including sensitive information like personal data, health data, media files and government documents. For sensitive data which is outsourced in public cloud, its encrypted uploads are recommended thus narrowing its utility scope in terms of processing and evaluation. To evaluate user requests obliviously on public cloud over sensitive encrypted data, we have formalized a system which protects not only the privacy of data but also the evaluation process that is carried on the public cloud. Throughout the system execution the cloud server will learn nothing useful except the reply cardinality.
Analyzing Imbalanced Social Data for Processing Spatial Information : 위치 정보 처리를 위한 불균형 소셜 데이터 분석
누옌트룽트리 Graduate School of Yeungnam University 2017 국내박사
Nowadays, the amount of available geotagged information on the Social Networking Services (SNS) is rapidly increasing due to the large availability of location-aware mobile devices and map interfaces. Moreover, using geotagged information on SNS has been popular with many online services. However, almost existing data on SNS has no geolocation information. Therefore, adding the geolocation information for these resources is one of the essential research, especially in the scenario of big data on SNS. This inspired me in creating a novel method to enrich geolocation information for non-geotagged resources based on extracting representative location descriptions using users’ tags obtained from geotagged photos on SNS. In this research, we propose an algorithm to predict locations of photos based on the similarity of its respective tags with another geotagged resources in the Training set. Besides, the influence of imbalanced data on prediction performance is also considered as a challenge to be solved. To overcome this problem, the solutions mainly based on preprocessing steps, including i) sampling methods and ii) the instance weighting method to increase the number of features in minority classes and to reduce comprehensive coverage in majority classes. In addition, to emphasise the contribution of this thesis, we conduct the experiment which aims to find famous places through location ranking using geotagged resources on SNS as a case study. With a large amount of geotagged resources from smart devices, it is important to provide intelligent location-based services to users. Focusing on spatial ranking service, this research proposes a ranking algorithm to find out a list of locations which are collected from geotagged resources on SNS in order. Using extended HITS algorithm (called LocHITS), we can analyze an undirected graph which is composed of a set of tags and a set of locations. Thereby, meaningful relationships between the locations and a set of tags are discovered. 최근 위치 인식 모바일 기기와 지도 인터페이스가 이용가능해짐에 따라, SNS 상에서 이용 가능한 지리위치 정보의 양이 급격히 증가하고 있다. 더구나 SNS 상에서의 지리 위치정보는 다양하고 많은 온라인 서비스에 이용되고 있다. 그러나 SNS 상에서의 기존의 데이터는 지리 위치 정보를 가지고 있지 않았다. 그러므로 현재 이 자원들을 위한 지리 위치 정보는 SNS 상에서의 빅데이터 시나리오 연구에 필수적이다. 이와 같은 배경에서, SNS 상에서의 지리 위치 태그가 된 사진으로부터 얻어지 사용자 태그를 활용하여 위치 설명을 추출하는데 기반하였으며, 지리 태그가 부착되어 있지 않은 자원을 위한 지리위치 정보를 생성해내는 새로운 방법을 만드는 동기를 부여했다. 이 연구는 유사성에 기반한 사진의 위치를 예측하는 알고리즘을 제안한다. 이 알고리즘은 사진에 표현된 태그와 학습데이터에서의 지리 위치 태그된 다른 자원과의 유사성에 기반하고 있다. 또한 예측 수행에 있어서 불균형 데이터의 영향은 해결되어야 할 과제이다. 이 문제는 다음과 같은 전처리 단계에서 해결했다. 1) 샘플링 방법 2) 소수 클래스에서의 속성수를 증가하는 인스턴스 가중치 부여 방법과 다수 클래스에서의 총 적용율을 감소시키는 방법. TFICF (Term Frequency and Invert Class Frequency) 라는 태그 값을 계산하는 새로운 방법. 그리고, 사례 연구로서 SNS 에서의 지리위치 태그된 자원을 사용하여 위치 랭킹을 함으로써 유명한 장소를 찾아내는 것을 목표로 하는 실험을 수행했다. 스마트 기기로부터 대량의 지리위치 태그된 자원을 이용하는데 있어서, 사용자에게 지능 위치 기반 서비스를 제공하는 것은 중요하다. 이 연구는 SNS 에서 지리위치 태그된 자원으로부터 수집된 위치 리스트를 찾아내는 랭킹 알고리즘을 제안한다. 확장된 HITS 알고리즘 (LocHITS) 을 사용하여 태그 세트와 위치 세트로 구성된 무방향 그래프를 활용하였으며, 위치와 태그 세트사이에서 의미 있는 관계를 발견하였다.
2.5D pose invariant face recognition using stereo camera
NAEEM MYRAH 세종대학교 대학원 2018 국내석사
지난 몇 년 동안 집중적으로 연구되어 성장한 정면 얼굴 인식과 비교할 때, 고정된 얼굴인식은 여전히 미해결 문제로 남아있다. 현재의 2차원 얼굴 인식 시스템은 발전하였으나, 포즈나 조명의 상황에 따라서 시스템의 성능이 감소시킨다. 특히 사영 변환이나, 자체 폐색으로 인한 포즈 변화로 얼굴 인식에 문제가 발생한다. 때문에 3차원 얼굴 인식은 얼굴 특징점을 표현 할 수 있기 때문에 2차원 얼굴 인식 문제점을 해결 할 수 있지만, 3차원 얼굴 인식 시스템은 여전히 포즈에 따른 한계점을 가지고 있다. 시스템 성능을 향상시키기 위해 서로 다른 인식 방법을 결합한 hybrid 방식을 도입하여 2차원과 3차원 방식의 보완적인 이점을 활용하고자 하였다. Hybrid 접근법은 기존 연구에서는 적게 다루어진 주제이지만, 어떤 단일의 고정된 얼굴 인식 방법보다 강력하고, 실제 포즈 변환 문제를 해결 하기 위한 경향이 있다. Multi System Camera, Range Camera, 혹은 3차원 Laser Camera 장비들은 얼굴 인식을 함에 있어서 가격이 비싸고 사용하기 어렵다. 때문에 3차원 카메라에서 획득한 3차원 데이터를 사용하여 얼굴 인식에 대한 몇 가지 3차원 얼굴 인식 방식이 보고되었다. 3차원 장비에서 데이터를 구하는 시간 보다 Stereo Camera에서 데이터를 구하는 시간이 짧게 걸리기 때문에 실제 응용할 때 큰 관심을 가지고 있다. 우리의 연구는 고정된 얼굴 인식을 위해 자동 hybrid algorithm을 제안한다. 특징점 추출은 3차원 범위 데이터에 mapping된 2차원 texture 이미지에 구현되어 해당 3차원 특징점을 인식한다. 신속하고 정확한 결과를 확신하기 위해서 2.5차원의 자체 데이터베이스를 활용하여 평가를 수행하였다. 또한 우리는 다른 고정된 얼굴 인식 알고리즘과 비교하여 더 좋은 인식률을 얻었다. Compared to frontal face recognition, which has been intensively studied and has gradually matured over the past few years, pose-invariant face recognition remains a major unsolved problem. Current 2D face recognition systems have progressed much but unfortunately in case of pose and illumination the system performances drop. They encounter problems in recognizing faces especially with large pose variations due to projective deformations and self-occlusion. Therefore, 3D face recognition was introduced to be a further evolution of 2D recognition problems across pose, because a more accurate representation of the facial features results in a higher discriminating power. Somehow, 3D face recognition systems still have some limitations across pose depending on certain circumstances. To increase system performances hybrid methods were introduced which combines different recognition approaches, aiming to make use of the complementary advantages of 2D and 3D methods. The hybrid approaches are less studied in the literature but tend to be more powerful than any single pose invariant face recognition method, and hold more promise for solving real-world pose variation problems. A few 3D face recognition approaches have been reported on face recognition using 3D data acquired by 3D cameras. This is because a multi camera system, range cameras or 3D laser scanner devices are highly expensive and difficult to use for 3D face recognition. Compared to the 3D facial scans captured by 3D devices, 2.5D scans from stereo camera are of great interest in real world applications due to its short image capturing time. The contribution of our work is a proposed a fully automatic hybrid algorithm for pose invariant face recognition using stereo camera. Feature point extraction is implemented on 2D texture images which are mapped on 3D range data to get corresponding 3D feature points for recognition. Evaluations are conducted for the proposed algorithm on 2.5D proprietary database to ensure fast and accurate results. We have obtained a better recognition rate in contrast to all other pose invariant face recognition methods.
르엉응옥투 Graduate School of Yeungnam University 2014 국내석사
기술의 발전을 위한 연구 커뮤니티의 발견은 중요한 주제이며, 많은 연구자들이 다양한 시도를 하였다. 연구문제는 어떻게 신진 연구자들에게 특정 분야의 전문가들을 발견하고 추천함으로서 효과적인 협력을 제공하고자 한다. 본 연구에서는 DBLP에서의 서지 데이터를 수집함으로서 공저 관계를 이용하여 의미있는 패턴을 예측할 수 있는 방법론을 제안한다. Discovering the research communities to bring techniques to the world is an interesting topic. There are many researchers in the world in various research fields. The problem is how a new researcher can find professionals in his interested field, or how to bring researchers sharing similar interest together to collaborate, or how to introduce to a researcher the conferences which are related to his research field. In this work we use the DBLP data to investigate the co-author relationship in a real bibliographic network and predict the interactions between co-authors. DBLP dataset contains information about papers published in various conferences and journals in computer science field. Based on these information, we can extracted information about an author: number of published papers, conferences that author submitted papers, keywords that author used in his paper titles, number of his collaborators... We also have same information about a conference: number of papers, number of authors, number of keywords in paper titles... From these information, we evaluated some methods to find potential co-authors for an existing author. The methods we used to find co-authors are similarity measures and random walk model. We then evaluate the results of those methods to decide the appropriate method. To recommend conferences for an author, or to find potential authors for an conference, we use ranking algorithms. A proposed ranking algorithm is used to compare with HITS algorithm. The authors or conferences are ranked based on their keywords. With a given set of keywords, we ranked authors who have keywords that match that set, and then we choose top authors to recommend. Ranking conferences is same. The contribution of this thesis can be useful for building a recommendation system.
사이버 보안에서 머신 러닝과 딥 러닝 알고리즘의 비교 연구
노룰로도프 올로비딘 동서대학교 일반대학원 2022 국내석사
인터넷의 발달로 네트워크 공격이 빠르게 변화하고 있으며 네트워크 보안 상황은 낙관적이지 않습니다. 네트워크 보안에서 주요 논의 영역은 침입 탐지 시스템(IDS)입니다. 적대적 활동으로부터 데이터를 보호하는 시스템은 여러 연구자에 의해 개발되고 있습니다. 그러나 연구자들은 현재 새로운 데이터 세트 생성 및 알고리즘 결합과 같은 학습 알고리즘의 다양한 용도를 찾고 있습니다. 결과적으로 우리는 침입 탐지 시스템, 공격 유형 등의 개념을 설명했습니다. 이 논문에서. 이 논문 보고서는 주요 기계 학습(ML) 문헌 검색에 대해 설명합니다. 각 ML/DL 방법에 대한 간단한 자습서와 함께 침입 감지를 위한 네트워크 분석을 위한 딥 러닝(DL) 방법. 각 방법을 제시하는 논문은 시간적 또는 시간적 관계에 따라 색인화되고 읽혀지고 요약됩니다. ML/DL 방법에서는 데이터가 매우 중요하기 때문에 ML/DL에서 사용되는 몇 가지 일반적인 네트워크 데이터 세트에 대해 논의하고, 네트워크 보안을 위해 ML/DL을 사용하는 문제에 대해 논의하고, 연구 방향에 대해 논의합니다. With the development of the Internet, network attacks are changing rapidly, and the network security situation is not optimistic. A key area of discussion in network security is Intrusion Detection Systems (IDSs). Systems to safeguard data from hostile activity are being developed by several researchers. However, researchers are presently looking into various uses for learning algorithms, like creating fresh datasets and combining algorithms. As a result, we have described the idea of an intrusion detection system, attack types…etc. in this thesis. This Thesis report describes the major Machine Learning (ML) literature searches. A Deep Learning (DL) method for network analysis for intrusion detection, along with a brief tutorial on each ML/DL method. The thesis presenting each method are indexed, read, and summarized according to temporal or temporal relationship. Since data is very important in ML/DL method, we have discussed some common network datasets used in ML/DL, discuss issues of using ML/DL for network security, and summary of the existing papers in AI, Deep learning, and Machine Learning with cybersecurity
아르온 한국교통대학교 일반대학원 2022 국내박사
Abstract Title : Distributed and Parallel OC-Tree Indexing Method for Massive Point Cloud Data Point clouds are often too large to fit into memory as a whole and therefore have to be processed using out-of-core algorithms. One possible out-of-core option is to split the data into multiple tiles and process one or a few tiles at a time. This approach works well for processing, but for visualizations it is often desired to display the whole data set and not only a few tiles at a time. Storing various levels of detail of the original model in a hierarchical space-partitioning data structure allows a point cloud renderer to quickly load and display the relevant parts of a point cloud. Regions that are close to the camera are rendered at a higher level of detail than distant regions, and regions that are outside of the view frustum are discarded entirely. Variations of OC-tree and Kd-tree are two popular space-partitioning structures for the rendering of large point clouds. Some variations store subsamples of the original point cloud. Others store the original data in leaf nodes and down sampled averages or the bounding volume of a subtree in inner nodes. We have chosen a structure that subsamples the original point cloud, because it does not create new points that require additional disk space, and because it allows users to do point picking and measurements on original, unaltered, data at any zoom level, without the need to wait until a leaf node is loaded. Problems of existing indexing methods are single system based algorithms, limits of storage and processing time. In this paper, we propose a fast indexing method for large amount of point cloud data in distributed and parallel environments. In order to obtain maximum parallelism, chunking is performed on the 3D point cloud. Then each chunk is distributed to multiple nodes, and indexing is performed on each chunk in parallel. Finally, the global index is constructed by merging the indexes for each created chunk. We implement the proposed indexing method based on Spark-Yarn and evaluate its performance through experiments. Contributions of this dissertation are first we want to perform Fast indexing method for large amount of point cloud data in Distributed and Parallel environments. Distributed and Parallel indexing and search method was implemented based on Apache Spark. Finally experiments have to show scalability. We compared single system method to our proposed method that distributed and parallel method. The experiment was done with 2.7 billion point cloud data on “Affandi” museum. We have shown that it is possible to generate fast OC-tree indexing for large 3D point clouds on the Distributed and Parallel environment, and over 3 billion points was executed in 9.6 minutes with high quality random sampling method. 10 thousand random point position search execution was over 3 minute.