RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 학위유형
        • 주제분류
        • 수여기관
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 지도교수
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • Secure Sharing of Health Data Over Cloud : 클라우드 시스템을 이용한 개인 건강데이터의 보안 공유기법

        알암리파하드 Yeungnam University graduation school 2015 국내석사

        RANK : 249647

        클라우드 컴퓨팅은 차세대 IT기술 인프라의 중요한 주제이다. 이를 통하여 대량의 데이터를원격에서 접근 가능케하고 다양한 응용 서비스를 제공한다. 그 중에서도 특히 요즘은 보다 향상된 의료 서비스와 비용을 낮추기 위하여 건강관리에 관련된 정보를 많이 활용하고 있다. 따라서 이러한 자료들은 저장하고 가공하고, 관리하기 위하여 일반적인 IT 정보 제공자를 많이 활용하고 있다. 물론 이러한 클라우드 시스템을 도입하게 되면 데이터의 소유자와 사용자들의 편의성과 비용을 줄여주는 효과가 있지만, 개인들의 님감한 정보가 원하지 않게 사용되거나 악용될 소지가 있다. 클라우드 시스템을 통한 외부 지원이 활성화 됨에 따라 개인적인 데이터나 건강관련 데이터 등 민감한 정보들이 포함되게 된다. 따라서 민감한 개인정보들은 임호화하여 클라우드 시스템 게시되어야 하고 그것의 사용에 제한이 있어야 한다. 즉, 민감한 데이터 자체의 비밀 유지 뿐만 아니라 데이터 처리과 정도 비밀이 유지되도록 하는 시스템이 필요하며 본 연구에서는 이러한 시스템을 제안한다. 성능평가를 통하여 제안된 시스템의 유용성을 검증한다. Cloud computing is now considered as a next generation infrastructure of IT technologies, providing convenient remote access to massively data storage and application services. Especially, modern information technology is increasingly used in healthcare with the goal to improve and enhance medical services and to reduce costs. In this context, the outsourcing of computation and storage resources to general IT providers (cloud computing) has become very appealing . However, while this outsourced storage and computing paradigm can potentially bring great economical savings for data owners (hospitals) and users (patients), its benefits may not be fully realized due to wide concerns of data owners that their private data may be involuntarily exposed or handled by cloud providers. As cloud computing is becoming more mature data outsourcing in public cloud is also gaining momentum including sensitive information like personal data, health data, media files and government documents. For sensitive data which is outsourced in public cloud, its encrypted uploads are recommended thus narrowing its utility scope in terms of processing and evaluation. To evaluate user requests obliviously on public cloud over sensitive encrypted data, we have formalized a system which protects not only the privacy of data but also the evaluation process that is carried on the public cloud. Throughout the system execution the cloud server will learn nothing useful except the reply cardinality.

      • IMed-CNN: An Ensemble Learning Approach with Systematic Model Dropout for Enhanced Medical Image Classification Using Image Channels and Pixel Intervals Major in Computer Engineering Musaev Javokhir Sanokul Ugli

        무사에브자보키르 영남대학교 대학원 2024 국내박사

        RANK : 249647

        This IMed-CNN, a groundbreaking deep learning framework, is specifically designed for the precise diagnosis of knee diseases and lung cancer using ad- vanced medical imaging techniques. Representing a significant leap forward in the domain of medical image analysis, this framework synergizes cutting-edge deep learning methodologies with detailed data preprocessing, markedly enhanc- ing the accuracy and precision of medical diagnostics. The IMed-CNN model is structured around two pivotal phases: meticulous data preprocessing and compre- hensive model training. The preprocessing phase is multi-faceted, incorporating both channel-based and pixel-based techniques. The channel-based approach in- volves decomposing image data into distinct color channels, specifically red, green, and blue, enabling a more nuanced analysis of the image data. In contrast, the pixel-based preprocessing utilizes a thresholding technique to accentuate criti- cal image features, thereby refining the raw medical data into a format that is optimally suited for deep learning analysis. IMed-CNN’s architecture is an innovative ensemble of several convolutional neural networks (CNNs), each uniquely trained on different forms of preprocessed data. This architecture is comprised of a series of convolutional layers, integrated with batch normalization and max pooling, culminating in a series of fully con- nected layers. Crucial to this architecture is the implementation of a system- atic model dropout ensemble (SMDE) and an analysis of unique true predictions (UTP). These elements play a critical role in the model selection process, signif- icantly enhancing the framework’s diagnostic capabilities. The robustness of the IMed-CNN framework was rigorously tested across a diverse array of ten different datasets, which included challenging datasets like the LC25000 Lung and colon histopathological image dataset and the KneeMRI dataset. These datasets en- compass a broad spectrum of medical imaging challenges, ranging from intricate histopathological images to complex MRI data. In evaluating the IMed-CNN framework, it was benchmarked against various established baseline models, em- ploying metrics such as accuracy, precision, recall, and AUC scores. The results from these comprehensive evaluations demonstrated that the IMed-CNN frame- work significantly outperforms existing pretrained models, showcasing exceptional prowess in identifying knee diseases and lung cancer with heightened precision and accuracy. A novel aspect of this research is the strategic application of pixel-based eval- uation during the model training process. This method involves categorizing test images into distinct subsets based on their pixel intensity values and subsequently evaluating the model’s performance across these varying subsets. This innovative approach is instrumental in identifying any potential biases or dependencies the model may have on specific pixel intensity ranges. Such an evaluation ensures the development of a holistic and reliable diagnostic tool. The IMed-CNN framework marks a major milestone in the realm of medical image analysis. By amalga- mating advanced deep learning techniques with sophisticated data preprocessing methodologies, it establishes a new benchmark for accuracy, reliability, and effi- ciency in medical diagnostics. This research not only demonstrates the immense potential and applicability of deep learning in medical diagnostics but also sets the stage for future advancements and innovations in this rapidly evolving field. xviii

      • A Parallel Approach to Perform Threshold Value Analysis and Verification o f Genetic Logic Circuit Models

        사나울라 조선대학교 대학원 2020 국내석사

        RANK : 249647

        합성생물학은 공학자와 생물학자들이 생물학적 부품, 시스템, 장치를 만들기 위해 함께 연구하고있는 융합연구분야로서, 합성생물시스템에서는 유전자 논리회로가 핵심적 역할을 한다. 유전자 논리회로는 세포 내 생체회로에서 발생하는 논리함수를 구현한다. 유전자 회로의 설계는 일반적으로 그들의 수학적 모델을 시뮬레이션하고 회로가 이에 따라 적절하게 반응하는지 여부를 식별하는 것으로, 전자회로에 비해 유전자 회로는 비결정론적 행동을 보여서 특징짓기가 훨씬 어렵다. 유전자 회로는 체외 실험(in-vitro)으로 설계되고 실험된다. 이 과정은 실험 기구를 세심하게 다루는 등 매우 지루한 설계 흐름이 특징이다. 이러한 연유로, 컴퓨터 모형을 활용한 유전자 회로의 모델링, 시뮬레이션 및 테스트를 수행하는 몇 가지 설계방식이 그동안 제안되었다. 컴퓨터 모형의 계산 도구는 설계 프로세스를 가속화하고 사람의 실수를 줄이는 데 도움이 된다. 이에 더 나아가서, 가상의 실험실에서 사용자가 시밀레이션 중에 투입되는 특정 농도를 변경하고 이의 영향을 런타임 중에 관찰할 수 있는, 동적 회로 시뮬레이션을 제공할 수 있다면, 매우 유용할 것이다. D-VASim은 사용자가 시뮬레이션 중에 단백질 농도 투입을 동적으로 변경할 수 있는 기능을 제공하는 첫 번째 설계도구이다. 이를 통하여, 회로 설계의 프로세스를 더욱 가속화할 수 있고, 보다 빠른 프로토타이핑이 가능하였다. 유전자 회로의 임계값 분석은 시뮬레이션과 논리 검증 이전의 기본적인 단계로서, D-VASim은 유전자 회로의 임계값 및 타이밍 분석을 위한 알고리즘을 구현하였지만, 알고리즘의 병렬화를 고려하지는 않아서, D-VASim 은 유전자 회로의 문턱값(임계값) 분석과 검증 시간이 여전히 충분히 빠르지 못하다는 문제가 있었다. 본 논문에서는, D-VASim의 고속처리를 위하여, 유전자 회로 문턱값 분석 및 검증의 병렬처리 기법을 제시한다. 이와 더불어, 추정된 문턱값으로 유전자 논리회로 결과값이 유지되고, 안정화될 수 있도록 알고리즘을 수정하였으며, 이를 시밀레이션을 통하여 확인하였다. 또, D-VASim에서 동일한 매개변수를 사용하는 경우, 시뮬레이션 실행 시간의 편차가 감소될 수 있도록, 알고리즘을 수정하였다. NOT 논리회로의 경우, 본 논문에서 제시한, 유전자 회로의 임계값 및 타이밍 분석을 위한 알고리즘의 병렬처리는 기존의 방식보다 16배 빠른 속도로 처리하였으며, 본 논문에서 제시한 이러한 기법들은 D-VASim의 고속처리를 가능하게 하여, 이의 효용성을 크게 개선하였다. Synthetic biology is an area of research where researchers in engineering and biology are synergetically working to create biological parts, systems, and devices. At the heart of a synthetic biological system exist genetic logic circuits. Such circuits seek to implement desired logic functions inside a biological cell. The design of gene circuits commonly requires simulating their mathematical models and to identify whether or not the circuit is reacting appropriately. Compared to electronic circuits, genetic circuits show a non-deterministic behavior and are therefore much harder to characterize. Normally, genetic circuits are designed and experimented with in-vitro. This process is characterized by a very tedious design-flow including careful handling of the apparatus. To which end, several approaches have been designed to enable modeling, simulation, and testing of gene circuits in-silico. The computational tools accelerate the design process and help reduce human error in the process. It is obviously useful to have a computational tool that enables all of the above in addition to providing a lab-like dynamic circuit a simulation where specie concentrations could be modified and their effect observed on run-time. D-VASim is the first tool to provide this functionality where users can change the input protein concentrations during the simulation. This enables faster prototyping of the circuit design and further accelerates the circuit design process. A fundamental step before the simulation of a genetic circuit is its threshold value estimation. D-VASim implements an algorithm for threshold value and timing analyses of genetic circuits. However, a parallel implementation of the algorithm can reduce the computation time of D-VASim which becomes even more necessary when it is known that D-VASim can still take up to hours for processing complex genetic circuits. In this thesis, we propose a parallel approach for faster threshold value analysis and verification of genetic logic circuits. We also modify the algorithm to reduce inconsistencies in the output species concentration. The estimated threshold value is now more accurate which can be seen from experimentation for long simulation runtimes. We introduce further modifications to reduce the deviation in the algorithm runtimes across multiple simulations runs at the same parameter settings. Overall, with the proposed modifications to D-VASim, its usability has considerably improved and the threshold value and timing analysis algorithm are now significantly faster as in the case of NOT gate by up to 16 times.

      • A Statistical Approach for Figurative Sentiment Analysis on Twitter

        Nguyen Hoang Long Graduate School of Yeungnam University 2016 국내석사

        RANK : 249631

        Sentiment analysis is a natural language processing task aims to identify the polarity of a given text. In case of figurative language and short-social media text, the work becomes even more challenge. In this work, I present an approach that analyzes the sentiment of figurative language contained in short texts collected from Twitter, a case study of Social Network Services (SNS) Data. This case study sources information from tweets on Twitter and classifies the polarity of the figurative language with three categories: sarcastic, ironic, and metaphorical using 11 point sentiment scale from -5 (maximal negativity, extreme discontent) to 5 (maximal positivity, extreme pleasure), including 0 (positive and negative sentiment is equally balanced). As in Medhat et al [2014], many related works have used Lexicon-based Approach (dictionary-based, or corpus-based approach), and Machine Learning Approach (decision tree, linear, rule-based, or probabilistic classifiers) to extract sentiment. The focus of this thesis is different from them in that I propose a Statistical Approach that makes use of two main features: i) Content-based Approach, and ii) Emotion Pattern-based Approach. I believe that this combination offers a general method to solve the current problem. The proposed algorithm is evaluated over Test sets that contains about 5,000 tweets. The results show that FIS Model (Figurative sentiment Identification using Statistical-based Model) (Nguyen et al [2015]) works well with figurative tweets with a highest achievement of 0.7813 using Cosine similarity measurement. The contribution of my thesis can be useful for many fields (e.g., determine marketing strategy, improve campaign success, improve product messaging, and improve customer service). 자연 언어 처리에서 정서 분석은 주어진 글에 대해 그 글이 긍정적인 의미를 갖는지 혹인 부정적인 의미를 갖는지를 식별하는 것을 목적으로 한다. 특히, 비유적 표현이 많은 글이나 단문의 소셜 미디어 텍스트에서 이는 난해한 문제이다. 본 논문에서는 사회관계망 서비스에서 수집된 단문들에 포함된 비유적 표현들의 정서를 분석하기 위한 새로운 접근법을 제안하며, 트위터에서의 사례 연구를 통해 이를 검증한다. 본 사례 연구에서는 트위터에서 수집된 트윗들을 내포하고 있는 정서에 따라 풍자적, 반어적, 은유적 표현으로 분류한다. 이 분류는 11단계로 구성된 정서 수치를 바탕으로 수행된다. 이 정서 수치는 -5에서 5의 값을 가지며, -5일 경우 가장 부정적인 의미를 5일 경우 가장 긍정적인 의미를 포함하는 것을 의미하며 0일 경우 긍정적인 의미와 부정적인 의미가 균등하게 포함되어 있음을 의미한다. Medhat et al [2014] 등의 연구에서 볼 수 있듯이 자연 언어에서 정서를 추출하고자 하는 연구들은 사전이나 말뭉치에 기반을 둔 단어 기반 접근법들과 의사결정나무, 선형분류, 규칙기반 분류, 확률적 분류에 바탕을 둔 기계 학습 기반 접근법들을 주로 사용해 왔다. 본 논문의 기존 연구들과의 가장 큰 차이점은 내용기반 접근과 감정 패턴기반 접근이라는 통계적 접근에 기반한 두 가지 새로운 특징 요소들을 사용한다는 것이다. 위 두 가지 특징 요소를 결합한 형태의 새로운 알고리즘은 본 논문에서 제시하는 실험환경뿐만 아니라 다양한 환경에서 정서 분석 기법들의 문제점들을 해결할 수 있을 것으로 보여진다. 제안하는 알고리즘은 약 5천개 가량의 트윗을 포함한 실험 데이터를 바탕으로 검증되었으며, 그 결과는 제안하는 알고리즘인 FIS(Figurative sentiment Identification using Statistical-based Model)(Nguyen et al [2015]) 모델이 코사인 유사도를 통한 평가에서 비유적인 트윗들에 대해 0.7813의 수치를 보여 기존의 기법들보다 개선된 성능을 보임을 증명한다. 본 논문에서 제안하는 모델은 마케팅 전략에 대한 의사 결정, 선거 캠페인에 대한 분석, 고객 서비스 개선 등 다양한 분야에 활용될 수 있을 것으로 보여진다.

      • Discovering Co-authoring Patterns by Integrating Multiple Similarities from Bibliographic Data : 서지 데이터의 다중 유사도 통합을 통한 공저 패턴 발견

        르엉응옥투 Graduate School of Yeungnam University 2014 국내석사

        RANK : 249631

        기술의 발전을 위한 연구 커뮤니티의 발견은 중요한 주제이며, 많은 연구자들이 다양한 시도를 하였다. 연구문제는 어떻게 신진 연구자들에게 특정 분야의 전문가들을 발견하고 추천함으로서 효과적인 협력을 제공하고자 한다. 본 연구에서는 DBLP에서의 서지 데이터를 수집함으로서 공저 관계를 이용하여 의미있는 패턴을 예측할 수 있는 방법론을 제안한다. Discovering the research communities to bring techniques to the world is an interesting topic. There are many researchers in the world in various research fields. The problem is how a new researcher can find professionals in his interested field, or how to bring researchers sharing similar interest together to collaborate, or how to introduce to a researcher the conferences which are related to his research field. In this work we use the DBLP data to investigate the co-author relationship in a real bibliographic network and predict the interactions between co-authors. DBLP dataset contains information about papers published in various conferences and journals in computer science field. Based on these information, we can extracted information about an author: number of published papers, conferences that author submitted papers, keywords that author used in his paper titles, number of his collaborators... We also have same information about a conference: number of papers, number of authors, number of keywords in paper titles... From these information, we evaluated some methods to find potential co-authors for an existing author. The methods we used to find co-authors are similarity measures and random walk model. We then evaluate the results of those methods to decide the appropriate method. To recommend conferences for an author, or to find potential authors for an conference, we use ranking algorithms. A proposed ranking algorithm is used to compare with HITS algorithm. The authors or conferences are ranked based on their keywords. With a given set of keywords, we ranked authors who have keywords that match that set, and then we choose top authors to recommend. Ranking conferences is same. The contribution of this thesis can be useful for building a recommendation system.

      • 2.5D pose invariant face recognition using stereo camera

        NAEEM MYRAH 세종대학교 대학원 2018 국내석사

        RANK : 249631

        지난 몇 년 동안 집중적으로 연구되어 성장한 정면 얼굴 인식과 비교할 때, 고정된 얼굴인식은 여전히 미해결 문제로 남아있다. 현재의 2차원 얼굴 인식 시스템은 발전하였으나, 포즈나 조명의 상황에 따라서 시스템의 성능이 감소시킨다. 특히 사영 변환이나, 자체 폐색으로 인한 포즈 변화로 얼굴 인식에 문제가 발생한다. 때문에 3차원 얼굴 인식은 얼굴 특징점을 표현 할 수 있기 때문에 2차원 얼굴 인식 문제점을 해결 할 수 있지만, 3차원 얼굴 인식 시스템은 여전히 포즈에 따른 한계점을 가지고 있다. 시스템 성능을 향상시키기 위해 서로 다른 인식 방법을 결합한 hybrid 방식을 도입하여 2차원과 3차원 방식의 보완적인 이점을 활용하고자 하였다. Hybrid 접근법은 기존 연구에서는 적게 다루어진 주제이지만, 어떤 단일의 고정된 얼굴 인식 방법보다 강력하고, 실제 포즈 변환 문제를 해결 하기 위한 경향이 있다. Multi System Camera, Range Camera, 혹은 3차원 Laser Camera 장비들은 얼굴 인식을 함에 있어서 가격이 비싸고 사용하기 어렵다. 때문에 3차원 카메라에서 획득한 3차원 데이터를 사용하여 얼굴 인식에 대한 몇 가지 3차원 얼굴 인식 방식이 보고되었다. 3차원 장비에서 데이터를 구하는 시간 보다 Stereo Camera에서 데이터를 구하는 시간이 짧게 걸리기 때문에 실제 응용할 때 큰 관심을 가지고 있다. 우리의 연구는 고정된 얼굴 인식을 위해 자동 hybrid algorithm을 제안한다. 특징점 추출은 3차원 범위 데이터에 mapping된 2차원 texture 이미지에 구현되어 해당 3차원 특징점을 인식한다. 신속하고 정확한 결과를 확신하기 위해서 2.5차원의 자체 데이터베이스를 활용하여 평가를 수행하였다. 또한 우리는 다른 고정된 얼굴 인식 알고리즘과 비교하여 더 좋은 인식률을 얻었다. Compared to frontal face recognition, which has been intensively studied and has gradually matured over the past few years, pose-invariant face recognition remains a major unsolved problem. Current 2D face recognition systems have progressed much but unfortunately in case of pose and illumination the system performances drop. They encounter problems in recognizing faces especially with large pose variations due to projective deformations and self-occlusion. Therefore, 3D face recognition was introduced to be a further evolution of 2D recognition problems across pose, because a more accurate representation of the facial features results in a higher discriminating power. Somehow, 3D face recognition systems still have some limitations across pose depending on certain circumstances. To increase system performances hybrid methods were introduced which combines different recognition approaches, aiming to make use of the complementary advantages of 2D and 3D methods. The hybrid approaches are less studied in the literature but tend to be more powerful than any single pose invariant face recognition method, and hold more promise for solving real-world pose variation problems. A few 3D face recognition approaches have been reported on face recognition using 3D data acquired by 3D cameras. This is because a multi camera system, range cameras or 3D laser scanner devices are highly expensive and difficult to use for 3D face recognition. Compared to the 3D facial scans captured by 3D devices, 2.5D scans from stereo camera are of great interest in real world applications due to its short image capturing time. The contribution of our work is a proposed a fully automatic hybrid algorithm for pose invariant face recognition using stereo camera. Feature point extraction is implemented on 2D texture images which are mapped on 3D range data to get corresponding 3D feature points for recognition. Evaluations are conducted for the proposed algorithm on 2.5D proprietary database to ensure fast and accurate results. We have obtained a better recognition rate in contrast to all other pose invariant face recognition methods.

      • 사이버 보안에서 머신 러닝과 딥 러닝 알고리즘의 비교 연구

        노룰로도프 올로비딘 동서대학교 일반대학원 2022 국내석사

        RANK : 249631

        인터넷의 발달로 네트워크 공격이 빠르게 변화하고 있으며 네트워크 보안 상황은 낙관적이지 않습니다. 네트워크 보안에서 주요 논의 영역은 침입 탐지 시스템(IDS)입니다. 적대적 활동으로부터 데이터를 보호하는 시스템은 여러 연구자에 의해 개발되고 있습니다. 그러나 연구자들은 현재 새로운 데이터 세트 생성 및 알고리즘 결합과 같은 학습 알고리즘의 다양한 용도를 찾고 있습니다. 결과적으로 우리는 침입 탐지 시스템, 공격 유형 등의 개념을 설명했습니다. 이 논문에서. 이 논문 보고서는 주요 기계 학습(ML) 문헌 검색에 대해 설명합니다. 각 ML/DL 방법에 대한 간단한 자습서와 함께 침입 감지를 위한 네트워크 분석을 위한 딥 러닝(DL) 방법. 각 방법을 제시하는 논문은 시간적 또는 시간적 관계에 따라 색인화되고 읽혀지고 요약됩니다. ML/DL 방법에서는 데이터가 매우 중요하기 때문에 ML/DL에서 사용되는 몇 가지 일반적인 네트워크 데이터 세트에 대해 논의하고, 네트워크 보안을 위해 ML/DL을 사용하는 문제에 대해 논의하고, 연구 방향에 대해 논의합니다. With the development of the Internet, network attacks are changing rapidly, and the network security situation is not optimistic. A key area of discussion in network security is Intrusion Detection Systems (IDSs). Systems to safeguard data from hostile activity are being developed by several researchers. However, researchers are presently looking into various uses for learning algorithms, like creating fresh datasets and combining algorithms. As a result, we have described the idea of an intrusion detection system, attack types…etc. in this thesis. This Thesis report describes the major Machine Learning (ML) literature searches. A Deep Learning (DL) method for network analysis for intrusion detection, along with a brief tutorial on each ML/DL method. The thesis presenting each method are indexed, read, and summarized according to temporal or temporal relationship. Since data is very important in ML/DL method, we have discussed some common network datasets used in ML/DL, discuss issues of using ML/DL for network security, and summary of the existing papers in AI, Deep learning, and Machine Learning with cybersecurity

      • 대용량 포인트 클라우드 데이터에 대한 분산 및 병렬 OC-Tree 색인 방법 : Distributed and Parallel OC-Tree Indexing Method for Massive Point Cloud Data

        아르온 한국교통대학교 일반대학원 2022 국내박사

        RANK : 249631

        Abstract Title : Distributed and Parallel OC-Tree Indexing Method for Massive Point Cloud Data Point clouds are often too large to fit into memory as a whole and therefore have to be processed using out-of-core algorithms. One possible out-of-core option is to split the data into multiple tiles and process one or a few tiles at a time. This approach works well for processing, but for visualizations it is often desired to display the whole data set and not only a few tiles at a time. Storing various levels of detail of the original model in a hierarchical space-partitioning data structure allows a point cloud renderer to quickly load and display the relevant parts of a point cloud. Regions that are close to the camera are rendered at a higher level of detail than distant regions, and regions that are outside of the view frustum are discarded entirely. Variations of OC-tree and Kd-tree are two popular space-partitioning structures for the rendering of large point clouds. Some variations store subsamples of the original point cloud. Others store the original data in leaf nodes and down sampled averages or the bounding volume of a subtree in inner nodes. We have chosen a structure that subsamples the original point cloud, because it does not create new points that require additional disk space, and because it allows users to do point picking and measurements on original, unaltered, data at any zoom level, without the need to wait until a leaf node is loaded. Problems of existing indexing methods are single system based algorithms, limits of storage and processing time. In this paper, we propose a fast indexing method for large amount of point cloud data in distributed and parallel environments. In order to obtain maximum parallelism, chunking is performed on the 3D point cloud. Then each chunk is distributed to multiple nodes, and indexing is performed on each chunk in parallel. Finally, the global index is constructed by merging the indexes for each created chunk. We implement the proposed indexing method based on Spark-Yarn and evaluate its performance through experiments. Contributions of this dissertation are first we want to perform Fast indexing method for large amount of point cloud data in Distributed and Parallel environments. Distributed and Parallel indexing and search method was implemented based on Apache Spark. Finally experiments have to show scalability. We compared single system method to our proposed method that distributed and parallel method. The experiment was done with 2.7 billion point cloud data on “Affandi” museum. We have shown that it is possible to generate fast OC-tree indexing for large 3D point clouds on the Distributed and Parallel environment, and over 3 billion points was executed in 9.6 minutes with high quality random sampling method. 10 thousand random point position search execution was over 3 minute.

      • Real-Time Sign Language Recognition System based on Multiple CNNs using TSM Block and Attention Mechanism

        Hong Minh Duc 전남대학교대학원 2023 국내석사

        RANK : 249631

        According to the World Health Organization(WHO), approximately 466 million people worldwide suffer from hearing loss, of whom 34 million are children. Sign language(SL) is the most effective bridge between hearing-impaired people and the outside world. But the conventional SL recognition system is so inefficient and inconvenient that it is necessary to develop a good SL recognition system. This dissertation proposes a Real-time Sign Language Recognition system(R-SLR) which is composed of Two Stream Mixed block(TSM), multiple CNN structure, attention-based CNN method, and Accuracy-based Weighted Voting(AWV) algorithm. The TSM block increases the expression of motion information for dynamic gestures by the addition operation of two time streams in the feature maps level, which helps the model more accurately recognize the dynamic gestures. The multiple CNN structure as a feature extraction step obtains more accurate information of the gestures to reduce the effects of various background environments. The attention-based CNN method gives higher attention weights to the feature maps of the gestures and increases the accuracy for the images with different angles. Finally, the AWV algorithm classifies the images by using a new dataset built by considering the prediction probabilities and accuracies of each attention-based CNN model for 29 classes. A new real-time ASL dataset, ASL-CR(Chonnam Real-time ASL), are generated which have 27 static and 2 dynamic gesture classes with different angles and backgrounds. The proposed R-SLR model achieves 99.43% accuracy for ASL-CR dataset. In the future, better sign language recognition system is necessary for hearing-impaired people and the research on developing more accurate and faster real-time ASL recognition system will be done. 세계보건기구(WHO)에 따르면, 전 세계적으로 약 4억 6천 6백만 명의 사람들이 청력 손실을 겪고 있으며, 그 중 3천 4백만 명이 어린이이다. 수화(SL)는 청각 장애인과 외부 세계 사이의 가장 효과적인 가교이다. 그러나 종래의 SL 인식 시스템은 비효율적이고 불편하므로 우수한 수화인식 시스템의 개발이 필요하다. 본 논문에서는 두 스트림 혼합 블록(TSM : Two Stream Mixed Block), 다중 CNN 구조, 어텐션기반 CNN (Attention-based CNN) 방법과 정확도 기반 가중치 보팅(AWV : Accuracy-based Weighted Voting) 알고리즘으로 구성된 실시간 수화인식 시스템 R-SLR(Real-time Sign Language Recognition System)을 제안한다. TSM 블록은 특징맵 수준에서 두 시간 스트림의 덧셈 연산에 의해 움직임 정보를 증가시켜 동적 정보를 더 정확하게 인식하도록 도와준다. 특징 추출 단계에서 다중 CNN 구조는 다양한 배경의 영향을 줄여 제스처의 더 정확한 정보를 얻는다. 어텐션 기반 CNN 구조는 제스처의 특징맵에 어텐션 가중치를 주어 다른 각도를 가진 이미지에 대한 정확도를 증가시킨다. 마지막으로 AWV 알고리즘은 29개의 클래스에 대하여 예측 확률과 각 어텐션기반 CNN 모델의 정확도를 고려하여 생성된 새로운 데이터세트를 사용하여 이미지를 분류한다. 다른 각도와 배경을 가진 27 개의 정적 제스처와 2 개의 동적 제스처로 구성된 새로운 실시간 ASL 데이터세트(ASL-CR)가 생성된다. 제안된 R-SLR 시스템은 ASL-CR에 대하여 99.43%의 정확도를 달성하였다. 미래에 청각 장애인들을 위하여 더 우수한 수화 인식 시스템이 필요하며, 더 정확하고 빠른 실시간 ASL 인식 시스템 개발에 관한 연구가 수행될 것이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼