http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
임재현,이준연,Lim, Jae-Hyun,Lee, Jun-Yeon 한국정보처리학회 2002 정보처리학회논문지 C : 정보통신,정보보안 Vol.9 No.6
본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다. This paper proposes a new access method which is to considered the high variability in World Wide Web and manage the web cache space. Instead of using a single cache, we divide a cache and store all documents according to their file types. Proposed method was compares with current cache management policies using LFU, LRU and SIZE base algorithm. Using two different workload, we show the improvement hitting ratio and byte hitting ratio through simulating on the file type caching.
임재현 ( Jae Hyun Lim ),김행수 ( Haeng Soo Kim ),황경주 ( Kyung Joo Hwang ),양정인 ( Jeong In Yang ),김미란 ( Mee Ran Kim ),이희종 ( Hee Jong Lee ),임종찬 ( Jong Chan Lim ),오기석 ( Kie Suk Oh ),유희석 ( Hee Sug Ryu ) 대한산부인과학회 2002 Obstetrics & Gynecology Science Vol.45 No.12
목적 : 체외수정시술에 의한 쌍태 임신과 자연 임신된 쌍태 임신의 산과적 합병증 및 주산기 예후를 알아보고자 하였다. 연구 방법 : 1994년 3월부터 2002년 2월까지 체외수정시술에 의한 쌍태 임신된 산모 206명 (체외수정군)과 자연 임신된 쌍태 임신 산모 229명 (자연군) 등 총 435명을 대상으로 임상적 특징 및 산과적 합병증과 주산기 사망률 등을 비교 조사하였다. 통계처리는 Student`s t-test, χ2 검정 또는 Fisher`s e Objective : To compare the obstetrical and perinatal outcomes of twin pregnancies after IVF-ET with those of twin pregnancies conceived spontaneously. Methods : Two hundred and six cases of IVF-ET twin pregnancies (IVF group) were compared with 229 sponta
모바일 기기를 이용한 환자 자동인식 시스템의 설계 및 구현
임재현(Lim, Jae-Hyun) 한국산학기술학회 2007 한국산학기술학회논문지 Vol.8 No.6
본 논문은 헬스케어 연구의 일환으로 병원 내의 EMR(Electronic Medical Record)을 지원할 수 있는 환자 자동인식 시스템의 설계 및 구현이다. 기존의 종이형 차트를 대신할 수 있으면서, 빠르고 정확한 환자 인식이 가능하고, 기존 EMR의 데이터베이스를 사용할 수 있는 모바일 기기 기반의 시스템을 개발하였다. 환자의 인식에는 RFID(Radio Frequency IDentified)를 사용하였으며, RFlD와 시스템의 연동을 통해 자동화 된 환자 인식이 가능하다. 개발된 시스템은 테스트 베드에서 테스트하여 기존 종이형 차트에 비해 빠른 진료가 가능함을 실험하였다. The purpose of this paper, as a part of healthcare research, is to design and development Patient-aware System that will support EMR(Electronic Medical Record) in hospital. A mobile device-based system that can use database of existing EMR, replace existing paper-type chart, and identify patient fast and correctly was developed. To identify patient, RFID(Radio Frequency Identification) Was used, and through interworking RFID and the system, it is possible to identify patient automatically. The developed system was tested in the test bed, and the possibility of faster diagnosis and treatment than existing paper-type chart was tested.
프락시 서버 성능 향상을 위한 화일 타입 기반 캐슁 기법
임재현(Jae Hyun Lim),김영찬(Young Chan Kim) 한국정보과학회 1998 정보과학회논문지 : 시스템 및 이론 Vol.25 No.8
웹 사용자의 수가 증가하여 서버에 대한 접속 횟수가 증가하고 있다. 이것은 망의 부하와 서버의 부하를 증가시킨다. 캐슁은 서버 화일의 복사본을 클라이언트에게 가까이 위치시켜 양쪽의 부하를 감소시킨다. 인터넷에는 다양한 화일 타입이 존재하며 화일 타입마다 평균 크기, 접근 횟수 등이 다르지만, 현재 인터넷 캐슁은 모든 화일의 특성을 고려하지 않고 동일하게 처리한다. 본 논문에서는 모든 화일에 대해 통합된 캐쉬를 사용하는 것 대신에 화일 타입별로 캐쉬를 사용하는 전략을 제안한다. 이를 위해 사용자의 접근 패턴을 분석하여 타입별로 캐쉬를 분할하였다. 실험에 따르면 타입별 캐쉬를 사용한 것이 적중률과 가중치 적중률을 향상시키고, 캐쉬의 크기는 감소시켰다. As the number of WWW users grows, so does the number of connections made to servers. This increases both network load and server load Internet caching can reduce server load and net work traffic by migrating copies of server flies closer to the clients that use those files. Various types of files exist in Internet and different types of files have different average size, the number of access, and so on. In the present Internet cache system, all the files are treated the same without considering their type characteristics. This paper proposed a caching strategy based on file type that uses different cache for different types of files instead of using a unified cache for all files. For this, first, user access pattern is analysed and upon the analysed data, the cache is partitioned according to file types. According to this experiment, using the type cache system instead of the unified cache increases the cache hit ratio and the weighted hit ratio, and decreases the cache size.