RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 중력자료 융합을 위한 하향연속 방법론 비교 분석

        백경민 서울시립대학교 일반대학원 2014 국내석사

        RANK : 247615

        일반적으로 지역적인 지오이드 모델을 구축하기 위해서는 해당 지역의 다양한 중력자료를 융합하는 과정을 거쳐야 하며, 이 중 항공 중력자료를 지오이드면 상의 값으로 환산하는 하향연속은 중력자료 융합에 있어 가장 중요한 과정이다. 이 때, 두 자료의 지형효과가 상이하기 때문에 하향 연속을 수행하기 전에 지형효과가 제거되어야 하며, 제거된 지형효과는 특성상 기존 하향연속 방법을 적용한 결과를 신뢰할 수 없으므로 적합한 하향연속 방법을 선정하는 것이 필요하다. 따라서 본 연구에서는 지형 효과의 하향연속 방법을 선정하고, 이로부터 부게이상값 및 잔여중력이상값의 하향연속 방법을 도출하였다. 하향연속 방법의 검증을 위하여 범지구중력장 모델 EGM2008과 국토지리정보원의 지형자료로부터 각각 저고도 및 고고도에서의 프리에어이상값, 장파장 효과, 지형효과, 부게이상값, 잔여중력이상값을 산출하였다. 지형효과의 하향연속 방법을 선정하기 위하여 기존 하향연속 방법인 최소제곱콜로케이션, 고속 푸리에 변환, 그리고 새로운 방법인 테일러 전개식을 이용하여 고고도에서의 지형효과를 하향연속하고 이를 저고도에서의 지형효과와 비교하였다. 그 결과 테일러 전개식을 이용하여 하향연속하였을 때 Direct Topographic Effect에 의한 지형효과의 경우 다른 방법에 비하여 정밀한 결과를 나타내었으며, RTM 방법으로 계산한 지형효과는 결과에 일관성이 있는 것으로 나타났다. 따라서 지형효과의 하향연속에 적합한 방법으로 테일러 전개식을 이용한 방법을 선정하였다. 따라서 저고도에서의 부게이상값과 잔여중력이상값을 구하는 방법으로 각 자료를 하향연속한 후 이로부터 부게이상값, 잔여중력이상값을 구하는 것이 정밀할 수 있다고 판단하였다. 부게이상값의 경우 프리에어이상값은 최소제곱콜로케이션, 지형효과는 테일러 전개식으로 하향연속한 후 이로부터 저고도에서의 값을 구하였으며 그 결과 Direct Topographic Effect에 의한 지형효과를 적용한 경우 정밀도가, RTM 방법을 적용한 경우 범위가 작게 나타나 각각 하향연속하는 것이 정밀하거나 일관성이 있는 것으로 나타났다. 잔여중력이상값 또한 프리에어이상값에서 장파장 효과를 제거한 값은 최소제곱콜로케이션, 지형효과는 테일러 전개식으로 하향연속한 결과가 잔여중력이상값을 직접 하향연속한 결과에 비하여 보다 정밀(Direct Topographic Effect에 의한 지형효과 적용 시)하거나 일관성(RTM 방법에 따른 지형효과 적용 시)이 있는 것으로 나타났다. 따라서 부게이상값과 잔여중력이상값은 지형효과를 별도로 하향연속하는 것이 정밀한 것으로 확인되었다. 향후 실제 자료에 이 방법을 적용하여 정밀도를 검증할 필요가 있으며, 지오이드 계산 시에 이를 적용하여 지오이드 모델의 정밀도에 미치는 영향을 분석할 필요가 있다. To develop the local geoid model, the combination of various gravity data in corresponding area is needed. Especially, airborne gravity data should be downward continued and converted to the value at 0m for geoid computation. Before conducting downward continuation, topographic effects have to be removed from airborne and ground gravity data because topographic effect of each data is different. Also, topographic effect should be downward continued through new method rather than existing one such as Least Square Collocation(LSC) and Fast Fourier Transform(FFT). In this study, downward continuation method for topographic effect was determined. From this, precise method computing downward continued Bouguer anomaly and residual gravity anomaly was derived. For verification of downward continuation method, free-air anomaly, low-frequency effect, topographic effect, Bouguer anomaly and residual gravity anomaly at high(6000m) and low(3000m) altitude is calculated from global gravitational model EGM2008 and DEM of National Geographic Information Institute. To determine downward continuation method of topographic effect, topographic effect at 6000m was downward continued to 3000m through LSC, FFT and Taylor expansion and each downward continued topographic effect was compared to the value of 3000m. When topographic effect calculated by complete Bouguer reduction was downward continued, the result using Taylor expansion was the most precise. In case of downward continued topographic effect calculated by residual terrain model reduction, the result applied Taylor expansion showed the narrowest range of differences. Therefore, for downward continuation of topographic effect, method using Taylor expansion was determined. From this, new method computing downward continued Bouguer and residual gravity anomaly is considered. For calculating Bouguer anomaly at low altitude, Downward continued free-air anomaly by LSC and topographic effect by Taylor expansion used. Similarly, downward continued residual gravity anomaly was computed from downward continued free-air anomaly and low-frequency effect by LSC and topographic effect by Taylor expansion. As a result, the value from downward continuing each data separately was more precise than result from downward continuing Bouguer and residual gravity anomaly at high altitude. Therefore, when computing downward continued Bouguer and residual gravity anomaly, each data has to be downward continued separately. After this study, precision of this method should be verified by applying to real gravity data and the analysis of the effect on the geoid will be needed.

      • LSPIV 방법을 이용한 CCTV 영상에서의 이안류 유속장 분석

        정세한 서울시립대학교 일반대학원 2023 국내박사

        RANK : 247599

        기후변화에 따른 지구온난화로 해수 온도가 상승하면서 해류의 파랑에너지 또한 증가하여 이상 고파 현상이 빈번하게 발생하고 있다. 이안류는 연안 이상 현상의 하나로 해마다 발생 주기가 잦아지고, 발생 일수는 증가하고 있다. 이안류의 발생 원인에 관한 다양한 연구가 있었으나, 발생 메커니즘에 대한 명확한 원인을 제시한 연구 성과는 미미한 실정이다. 현재까지 진행된 선행연구는 이안류가 발생한 지역의 해류를 해양조건과 지형 조건으로 수치모의 분석하여, 이안류의 발생 원인을 쇄파의 질량 수송에 따른 잉여응력 변화에 의한 에너지 유동 현상으로 설명하고 있다. 발생 원인과 메커니즘에 관한 연구는 평면개념의 유속장 분석이 필요한데, 기존의 방법은 파향파고계(AWAC: Acoustic Wave and Current meter)나 유속계(ADCP: Acoustic Doppler Current Profiler)를 설치하여 공간분석에 사용했다. 하지만 특정 지점의 계측값을 공간적인 유속장 분석에 적용하는 방법은 분석의 효용성은 물론 비용적인 측면에서도 적합한 방법이 아니다. 본 연구는 CCTV 영상에 최적의 LSPIV 유속계산 파라미터를 적용해 유속장을 산출하여 이안류 CCTV 영상에 LSPIV(Large Scale Particle Image Velocimetry) 기법의 적용성 및 한계를 도출하는 것을 목적으로 했다. 분석을 위한 영상처리는 일정 시간으로 추출한 영상에 특징점을 이용한 변환 알고리즘(SIFT: Scale Invariant Feature Transform)과 부등각 사상변환(Affine Transformation)을 이용하여 영상을 안정화하고, 육상과 해상에 고르게 분포시킨 208점의 GCP를 이용하여 CCTV의 이미지를 경사보정 했다. 이안류의 유속장 LSPIV 분석은 EDF(Électricité De France, 프랑스 전력공사)와 Irstea(Institut national de Recherche en Sciences et Technologies, 프랑스 국립 농업 환경학 연구소)가 개발한 오픈 라이센스 Fudda-LSPIV 1.7.3 SW를 이용하여 분석했다. 이안류 CCTV 영상에 최적의 유속계산 파라미터를 결정하기 위해 18개의 파라미터 세트를 구성하여, 신뢰구간 평균 유속오차가 가장 작은 3개 크기(IA=20, 26, 32 pixel, SA, Sim=4, Sip=4, Sjm=3, Sjp=4 pixel)의 파라미터를 결정하여 유속계산에 적용했다. 산출된 각각의 유속은 0.196m/sec, 0.205m/sec, 0.207m/sec로 유속 간 최대 5.31% 이내의 범위에서 산출되었고, 상관영역의 크기 증가에 따라 유속은 증가하고 평균 유속 오차는 감소하는 것이 확인됐다. 또한, 유속장 벡터와 해저지형도를 중첩하여 분석 지역 해저지형에서 이안류 수로를 확인하였고, 최대 유속 0.62m/sec로 산출됐다. LSPIV 분석 유속벡터는 경사 보정한 이안류 포말 이지미와 중첩 비교하여 정합도를 확인했다. 향후, 해수유동 관측에 특화된 고성능 CCTV를 이용하고, 여러대의 CCTV에 스테레오 영상 기반의 객체 탐지 및 3차원 위치 추적 알고리즘을 적용한다면 세밀한 유속장의 분석이 가능하게 되어, 해양 데이터의 직접 계측 분석 검증 방법으로 훌륭한 대안이 될 수 있을 것으로 사료된다. As the seawater temperature rises due to global warming caused by climate change, the wave energy of ocean currents also increases, causing abnormal high wave phenomena to occur frequently. Rip currents are one of the coastal anomalies, and their occurrence cycle is increasing every year, and the number of occurrence days is increasing. Although there have been various studies on the causes of rip currents, the results of studies suggesting a clear cause for the mechanism of occurrence are insignificant. Previous studies have analyzed numerical simulations of ocean currents in the area where rip currents occurred in terms of oceanic and topographical conditions. As a result, the cause of the rip current is explained as the energy flow phenomenon by the change of surplus stress due to the mass transport of the breaking waves. Research on the cause and mechanism of occurrence requires a planar flow field analysis, and the existing method was used for spatial analysis by installing an Acoustic Wave and Current meter (AWAC) or an Acoustic Doppler Current Profiler (ADCP). . However, the method of applying the measured value at a specific point to the spatial velocity field analysis is not a suitable method in terms of cost as well as the effectiveness of the analysis. The purpose of this study is to derive the applicability and limitations of LSPIV(Large Scale Particle Image Velocimetry) technique for rip currents CCTV images by calculating flow fields by applying optimal LSPIV flow rate calculation parameters to CCTV images. Image processing for analysis stabilized the image using a SIFT(Scale Invariant Feature Transform) and affine transformation and corrected the tilt of the CCTV image using 208 GCPs. The LSPIV analysis of the velocity field of the rip current uses the open license Fudda-LSPIV 1.7.3 SW developed by EDF (Électricité de France, French Electric Power Corporation) and Irstea (Institut national de Recherche en Sciences et Technologies, French National Institute of Agricultural and Environmental Sciences). and analyzed. In order to determine the optimal velocity calculation parameters for CCTV images of rip currents, 18 parameter sets were constructed, and the three sizes with the smallest average flow rate error in the confidence interval (IA=20, 26, 32 pixels, SA, Sim=4, Sip = 4, Sjm = 3, Sjp = 4 pixels) was applied to calculate the flow rate. Each calculated flow rate was 0.196 m/sec, 0.205 m/sec, and 0.207 m/sec, and it was verified that, within an error range of up to 5.31%, the flow rate increases and an average flow error decreases as the size of the correlation area increases. In addition, the time-series velocity field vector and velocity field plane were calculated, and the correlation between the seabed topography and the rip current flow was confirmed through overlapping with the seafloor topography. A rip current channel of the seafloor topography was identified and analyzed with a maximum flow velocity of 0.62 m/sec. The LSPIV analysis flow velocity vector was compared with the slope-corrected offshore foam image to confirm the degree of consistency. In the future, using high-performance CCTVs specialized in seawater flow observation and applying stereo image-based object detection and three-dimensional location tracking algorithms to multiple CCTV images will enable detailed flow field analysis, which can be an excellent alternative.

      • 딥러닝 기반의 이동체 측위 성능 분석

        이용 서울시립대학교 대학원 2023 국내박사

        RANK : 247599

        최근 이동체 측위 분야에 있어서 GNSS 신호 단절 구간에서의 정밀한 위치를 결정하는 것에 대한 연구가 활발하게 진행되고 있다. 기존에는 GNSS 신호 단절 구간에서 측위 정밀도 향상을 위하여 이동체에 추가적인 센서를 부착하여 새로운 관측치를 획득하거나, 이동체에 기 부착되어 있는 내부 센서 등을 활용하여 측위 정밀도를 향상시키는 연구가 진행되어 왔다. 최근들어 딥러닝의 등장과 함께 학습 알고리즘을 활용하여 GNSS 신호 단절 구간에서 이동체 측위 정밀도 향상에 도움을 줄 수 있는 연구가 등장되고 있다. 본 연구에서는 다양한 시뮬레이션 데이터와 실제 도로 주행 데이터를 사용하여 GNSS 신호 단절 구간에서 학습 알고리즘을 통해 이동체 측위 성능 향상에 영향을 줄 수 있는 요인에 대해 분석을 수행하였다. 본 연구에서 학습 알고리즘은 비선형 시계열 데이터 예측에 적합한 NARX를 사용하여 구현하였으며 최적의 입력자료와 출력자료를 정의하기 위하여 시뮬레이션 데이터를 활용하여 분석을 수행하였다. 분석결과 결정된 입출력 자료는 관성센서의 관측치인 가속도와 각속도, 자세(yaw)이고, 항법좌표계 상의 북쪽 방향 속도와 동쪽 방향 속도이다. 해당 입출력 자료로 학습을 수행하고 GNSS 신호 단절 구간에서 예측하였을 때 가장 안정적인 예측값을 산출하는 것으로 확인되었다. 이동체의 주행 환경에 따른 영향을 분석하기 위해 서로 다른 형태의 시뮬레이션 데이터를 생성하고, 임의로 생성된 60초 간의 GNSS 신호 단절 구간에서 출력값을 예측하여 추측항법과 성능을 비교하였다. 그 결과 학습 자료에 예측 구간의 특성이 반영되어 있는 시뮬레이션 데이터의 경우에는 추측항법과 비교하여 월등히 향상된 예측 성능을 확인할 수 있었다. 추가적으로 이동체가 정지해있는 상황에서는 상대적으로 예측된 속도의 정밀도가 떨어지는 것을 확인할 수 있었으며, 이는 정지상태가 충분히 반영되어 있는 데이터 구축을 통해 한계점을 극복해야 할 것으로 보인다. 반면 예측 구간의 주행 환경이 반영되어있지 않은 학습 데이터를 활용한 경우에는 예측된 값이 기준값과 전혀 상이한 값을 산출하는 경우가 있는 것으로 확인되어 학습데이터 구축 시에는 예측구간의 특성을 고려하여 데이터를 취득해야 할 것으로 보인다. 실제 주행을 통해 획득한 데이터의 경우에, 1회 회전 주행 후 예측하였을 때에는 추측항법보다 정밀도가 낮은 속도가 예측되었다. 그러나 3회 이상 회전 주행 하였을 때는 추측항법과 비교하여 최소 68%향상된 속도를 산출 할 수 있었다. 실제 주행데이터를 1회 주행하여 취득한 데이터를 임의로 반복한 후 예측을 수행한 경우에 주행환경이 상대적으로 제한적인 데이터에서는 3회 이상 데이터를 반복했을 때 추측항법 대비 약 18% 가량 향상된 속도를 산출 할 수 있었다. 그러나 동적인 특성이 두드러지는 실제 도로에서 취득된 데이터에서는 추측항법보다 낮은 정밀도의 속도가 예측되는 것을 확인 할 수 있었다. 이는 취득된 학습데이터가 충분치 않아 실제 도로 상황의 동적인 특성을 적절하게 반영되지 못한 것으로 판단된다. 학습 알고리즘을 활용하여 GNSS 신호 단절 구간에서 이동체의 측위 정밀도를 향상시키기 위해서는 학습 데이터 구축 시 예측구간의 특성이 충분하게 반영된 데이터를 취득하여 학습을 수행하여야 그 효과가 크게 나타날 수 있을 것으로 보인다. Recently, in the field of vehicle positioning, research on determining a precise position in a GNSS signal outages is being actively conducted. Previously, in order to improve the positioning precision in the GNSS outages, research has been conducted to improve the positioning accuracy by attaching additional sensors to the vehicle or by utilizing the already attached internal sensor. Recently, with the advent of deep learning, studies have emerged that could improve the accuracy of vehicle positioning in the GNSS outages by using learning algorithms. In this study, analysis was performed on factors that could affect the performance improvement of vehicle positioning by utilizing a learning algorithm in the GNSS outages using various simulation data and actual road driving data. In this study, the learning algorithm was implemented using NARX. Analysis was performed using the same simulation data to define the optimal learning input and output data. The determined input and output data were acceleration, angular velocity which are the observed values of the inertial sensor, and attitude (yaw), It was confirmed that the predicted value was most reliably calculated when the north velocity and east velocity were used as output data. Different types of simulation data were created to analyze the effect of the driving environment of the vehicles, and the performance was compared with dead reckoning by predicting the output value in the intentionally generated 60-second GNSS signal disconnection section. If the characteristics of the prediction section are included in the training data, it was possible to confirm the significantly improved prediction performance compared to the dead reckoning. In addition, it was confirmed that the accuracy of the predicted speed was relatively low in the situation where the moving object was stationary. It seems that the limit should be overcome by constructing data that sufficiently reflects the stationary state. On the other hand, when learning data that does not reflect the driving environment of the prediction section is used, it is confirmed that there are cases where the predicted value yields a completely different value from the reference value. In the experiment of rotating a certain driving pattern with a real vehicle, when prediction was performed after driving one rotation, the prediction performance was lower than that of dead reckoning, but when driving more than three rotations, at least 68 % improved speed could be obtained. In the case of learning by repeating the actual driving once and intentionally repeating the data, the velocity was predicted to be improved by 18% compared to the dead reckoning in a limited road environment. However, it was confirmed that the velocity was predicted with lower precision than dead reckoning in the data acquired on real roads with dynamic characteristics. It is judged that the acquired learning data is not adequately reflecting the dynamic characteristics of the actual road situation. In order to improve the positioning accuracy of moving objects in the GNSS outages by using the learning algorithm, it is expected that the effect will be noticeable when learning is performed by acquiring data that sufficiently reflects the characteristics of the prediction section.

      • 산림환경에서의 저가 GNSS 수신기의 성능 분석

        김찬영 서울시립대학교 일반대학원 2022 국내석사

        RANK : 247599

        본 연구에서는 GNSS 관측이 어려운 수신환경인 산림에서 저가형 주파수 GNSS 수신기의 성능 분석을 진행했다. 분석 방법으로 산림에서의 천공률과 사용 주파수의 개수, 위성의 종류 조건을 다르게 하였고 분석 결과를 통해 산림에서의 최소한의 측량 가이드라인을 제시하였다. 본 연구에서 제시한 방법으로 천공률을 계산하여 수신환경을 수치화하였으며 천공률 6~80% 사이의 각각 다른 30점을 측점하고 각 데이터는 10분간 RTK를 통해 획득하였다. 저가형 단일 주파수 수신기는 천공률에 따라 분석한 결과 천공률에 상관없이 최소 6개 이상의 위성을 수신하였고 천공률 36.87%에서 GPS와 GLONASS 조합의 경우 수평 오차의 최댓값 4.2cm, RMS 2.2cm의 값을 보이며 GPS와 Beidou 조합은 수평 오차 최댓값 3.5cm, RMS 1.8cm의 값을 보였으나 천공률이 60% 이하인 지역에서 고정이 되지 않거나 m급의 오차가 나는 지역이 더 많아 산림에서 사용하기 어려울 것으로 사료 된다. 저가형 이중 주파수 수신기를 분석한 결과 가장 좋은 결과는 모든 종류의 위성 GPS와 GLONASS, Beidou, GALILEO를 사용하였을 때 최소 평균 17개의 위성을 수신하고 천공률이 높을수록 고정시간이 가장 빠르고 모호수 고정률 또한, 높았으며 전체 측점에서 모호수 고정이 되었다. 수평 위치 오차의 최댓값과 RMS가 천공률 30% 이하인 지역에서 m급으로 나타났으나, 천공률 30% 이상인 지역에서는 오차의 최댓값이 16.3cm 이내, RMS는 10cm 이내로 나타났고 수직 위치 오차의 최댓값과 RMS는 각각 32.4cm, 18.3cm 이내로 나타났다. 분석 결과로 산림에서 천공률 30% 이상인 지역에서 GPS와 GLONASS, Beidou, GALILEO 위성을 사용할 때 수평 위치 오차 16cm의 측량 가이드라인을 제시하였다. 본 연구를 통해 도출된 결과는 향후 산림지역에서 저가형 수신기를 이용한 RTK 측량을 진행할 때 성능에 대한 기반자료로 활용할 수 있을 것으로 기대된다. 그러나 산림지역에서 천공률뿐만 아니라 수목의 종류, 수목의 높이에 따라 측위 성능이 다르게 나타날 수 있으므로 이에 관한 추가연구가 필요할 것으로 사료된다. In this study, the performance of low-cost GNSS receivers was analyzed in forests, where it is difficult to observe GNSS. As an analysis method, the open sky ratio in the forest, the number of frequencies, and the types of satellites were varied. and the minimum survey guidelines in the forest were presented through the analysis result. The reception environment was quantified by calculating the open sky ratio by the method presented in this study, and 30 points between the open sky ratio of 6~80% were measured, and each data was acquired through RTK for 10 minutes. The low-cost single-frequency GNSS receiver received at least 6 satellites regardless of the open sky ratio as a result of analysis according to the open sky ratio. At a open sky ratio of 36.87%, the GPS and GLONASS combination showed the maximum horizontal error values of 4.2 cm and RMS 2.2 cm, and the GPS and Beidou combination showed the maximum horizontal error values of 3.5 cm and RMS 1.8 cm. However, If the open sky rate is less than 60%, there are more areas that are not fixed or have an m-class error, so it is considered difficult to use in forests. As a result of analyzing the low-cost dual-frequency GNSS receiver, the best result is that when all types of satellite GPS and GLONASS, Beidou, and GALILEO are used, it receives at least 17 satellites on average, and the higher the open sky ratio, the faster the fixation time and the higher the fixation rate of integer ambiguity. Integer ambiguity were fixed at all points. The maximum value of the horizontal position error and the RMS were m-level in the area where the open sky ratio was less than 30%. However, in the open sky ratio of 30% or more, the maximum error value was within 16.3 cm and the RMS was within 10 cm. And the maximum value and RMS of vertical position error were within 32.4 cm and 18.3 cm, respectively. Based on the analysis results, when using GPS, GLONASS, Beidou, and GALILEO satellites in forests with the open sky ratio of 30% or higher, survey guidelines with a horizontal position error of less than 16 cm were presented. The results derived from this study are expected to be used as a basis for performance when conducting RTK surveys using low-cost receivers in forested areas in the future. However, in forest area, positioning performance may vary depending on the type of tree and the height of trees as well as the open sky ratio, so it is considered that additional research is needed.

      • 하수관거 월류수 특성조사와 삭감대책에 관한 연구

        심규태 인제대학교 2006 국내석사

        RANK : 247599

        국문초록 하수관거월류수 특성조사와 삭감대책에 관한 연구 심 규 태 (指導敎授 : 權 載 玹) 仁劑大學校 尖端産業技術 大學院 環境工學專攻 하수도의 주요기능은 지역사회의 건전한 발전과 공중위생의 향상을 목적으로 효과적인 우수 및, 오수의 수집, 운반 및 처리 등에 있다. 하지만, 현재까지 하수도에서는 수집과 운반으로 대별되는 하수관거의 정비보다는 대부분 하수처리에 보다 많은 노력과 시간을 투자해왔다. 이러한 결과로 상당수의 하수도가 부실화 되어 있으며, 이것이 하수처리의 비 효율화 및 토양, 지하수, 하천오염을 가속화하고 있다. 따라서, 본 연구에서는 G시의 두개 지점(D와 J지점)을 선정하여 하수관거 시스템에서 CSOs의 영향을 파악하고자 하였다. CSOs 조사지점은 우기 시에 초기강우 특성이 잘 나타나도록 강우초반부는 2분~5분 간격으로 측정간격을 좁혀서 측정을 하였다. 수질조사는 CSOs 조사지점에서는 우기 시 총 2회에 걸쳐 실시하여 두 지점에서 총 4회를 조사하였으며, 총 19개 수질항목을 측정하여 수질을 분석하였는데 수질공정시험법에 의하여 BOD5, CODcr, CODMn, SS, TN, TP 등을 분석하였다. 한편, G시 D지점의 강우시의 CSOs 수질변화를 살펴보면 월류 초기에 SS가 1,000 mg/L, COD는 500 mg/L 정도로 아주 높은 값을 보여 CSOs가 방류 수계의 수질오염을 가중시키는 원인을 제공하였다. 그러나 J지점의 CSOs 수질은 월류량의 시간적 변화에 의해 영향을 받아 초기 월류량이 CSOs 수질에 영향을 미치는 것으로 판단된다. 이렇듯 CSOs가 수환경에 미치는 영향을 무시할 수 없는 실정에서 대책 마련은 시급하며, 본 연구는 하수도 정비 및 설계의 내실화를 유도하기 위한 기초 자료로 활용될 수 있을 것이다. 중요단어 : CSOs, 하수도, 월류량, 수질특성 Abstract Study on Characteristics Survey and Reduction Methods of Combined Sewer Overflows(CSOs) Kyoo Tae Shim (Director : Jae Hyun Kwon) Department of Environmental Engineering, Graduate School of Advanced Industrial Technology Inje University There is main purpose of sewerage in development of local community and upgrade of sanitation. However, government have invested more efforts and times into wastewater treatment than sewer pipe's maintenance until present. Most sewerages were weakened by this sequence, and this is accelerating inefficiency and soil, underground water, stream pollution. Therefore, this study choose two point(D and J point) of G city and grasped effect of CSOs in sewer system. CSOs investigation point measured to 2min~5min interval so that initial rainfall special quality may appear well at rainy season. Water quality was investigated total four times, and analyzed total nineteen items of water quality at wet season. On the other hand, D point provided result that CSOs add water pollution to discharge water system because of SS 1,000 mg/L, COD 500 mg/L value at overflow beginning. But, CSOs quality of water of J point is influenced in time change of the overflow amount and estimate that the initial overflow amount affects in CSOs quality of water. Conclusively, reduction methods must be prepared owing to real fact that can't be ignored that CSOs affect water environment. This study is expected to used to basic data to derive substantially sewerage maintenance and plan. Key word : CSOs, sewerage, overflow quality, water quality

      • 전기응집장치를 이용한 하수처리 연구

        오수환 인제대학교대학원 2011 국내석사

        RANK : 247599

        본 연구는 전기응집에 가용성 금속인 알루미늄이나 철을 사용할 때, 양극에서 Al3+, Fe2+등의 금속이온이 산화되어 용출이 일어나고, 음극에서는 물의 전기화학적 반응에 의해 OH-가 발생하여 응집제 역할을 할 수 있는 Fe(OH)2, Fe(OH)3, Al(OH)3 등의 금속수산화물이 생성된다. 이러한 금속수산화물은 수중의 각종 오염물질을 응집, 흡착, 침전시키고 음극에서 발생한 수소가스에 의해 오염물질이 환원되고, 양극에서 발생한 산소에 의해 오염물질을 산화시켜 제거한다. 수소와 산소기체는 전해액 내에서 대류작용을 발생시켜 금속수산화물의 일부를 부상되게 함으로써 수중과 수면에 존재하는 각종 미립자 불순물 및 각종 형태의 유분 등을 흡착, scum을 형성시키는 등 여러 가지 물화학적 작용이 일어나면서 수질이 정화된다. 본 논문은 하수처리장 유입수를 대상으로 전기응집 장치를 도입하여 중수도로 이용하는 방안을 모색하였다. 전기응집장치를 적용하기 위하여 기초실험으로써 체류시간 및 전류밀도, 전극판 종류 및 개수, 전기전도도, 초기pH를 변화시켜 실험하여 최적의 운전인자를 도출 하였다. 전기응집에 필요한 최적의 실험조건으로 체류시간은 10분, 전류밀도는 2.31 A/m2, 전극판 종류 및 개수는 알루미늄판 4개, 전기전도도 850 μS/cm, 초기 pH 7로 나타났다. 이에 대한 하수의 처리효율은 BOD는 84.8%, CODMn은 60.0%, TN은 62.4%, TP는 99.6%, Turbidity는 98.3%로 나타났다.최적의 조건에서 화학응집과 전기응집과의 처리효율 및 플록 특성을 비교한 결과, BOD 및 TP, SS, Turbidity 제거율은 거의 비슷하였으며, CODMn, TN 제거율에서 약 4~6%정도 더 좋은 제거효율을 나타났다. 제타전위에서는 전기응집이 +2.1mV로 가장 유효한 응집범위에 들었으며, 전체 입도분포의 50% 일 때 전기응집의 입도 크기가 22.32 µm 로 더 큰 값을 보여주었다. 또한 전기응집 후 구성이 간편한 일체형 중수도 시스템을 만들고자 부상여재장치를 도입하여 하수 재이용의 가능성을 평가하였다. 그 결과, 전기응집과 부상여재여과를 이용한 중수도 수질기준에 만족하는 항목은 탁도, CODMn, 색도, pH로 나타내었지만, 대장균군수, 결합잔류염소, BOD가 중수수질기준에 만족하지 못하였다. 대장균군수가 검출되지 않고 결합잔류염소를 0.2 mg/L 이상이 되기 위해서는 전기응집 후 Cl2나 O3와 같은 산화제를 사용하여 살균 및 결합잔류염소를 높이는 방법과 BOD 10 mg/L 미만이 되기 위해서는 유기물제거를 위한 추가적인 장치로 하수를 재이용할 수 있는 가능성을 확인하였다.

      • 차량에서 취득한 단일 영상과 정밀도로지도 교통시설물 매칭 기반 변화 탐지

        이병기 서울시립대학교 일반대학원 2023 국내석사

        RANK : 247599

        공공이 주도하여 신규 제작하던 GIS의 갱신 방법에서 벗어나 시민참여형 공간정보시스템 (PPGIS) 의 갱신 체계로 나아갈 수 있는 연구가 지속적으로 지루어지고 있다. 이를 위해서는 효율적으로 변화지역을 탐지할 수 있는 방법이 필요하였다. 본 연구에서는 대중적으로 취득이 가능한 블랙박스 영상을 취득하여 프로토타입 시스템을 통하여 자동으로 변화지역을 탐지하는 것을 목표로 하였으므로 탐지를 위한 방법론을 실험하여 최적의 탐지방안을 도출하였다. 영상 취득을 위하여 중저가 블랙박스를 정면, 좌측면, 우측면에 설치하였다. 블랙박스 촬영 위치 정보를 얻기 위하여 GPS를 별도로 설치하여 위치정보를 취득하였다. 블랙박스 영상은 GPS 정보와 같도록 1초당 1프레임의 이미지를 취득하였다. 취득한 이미지를 이용하여 교통시설물 라벨링 데이터를 제작하였다. 이미지에서 제작된 라벨링 객체를 공간정보에 표시하는 방법은 영상 촬영위치의 좌표 및 교통시설물 데이터(정밀도로지도 데이터) 등 좌표값을 가지고 있는 데이터를 최대한 활용하여 비교하고, 추정하는 방식을 사용하였다. 변화지역을 탐지하기 위해서는 이미지에서 취득한 라벨링 데이터에 정밀도로지도에서 제작된 교통시설물 데이터의 ID 부여가 필요하였다. ID 부여를 위해서 이미지 내에서 라벨링의 위치에 따라 공간정보의 방향각을 추정하는 방식을 실험하였다. 이미지를 2의 배수로 6단계에 걸쳐 분할하고, 분할된 영역마다 공간정보 방향각의 범위를 정하고 해당 공간정보를 이미지 라벨링 데이터와 비교함으로써 ID를 부여하는 것이었다. 변화지역 탐지는 프로토타입의 시스템을 개발하여 공간정보 ID를 1단계부터 6단계까지 자동으로 부여하였다. 단계별로 탐지하는 범위가 서로 다르므로 누적으로 매칭하는 방식을 사용하였다. 변화지역 자동 탐지에 관한 것은 육안으로 검수하였으며, 정매칭, 부매칭, 비매칭으로 분류하였다. 정매칭은 라벨링 데이터와 공간정보가 1:1로 매칭되는 것이고, 부매칭은 여러 이유로 매칭이 잘못되는 경우로 매칭오류로 분류하였다. 비매칭은 대부분이 변화지역으로 분류되었다. 매칭은 실험 지역을 대상으로 하였을 때는 100%의 정확도를 나타냈으며, 검증 지역을 대상으로 하였을 때는 약 96%의 정확도를 나타냈다. 본 연구의 성과로는 검증 부분에서 언급한 것처럼 실험 대상지에서의 변화지역 탐지 방법론을 검증 대상지에 적용하였을 때 약 96%의 정확도를 나타냈다는 것에 중요한 의미를 둘 수 있다. 물론 검증 대상지를 확대하여 지속적인 검증과 보완을 필요할 것이다. 하지만 도출된 변화지역 탐지 내용을 활용한다면 정밀도로지도 데이터 중 교통시설물 데이터의 갱신 방안 마련과 지자체에서 관리중인 교통시설물 데이터의 갱신 방안 마련에 적용이 가능할 것으로 판단된다. 관용차량이나 노선버스, 택시 등의 블랙박스 영상을 취득할 수 있다면 교통시설물 갱신을 위하여 현장조사의 시간과 예산을 대폭 절감할 수 있을 것으로 기대된다. Research that can move away from the renewal method of GIS, which was newly produced by the public sector, to the renewal system of the Citizen Participation Type Spatial Information System (PPGIS) is continuously becoming boring. To this end, a method to efficiently detect the change area was needed. In this study, the goal was to automatically detect the changing area through a prototype system by acquiring black box images that can be acquired by the public, so the optimal detection method was derived by experimenting with the methodology for detection. For image acquisition, medium-priced black boxes were installed on the front, left, and right sides. In order to obtain the black box shooting location information, GPS was separately installed to obtain the location information. As for the black box image, an image of 1 frame per second was acquired to be the same as the GPS information. Traffic facility labeling data was created using the acquired images. The method of displaying the labeling object produced from the image in the spatial information used the method of comparing and estimating by maximally utilizing the data having coordinate values ​​such as the coordinates of the image shooting location and traffic facility data (3D High-Precision Driving Map). In order to detect the change area, it was necessary to assign an ID to the labeling data obtained from the image and the traffic facility data produced from the map with precision. For ID assignment, a method of estimating the orientation angle of spatial information according to the location of the labeling in the image was experimented with. The method of segmenting an image in multiples of 2 in 6 steps was to assign an ID by determining the range of orientation angles of spatial information for each segmented area and comparing the spatial information with image labeling data. For change area detection, a prototype system was developed and spatial information ID was automatically assigned from step 1 to step 6. Since the detection range for each stage is different, the cumulative matching method was used. The automatic detection of the change area was inspected with the naked eye, and it was classified as correct matching, mismatching, and non-matching. Exact matching is when labeling data and spatial information are matched 1:1. Mismatching is a case where matching is incorrect for various reasons, and is classified as a matching error. Most of the non-matching areas were classified as change areas. When matching with the experimental area, it showed 100% accuracy. When matching for the verification area, it showed about 96% accuracy. As a result of this study, as mentioned in the verification section, when the change area detection methodology in the test site was applied to the verification site, it was important that it showed about 96% accuracy. Of course, it will be necessary to continuously verify and supplement by expanding the verification target. However, if the derived change area detection is used, it is judged that it can be applied to the preparation of renewal plans for traffic facility data among the precision road map data and the renewal plan for traffic facility data managed by local governments. If black box images of public vehicles, route buses, taxis, etc. can be obtained, it is expected that the time and budget of field investigations for renewal of transportation facilities can be greatly reduced.

      • 전리층 효과의 통계적 모델을 이용한 중기선 정지측위

        양효진 서울시립대학교 대학원 2006 국내석사

        RANK : 247599

        GPS는 과학 및 공학분야, 그리고 사회전반에 걸쳐 폭넓게 사용되고 있다. GPS를 이용하여 위치결정을 할 경우에는 코드와 반송파를 이용 할 수 있는데 각각의 데이터를 사용함으로써 정확도 및 계산의 효율성 등에서의 차이가 있으며, 또한 기지점으로부터 미지점의 정밀한 좌표를 결정하는 상대측위의 경우에는 기선의 길이가 길어질수록 오차가 증가하는 문제가 있다. 따라서 본 연구에서는 50㎞ 이상의 중기선의 결정시에 가장 큰 오차요인이라고 밝혀져 있는 전리층 효과에 대한 통계적 모델링을 수행하여, 중기선의 정밀한 위치결정을 위한 알고리즘을 개발하였다. 본 연구의 알고리즘은 우선, 이중차분 된 반송파 관측방정식의 수립에 있어 최적의 통계적 전리층 효과를 고려하는 것에 있다. 이를 위하여 다양한 통계적 모델을 적용함과 동시에, 통계적 모델의 시간과 분산에 대한 매개변수를 기선의 길이에 따라서 경험적으로 결정하였다. 조정 계산의 방법으로는 Kalman filter를 이용하였으며, 이론적 경험적으로 가장 좋다고 알려져 있는 LAMBDA 방식을 이용하여 모호정수를 정수로 결정하였다. 정수로 결정된 모호정수를 제약조건으로 사용할 수 있는지에 대한 적합성 여부를 판단하기 위한 과정이 적용되었으며, 최종적으로 정밀한 중기선을 결정하였다. 실험 및 검증 결과 기선의 길이가 40㎞부터 160㎞해당하는 대상 데이터의 정확도가 수 ㎝ 이내로 결정됨을 확인할 수 있었다. 통계적 모델에 의하여 전리층을 모델링 할 경우에는 그렇지 않은 경우에 비하여 오차가 크게 발생하였으며, 전리층 효과의 모델링 시, variance를 합리적으로 결정함으로써 모호정수가 결정되는 시간과 정확도가 향상됨을 확인할 수 있었다. 향후 본 알고리즘을 장기선까지 확대하여 기선 길이별 전리층 효과의 적합한 모델링을 가능하게 할 수 있을 것으로 예상되며, 개발된 알고리즘은 epoch by epoch로 처리되므로 kinematic 측위 방식에의 적용도 가능할 것으로 예상된다. Although GPS provides continuous and accurate position information, there are still some rooms for improvement of its positional accuracy, especially in the medium and long range baseline determination. In general, in case of more than 50 km baseline length, the effect of ionospheric delay is the one causing the largest degradation in positional accuracy. For example, the ionospheric delay in terms of double differenced mode easily reaches 10 cm with baseline length of 101 km. Therefore, many researchers have been tried to mitigate/reduce the effect using various modeling methods In this paper, the stochastic modeling of the ionospheric delay is applied and its effects are analyzed. The data processing has been performed by constructing a Kalman filter with states of positions, ambiguities, and the ionospheric delays in the double differenced mode. Considering the long baseline length, both double differenced GPS phase and code observations are used as observables and LAMBDA has been applied to fix the ambiguities. Here, the ionospheric delay is stochastically modeled by well-known 1st and 2nd order Gauss-Markov process. The parameters required in those models such as correlation distance and time is determined by the least-square adjustment using ionosphere-only observables. Of course, the effect of the parameters are analyzed in the study. Mainly the results and analysis from this study show the effect of stochastic models of the ionospheric delay in terms of the baseline length, models, and parameters used. In the above example with 101 km baseline length, it was found that the positional accuracy with appropriate ionospheric modeling (Gaussian) was about 2~3cm whereas it reaches about 20~30cm with no stochastic modeling. In addition, it was found that the estimated position is more sensitive to the variance of the model rather than the correlation time and kind of model. It is expected that the approach in this study contributes to improve positional accuracy, especially in medium and long range baseline determination.

      • Potassium ferrate(Ⅵ)를 이용한 하수슬러지의 전처리에 관한 연구

        배용금 인제대학교 2009 국내석사

        RANK : 247599

        하수슬러지 처리에서 가장 중요한 것은 슬러지 발생량을 줄이고, 함수율을 낮추는 것이다. 슬러지 발생량은 슬러지의 생분해성을 높여 고형물 함량을 줄이고 고액분리성을 개선시켜 수분함량을 줄임으로서 가능하다. 하수슬러지의 고형물은 유기성분으로 대부분 구성되어 있기 때문에 혐기성소화와 같은 생물학적 처리에 의해 가스와 물로 전환되어 슬러지의 감량화가 이뤄지며, 많은 수분을 갖고 있는 소화슬러지는 탈수공정에 의해 수분을 제거함으로서 슬러지는 최종적으로 감량화 된다. 그러나 슬러지내 세포벽의 견고함으로 인해 소화효율이 낮으며 수분분리가 어려운 슬러지 구조로 인해 탈수성 또한 매우 불량하다. 따라서 본 연구에서는 하수슬러지의 생분해성을 높이기 위해 Ferrate를 이용한 전처리 방법을 적용하였으며 이와 같은 전처리가 탈수성에 미치는 영향을 조사하였다. 슬러지의 생분해성은 COD 가용화율과 소화실험을 통해 COD 제거율을 조사하여 평가하였으며 슬러지의 탈수성은 TTF를 측정하여 평가하였다. 본 연구결과, COD 가용화율을 기준으로 평가된 ferrate의 적정 주입량은 1,000mg/1 as Fe로 반응시간 24hr 조건에서 pH 10.7이였고 가용화율은 45% 로 나왔으며 30meq/1 NaOH(3hr)에서는 17%, 0.1gO₃/gSS(2hr)에서는 13%의 가용화 효율을 나타내었다. 가용화효율을 토대로 1,000mg/1 as Fe, 30meq/1 NaOH, 0.1gO₃/gSS(2hr)를 주입하여 하수슬러지의 생분해성 연구에서는 전처리 슬러지를 20일간 소화시켜 TCOD의 변화와 CBOD를 측정하여 생분해도를 평가하였다. 20일 소화 후 각각의 전처리에 따른 생분해효율은 원슬러지가 33.3%를 보인 반면 알칼리 처리는 42.1%, potassium ferrate의 경우는 50.1%, 오존처리는 38.8%로 potassium ferrate가 가장 높은 효율을 나타내고 있다. 가용화 효율과 생분해성 사이에 의미 있는 상관성을 볼 수 있었는데, 이 관계를 통해서 가용화율이 10% 증가하면 생분해도는 약 4% 정도의 COD 제거율 향상을 기대할 수 있었다. Ferrate의 생분해도를 혐기성 소화 실험 외에도 BOD를 이용하여 생분해도를 평가해 보았다. Ferrate의 적정 주입량인 1,000mg/1 as Fe를 주입하였고, 이와 비교하기 위하여 raw sludge, Ferrate 주입 후 pH변화에 따른 NaOH를 이용하여 pH를 조절하여 20일간 BOD를 분석하였다. 20일간의 BOD를 최소자승법을 이용하여 반응속도상수(k)를 계산한 결과 ferrate주입 슬러지는 0.35d^(-1)(base e)로 가장 높게 나왔으며, pH를 조절한 슬러지는 0.33d^(-1)(base e), raw 슬러지는 0.21d^(-1)(base e)로 가장 낮게 나왔다. 따라서 ferrate를 이용했을 때 생분해율을 높일 수 있는 효율적인 방법임이 확인되었다. Ferrate 처리를 거친 후 탈수성을 위한 지표로 TTF(Time To Filter)를 이용하여 탈수성을 살펴보았다. 실험결과 ferrate의 주입량이 증가할수록 탈수성에는 악영향을 주었다. 이는 슬러지 세포의 파괴와 가용화로 인해 입자가 미세화되고 세포내 유기물질의 용출로 인해 표면전하가 증가하였기 때문이다. The most important thing in sludge treatment is to reduce the volume and water content of sludge. The pretreatment of sewage sludge has focused on improving the efficiency of anaerobic digestion until now. It is the common tendency that the biodegradability of sludge is low due to rigidity of sludge cells and its dewaterability is bad because of properties containing higher bound water. For overcoming this limitation, the pretreatment process was carried out to solubilize the sewage sludge using Potassium Ferrate. The solubilization efficiency was evaluated based on the SCOD/TCOD ratio and VSS/TS ratio. The proper condition of Potassium Ferrate Treatment was shown as 1,000mg/l as Fe and pH 10.7. Solubilization efficiency increased to 45% from 2% based on SCOD/TCOD ratio under this condition. And NaOH Treatment was shown as 30meq/l NaOH(3hr) as 17%, 0.1gO₃/gSS(2hr) as 13%. In order to assess the effect of pretreatment on biodegradability of sludge, TCOD removal rate measured for 20-days digestion after pretreatment. Under proper condition of ferrate treatment, biodegradability of sludge increased to 50.1%. In alkaline treatment, the biodegradability showed 42.1%. Ozone treatment increased biodegradability to 38.8% at a dose of 0.1gO₃/gSS.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼