RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 일반화 선형 모델 하에서 기계 학습 모델의 예측 성능 평가

        헐 마닌 계명대학교 대학원 2023 국내석사

        RANK : 3917

        최근에는 기계 학습 (Machine Learning, ML) 모델은 금융 모델링, 마케팅, 비즈니스, 그리고 의료와 같은 많은 분야와 연구 영역에서 광범위하게 사용되고 있다. ML 모델의 인기는 예측 정확성 측면에서의 잠재력에 근거하고 있다. 샘플 크기가 증가함에 따라 현재로서는 ML 모델이 전통적인 통계 모델보다 우월한 성능을 보일 것인지에 대한 명확한 선언은 없다. 본 연구에서는 ML 모델과 Generalized Linear Models (GLM)로 알려진 전통적인 통계 모델 간의 예측 성능을 조사하고 비교하였다. ML 모델로는 Extreme gradient boosting (XGBoost), Light gradient boosting model (LightGBM), 그리고 Random forest를 구현하였다. 시뮬레이션 연구에서는 표본 크기가 다르고 설명 변수의 수가 다른 Poisson 분포, Binomial 분포, 그리고 Multinomial 분포를 사용하여 세 가지 분포에 대한 데이터를 세 개의 시뮬레이션 데이터셋으로 생성하였다. 실제 응용에서는 WHO 자살 데이터, 심장 질환 데이터, 그리고 태아 심박계 데이터셋을 사용하였다. 그 결과 샘플 크기가 충분히 큰 경우 ML 모델의 예측 성능이 GLM 보다 우수함을 알 수 있었다. Recently, machine learning (ML) models have been used extensively in many fields and research areas such as financial modeling, marketing, business, and healthcare. The popularity of ML models is due to its potential in terms of predictive accuracy. As the sample size increases, it is widely acknowledged but lacking empirical verification that ML models will outperform conventional statistical models. In this study, we investigated and compared the prediction performances between ML models and conventional statistical models known as Generalized Linear Models. For ML, we implemented three models: Extreme gradient boosting, Light gradient boosting model, and Random forest. In simulation study, we generated data using three distributions: Poisson distribution, Binomial distribution, and Multinomial distribution with distinct sample sizes and different number of explanatory variables. In real application, we used three datasets: WHO suicide, Heart disease, and Cardiotocographic. The results showed that machine learning models outperform generalized linear models when the sample size was sufficiently large.

      • Comparison of propensity score methods flexible to model misspecification

        강문종 Graduate School, Yonsei University 2020 국내석사

        RANK : 3627

        In an observational study, there may be differences in the distribution of pre exposure characteristics between treated and non-treated groups. This difference also affects the outcome. To address this, propensity score methods are frequently used. These methods remove the imbalance by making subgroups that have similar pre treatment characteristic distribution or creating synthetic samples by weighting. Propensity score methods are needed to specify propensity models, and misspecification of the propensity model brings notable bias to the outcome analysis. Researchers have proposed many methods which are less sensitive to the model specification to reduce the bias when the model is built to incorrect specifications. The purpose of this paper is to compare the proposed propensity estimation methods which are flexible to wrong model specification with weighting and matching methods in various scenarios. Biases, absolute bias, and MSE are used to evaluate the performance of estimating the average treatment effect (ATE), and average standardized mean difference (ASMD) is applied to check whether the covariates are balanced. From the simulated example, the scenario, the correct model specification for the generalized linear model (GLM) shows the best result for the bias, but it becomes less effective as the model complexity increases. The generalized boosted model (GBM), however, gives consistent results regardless of the model specification. Among the analysis methods incorporating propensity score, matching weight (MW) is the most effective method to reduce the bias. In terms of covariate balancing, ATE shows similar result to the bias, GLM is the worst, and GBM is the best. Matching has the smallest average standardized mean difference (ASMD). In the propensity estimation procedure, the interpretational aspect of the model is not emphasized. So GBM could be a powerful alternative to estimate propensity score. Furthermore, although matching analysis reduces ASMD better than the other methods, it also reduces the sample size. In case that sample size is small, using matching weights as an analysis method is preferable.

      • 다중 처리군에서 성향점수 가중치 방법의 비교

        김은진 전북대학교 일반대학원 2022 국내석사

        RANK : 3610

        관찰연구에서 처리효과 추정치는 공변량 불균형의 영향으로 인한 편향이 발생한다. 역확률 가중치, 중복 가중치 및 매칭 가중치와 같은 성향점수의 가중치 방법은 추정치의 편향을 줄일 수 있다. 다중 처리군의 경우에는 성향점수를 확장한 일반화 성향점수 방법이 제안되었다. 주로 일반화 성향점수 추정시 다항 로지스틱 회귀 모형이 사용되며, 가중치 방법에도 적용되었다. 그러나 표본 크기에 비해 공변량이 너무 많거나 정규성을 가정할 수 없는 경우, 모수적 방법인 다항 로지스틱 회귀의 치료효과 추정치는 편향이 발생 할 수 있다. 반면 일반화 부스팅 모형은 비모수적 방법과 같은 문제에 적합하다. 또한 대용량 데이터에서도 잘 구현되어 최근에는 일반화 성향점수 추정에도 사용되고 있다. 본 연구는 모의실험을 통해 다항 로지스틱 회귀 모형과 일반화 부스팅 모형에 의해 추정된 일반화 성향점수와 이를 기반으로 하는 역확률 가중치, 중복 가중치와 매칭 가중치의 소표본 속성을 비교하였다. 모의실험 결과, 처리 또는 결과 모형이 선형인 경우에만 다항 로지스틱 회귀 방법은 편향과 MSE가 작았으며 CP는 높게 나타났다. 그러나 일반화 부스팅 방법은 모형의 선형 여부에 관계없이 편향, MSE와 CP는 일관된 결과를 보였으며, 처리 또는 결과 모형이 비선형인 경우에는 다항 로지스틱 회귀 방법보다 우수한 성능을 보였다. 가중치 방법은 전반적으로 매칭 가중치, 중복 가중치, 역확률 가중치 순으로 우수한 성능 보였다. 매칭 가중치와 중복 가중치는 일반화 성향점수 추정 방법에 따른 결과와 비슷하게 나타났으며, 역확률 가중치는 일반화 부스팅 모형으로 추정할 경우 성능이 더 좋게 나타났다. In observational studies, the treatment effect estimates are often biased by the impact of covariate imbalances. The propensity score weighting methods such as inverse probability of treatment weights(IPW), overlap weights(OW) and matching weights(MW) can be used to reduce the bias. In the case of multiple treatments, the propensity scores are extended to generalized propensity scores. They have been estimated most often by multinomial logistic regression(MLR) and used for weighting methods. However, MLR, which is a parametric methods, may cause bias in the estimate of treatment effect when there are too many covariates for the sample size or when normality cannot be assumed. The generalized boosted models(GBM) is robust to such problems as a nonparametric methods and also implemented well in very large size of data so that it is recently adopted for the estimation of GPS. In this study, we compared small sample properties of generalized propensity scores estimated by MLR and GBM and three weighting methods(IPW, OW, MW) based on these scores through simulations. The result of simulation shows; The MLR had small bias and MSE, and CP was close to the specified value only when log-odds of the treatment or outcome was linear in covariates. The GBM, however, showed consistent results regardless of the models specification in bias, MSE and CP, and performs better than the MLR as both treatment and outcome models are non-linear. The weighting methods showed good performance in the order of MW, OW and IPW. MW and OW showed similar results according to the generalization propensity score estimation methods, and IPW performed better when estimated using the GBM.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼