http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Flanders 언어상요작용 분석법을 이용한 초등학교 우수수업과 일반수업의 비교
권기덕 ( Gi Deok Kwon ),최명숙 ( Myung Sook Choi ) 한국아동교육학회 2013 아동교육 Vol.22 No.2
본 연구의 목적은 Flanders의 언어상호작용 분석법을 이용하여 초등학교 우수교사와 일반교사의 수업간에, 경력교사와 신규교사의 수업간에 언어상호작용과 언어형태에 있어서 어떤 차이가 있는지를 비교 분석하는데 목적이 있다. 이러한 목적을 달성하기 위해서 우수교사의 수업 6편과 경력교사와 신규교사를 포함한 일반교사의 수업 12편을 촬영한 동영상을 분석 대상으로 하였으며 수업의 언어형태와 언어상호작용을 중심으로 비교분석하였다. 분석도구로는 수업행동분석 프로그램 3.54 베타버전(2010)을 사용하였고 新Flanders 언어상호작용 분석법에 따라 분석하였다. 연구 결과를 요약하면, 먼저 수업의 언어형태면에서 교사가 질문하고 학생이 반응하는 형태가 가장 많이 나타났으나 일반 수업에서는 교사의 경력에 상관없이 교사의 질문에 대해 학생들의 단순 반응이 이어지는 형태가 가장 빈번하게 나타난 반면 우수 수업에서는 교사의 질문에 대해 학생들의 주도적이고 적극적인 답변이 이어지는 형태가 더 많았다. 둘째, 언어상호작용에서는 일반교사보다 우수교사의 수업에서 학생에 대한 교사의 지시나 비평의 비율이 낮고 지속되는 경향도 낮은 것으로 나타났다. 신규교사의 경우 비지시적인 수업의 경향이 뚜렷하게 나타났고 학생의 발언비와 질문비가 높게 나타나 학생 중심의 수업을 진행하는 것으로 나타났다. 수업분석프로그램을 이용한 본 연구의 결과는 다른 수업분석기법을 병행함으로써 보다 의미로운 해석이 가능할 것이다. The purpose of this study was to analyze differences in language patterns and interaction types used in elementary classes between model teachers and regular teachers including experienced teachers and novice teachers. The analysis was done by the Classroom Behavior Analysis 3.54 Beta Version (2010) Program, For this study, 6 video recordings form classes taught by model teachers and 12 (6 experienced, 6novice teachers) form classes taught by regular teachers were selected for analysis. For the analysis of the collected data, the Advanced Flanders Interaction Analysis System was used to compare class based on the Flanders Ten Categories. The results were as follows. First, in the aspect of the language pattern, the most common language pattern was teacher` questions followed by student`s reponses, while the model teachers, compared to the regular teachers, drew more self-directed and active responses form students. Second, in language interaction, model teachers were more student-oriented, providing less directions and critics. Novice teachers, also, showed a strong tendency of nondirective and student-focused lessons than experienced teachers.
강화학습에 기초한 로봇 축구 에이전트의 동적 위치 결정
권기덕(Ki-Duk Kwon),김인철(In-Cheol Kim) 한국정보과학회 2001 한국정보과학회 학술발표논문집 Vol.28 No.2Ⅱ
강화학습은 한 에이전트가 자신이 놓여진 환경으로부터의 보상을 최대화할 수 있는 최적의 행동 전략을 학습하는 것이다. 따라서 강화학습은 입력(상태)과 출력(행동)의 쌍으로 명확한 훈련 예들이 제공되는 교사 학습과는 다르다. 특히 Q-학습과 같은 비 모델 기반(model-free)의 강화학습은 사전에 환경에 대한 별다른 모델을 설정하거나 학습할 필요가 없으며 다양한 상태와 행동들을 충분히 자주 경험할 수만 있으면 최적의 행동전략에 도달할 수 있어 다양한 응용분야에 적용되고 있다. 하지만 실제 응용분야에서 Q-학습과 같은 강화학습이 겪는 최대의 문제는 큰 상태 공간을 갖는 문제의 경우에는 적절한 시간 내에 각 상태와 행동들에 대한 최적의 Q값에 수렴할 수 없어 효과를 거두기 어렵다는 점이다. 이런 문제점을 고려하여 본 논문에서는 로봇 축구 시뮬레이션 환경에서 각 선수 에이전트의 동적 위치 결정을 위해 효과적인 새로운 Q-학습 결과를 단순히 결합하는 종래의 모듈화 Q-학습(Modular Q-Learning)을 개선하여, 보상에 끼친 각 모듈의 기여도에 따라 모듈들의 학습결과를 적응적으로 결합하는 방법이다. 이와 같은 적응적 중재에 기초한 모듈화 Q-학습법(Adaptive Mediation based Modular Q-Learning, AMMQL)은 종래의 모듈화 Q-학습법의 장점과 마찬가지로 큰 상태공간의 문제를 해결할 수 있을 뿐 아니라 보다 동적인 환경변화에 유연하게 적응하여 새로운 행동 전략을 학습할 수 있다는 장점을 추가로 가질 수 있다. 이러한 특성을 지닌 AMMQL 학습법은 로봇축구와 같이 끊임없이 실시간적으로 변화가 일어나는 다중 에이전트 환경에서 특히 높은 효과를 볼 수 있다. 본 논문에서는 AMMQL 학습방법의 개념을 소개하고, 로봇축구 에이전트의 동적 위치 결정을 위한 학습에 어떻게 이 학습방법을 적용할 수 있는지 세부 설계를 제시한다.
다중 에이전트 강화 학습을 위한 상태 공간 타일링과 확률적 행동 선택
권기덕(Kwon Ki Duk),김인철(Kim In Cheol) 한국정보과학회 2006 한국정보과학회 학술발표논문집 Vol.33 No.1
강화 학습은 누적 보상 값을 최대화할 수 있는 행동 선택 전략을 학습하는 온라인 학습의 한 형태이다. 효과적인 강화 학습을 위해 학습 에이전트가 매 순간 고민해야 하는 문제가 탐험(exploitation)과 탐색(exploration)의 문제이다. 경험과 학습이 충분치 않은 상태의 에이전트는 어느 정도의 보상 값을 보장하는 과거에 경험한 행동을 선택하느냐 아니면 보상 값을 예측할 수 없는 새로운 행동을 시도해봄으로써 학습의 폭을 넓힐 것이냐를 고민하게 된다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 더욱 커지는 다중 에이전트 시스템의 경우, 효과적인 강화학습을 위해서는 상태 공간 축소방법과 더불어 탐색의 기회가 많은 행동 선택 전략이 마련되어야 한다. 본 논문에서는 로봇축구 Keepaway를 위한 효율적인 다중 에이전트 강화학습 방법을 설명한다. 이 방법의 특징은 상태 공간 축소를 위해 함수근사방법의 하나인 타일코딩을 적용하였고, 다양한 행동 선택을 위해 룰렛 휠 선택 전략을 적용한 것이다. 본 논문에서는 이 방법의 효과를 입증하기 위한 실험결과를 소개한다.
권기덕(Kwon, Ki-Duk),정준모(Jung, Jun-Mo),권상홍(Kwon, Sang-Hong) 한국산학기술학회 2006 한국산학기술학회논문지 Vol.7 No.5
본 논문은 비주기 태스크에 대한 저전력 스케줄링을 달성하기 위한 새로운 동적 전압 조절(DVS) 알고리즘을 제안한다. 벼주기 태스크는 주기(period)가 없고 발생시간(release time)과 최악실행시간(WCET) 예측이 불가능하기 때문에 기존의 DVS 알고리즘으로 스케줄링 할 수 없으므로 전력소모가 많이 발생하는 단점이 있다. 본 논문에서는 일정한 크기의 주기와 최악수행시간을 갖는 주기적인 가상태스크를 정의하고, 발생한 비주기 태스크를 가상태스크에 할당하여 이미 존재하는 주기 태스크들과 합께 DVS 스케줄링을 수행하는 알고리즘을 제안한다. 가상태스크의 주기와 최악수행 시간은 이미 존재하는 주기태스크들과 가상태스크를 모두 포함한 태스크 활용률을 계산하여, 그 값이 1에 가장 근접하는 값으로 설정한다. 제안하는 알고리즘은 기존의 주기 태스크에 대한 DVS 알고리즘보다 11%의 전력 감소 효과가 있음을 시뮬레이션을 통해 확인하였다. This paper proposes a new Dynamic Voltage Scaling(DVS) algorithm to achieve low-power schedulingof aperiodic hard real-time tasks. Aperiodic tasks schedulingcannot be applied to the conventional DVS algorithm and result in consuming energy more than periodic tasks because they have no period, non predictable worst case execution time, and release time. In this paper, we defined Virtual Periodic Task Set(VTS) which has constant period and worst case execution time, and released aperiodic tasks are assigned to this VTS. The period and worst case execution time of the virtual task can be obtained by calculating task utilization rate of both periodic and aperiodic tasks. The proposed DVS algorithm scales the frequency of both periodic and aperiodic tasks in VTS. Simulation results show that the energy consumption of the proposed algorithm is reduced by 11% over the conventional DVS algorithm for only periodic task.