RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재후보

        문화공간콘텐츠에 적용 가능한 참여자 경험설계요소 제안 - 브렌다 로렐의 ‘인간-컴퓨터 상호작용’이론의 응용을 통하여-

        장해라 글로벌 문화콘텐츠학회 2013 글로벌문화콘텐츠 Vol.0 No.11

        As the concept of culture expands and as the environment and method of possessing culture changes, the cultural space demanded by the 21st century complexes and diverses. Cultural space does not satisfy itself with passive observation and deliverance of fragment knowledges, but aims for the participant's experience, participation, and absorption through interaction. That is why the thesis notices the theory of Brenda Laurel, which paid close attention to the interaction of computer media and which approached prudently the participant's experience and absorption through human-computer interactions applying Aristotle's <Poetics>. Applying her theory, I would like to suggest a participant experience design element which looks from the side of the cultural space contents. Brenda Laurel emphasized the representation of behavior through experience and participation as an actor or as a hero/heroine, and reinterpretated Aristotle's 6 elements of drama through computer application. My thesis approached the 6 elements as a human-contents interaction concept, extracts 6 participant experience design elements which are sense, emotion, language, thought, character and action, then connects them with experience process, noticing cause and effect and interaction. Then analyzed the experience design elements by applying it to <Dialogue in the Dark> case. <Dialogue in the Dark> interacts through the cause and effect of the experience elements, derives participant's voluntary participation and absorption, and guide internal change after the experience. According to such analysis, we acknowledge the importance of planning and composition of cultural space content that can bring out and stimulate the participant's experience elements. Absorption through interactions is required not only in the on-line space but also in the off-line space as well. I expect the experience design element through human-content interaction is a way that can make it possible. 문화의 개념이 확장되고 문화를 향유하는 환경과 방식이 변화함에 따라 21세기가 요구하는 문화공간은 더욱 복잡해지고 다양화되고 있다. 단순한 수동적인 관람과 단편적인 지식만 전달하는 것이 아니라 참여자의 경험과 참여, 상호작용을 통한 몰입을 유도하는 방식을 지향하고 있는 것이다. 그래서 본 연구에서는 컴퓨터 매체의 상호작용성에 주시하며 아리스토텔레스Aristoteles의 <시학>을 적용하여 인간-컴퓨터의 상호작용Human-computer interaction을 통한 참여자의 경험과 몰입에 관해 진지하게 접근했던 브렌다 로렐Brenda Laurel의 이론에 주목했다. 그녀의 이론을 응용하여 문화공간 콘텐츠의 입장에서 보는 참여자 경험설계요소를 제안하고자 한다. 브렌다 로렐은 1인칭의 입장에서 참여하는, 즉 인간이 관객뿐 아니라 연기자, 혹은 주인공의 입장에서 경험하고 참여함으로 행위를 표상하는 것에 대해 주장하였는데 아리스토텔레스가 제시한 드라마의 6가지 구성요소의 인과관계를 컴퓨터에 적용하여 재해석하였다. 본 연구에서는 이 6가지 구성요소를 인간-콘텐츠 상호작용의 개념으로 접근하여 6가지 참여자 경험설계요소인 감각(Sense), 감정(Emotion), 언어(Language), 사고(Thought), 역할(Character), 행동(Action)을 추출하고 이들의 인과관계, 상호작용에 주목하여 체감(體感), 체득(體得), 체현(體現)의 체험과정과 연결시켰다. 그리고 이 경험설계요소를 <어둠속의 대화 Dialogue in the Dark> 사례에 대입하여 분석하였다. <어둠속의 대화>는 경험요소의 인과관계에 따라 상호작용하며 참여자의 자발적 적극적 참여와 몰입을 유도하고 체험이 끝난 후에 내적 변화까지 이끌어냈다는 점에서 그 가능성을 보여주고 있다. 이러한 분석을 통해 참여자의 경험요소를 파악하고 자극시킬 수 있는 문화공간의 콘텐츠 기획과 구성이 필요함을 인지할 수 있다. 이제는 게임과 같은 온라인 공간에서뿐만 아니라 오프라인 공간에서도 상호작용을 통한 경험의 몰입이 요구되고 있다. 인간-콘텐츠 상호작용에 따른 경험설계요소가 그 하나의 방법이 될 수 있기를 기대한다.

      • KCI등재

        몰입형 VR 환경에서 가상 반려동물과 상호작용에 관한 패시브 햅틱 요소의 영향 분석

        김동근,조동식 (사)한국컴퓨터그래픽스학회 2024 컴퓨터그래픽스학회논문지 Vol.30 No.3

        최근, 몰입형 가상현실(IVR) 환경에서 가상 객체(Virtual Object)를 이용한 상호작용을 통해 교육, 의료, 산업, 원격지 협업 등 다양한 서비스에 활용되고 있다. 특히, 인공지능(AI) 기술을 접목하여 가상 휴먼을 사용자에게 가시화하고, 상호작용을 수행하는 연구가 활발하게 진행되고 있고, 이를 확장한 가상 반려동물에 관한 연구도 시작되고 있는 단계이다. 몰입VR공간에서 가상 반려동물과 상호작용을 수행하기 위해서는 실제 환경에서 반려동물과 신체 접촉(쓰다듬기 등) 및 제스처와 같은 비언어적 상호작용(Non-verbal Interaction)이 소통을 위해 중요한 것처럼 가상 환경에서도 이러한 상호작용의재현을 통해 몰입 경험을 높이는 요소에 대한 영향 분석이 필요하다. 본 논문에서는 몰입형 VR 환경에서 사용자가 가상반려동물과 상호작용 체험을 수행할 때 패시브 햅틱(Passive Haptic)을 제공하고, 그 촉각(Tactile) 요소에 대한 영향 분석을수행하였다. 패시브 햅틱의 촉각(Tactile) 요소를 모양(shape), 재질(texture) 항목으로 분류하여 그 변화의 정도에 따라 상호작용 효과에 어떠한 영향이 있는지 측정하였다. 실험 결과, 패시브 햅틱 피드백이 제공되는 몰입형 가상 환경에서 가상반려동물 상호작용을 수행할 때 재질 요소의 단계(Level)의 차이에 따라 몰입감(Immersion), 공존감(Co-presence), 사실감(Realism), 친근감(Fridenliness) 측면에서 통계적으로 유의미한 차이가 있다는 것을 알 수 있었다. 또한, 재질과 모양에 따른 통계적 상호작용 영향 분석에서 친근함 측정 결과에서 불쾌한 골짜기(Uncanny Valley) 효과가 있다는 것을 확인하였다. 본 논문의 연구 결과는 가상 반려동물 상호작용을 수행하는 콘텐츠 개발에 가이드라인으로 기여할 것으로 기대된다. Recently, with immersive virtual reality(IVR) technologies, various services such as education, training, entertainment, industry, healthcare and remote collaboration have been applied. In particular, researches are actively being studied to visualize and interact with virtual humans, research on virtual pets in IVR is also emerging. For interaction with the virtual pet, similar to real-world interaction scenarios, the most important thing is to provide physical contact such as haptic and non-verbal interaction(e.g., gesture). This paper investigates the effects on factors (e.g., shape and texture) of passive haptic feedbacks using mapping physical props corresponding to the virtual pet. Experimental results show significant differences in terms of immersion, co-presence, realism, and friendliness depending on the levels of texture elements when interacting with virtual pets by passive haptic feedback. Additionally, as the main findings of this study by statistical interaction between two variables, we found that there was Uncanny valley effect in terms of friendliness. With our results, we will expect to be able to provide guidelines for creating interactive contents with the virtual pet in immersive VR environments.

      • KCI등재

        학습자와 AI 간 상호작용에 영향을 미치는 요인 탐색

        조영환,사운서,김혜은 한국교육정보미디어학회 2024 교육정보미디어연구 Vol.30 No.6

        Interest in AI-based education has grown significantly, but there is a lack of systematic research on how learners interact with AI systems. Learners with limited AI knowledge and experience may face substantial difficulties in engaging with AI systems. For effective AI-based education, it is essential to analyze the patterns of interaction between learners and AI and to provide personalized learning support. This study aims to categorize the patterns of interaction between learners and AI and to explore the factors that influence these interactions. In this study, 30 undergraduate and graduate students participated in AI-based tasks, which involved drawing a four-panel comic with Tooning and writing an English essay using QuillBot, followed by individual interviews. A qualitative analysis of the interview data revealed three types of interaction: AI-dependent, human-driven, and collaborative interactions. The interaction patterns varied depending on how frequently learners interacted with AI and how much agency they demonstrated in engaging with the task. In addition, the nature of the interactions was influenced by the factors including learner competencies, AI systems’ function and design, task characteristics, and interaction contexts. Particularly, learners with more knowledge and experience in AI, positive attitudes toward it, task-related knowledge, and self-regulated learning abilities were more likely to interact with AI in a collaborative way. These findings provide key insights for shaping the future direction of education in the AI era and for exploring the design principles underlying teaching with AI systems. 최근 AI 기반 교육에 대한 관심이 증대되고 있으나, 학습자와 AI 간 상호작용에 대한 체계적인 연구는 부족한 편이다. AI에 대한 지식과 경험이 부족한 학습자일수록 AI와 상호작용하는 데 어려움을 겪거나 AI를 잘못 사용할 우려가 있다. AI 기반 교육의 효과를 향상시키기 위해 학습자와 AI 간 상호작용 양상을 분석하고 맞춤형 학습 지원을 제공할 필요가 있다. 본 연구는 학습자와 AI 간 상호작용 양상을 유형화하고 상호작용에 영향을 미치는 요인을 탐구하고자 한다. 이를 위해 30명의 대학생과 대학원생이 Tooning을 활용한 네컷 만화 그리기와 QuillBot을 활용한 영어 작문 과제를 수행하고 개별 면담에 참여하였다. 면담 자료를 질적으로 분석한 결과, 학습자와 AI 시스템의 역할과 관계에 따라 AI 의존적, 인간 주도적, 협력적 상호작용 유형이 도출되었다. 학습자가 AI와 얼마나 자주 상호작용하는지와 얼마나 주도적으로 활동에 참여하는지에 따라 상호작용 양상이 달라졌다. 그리고 학습자 역량, AI 시스템의 기능과 디자인, 과제 특성, 상호작용 맥락에 따라서 AI와 상호작용하는 양상이 달라졌다. 특히, AI 시스템에 대한 지식과 사용경험이 많고, AI에 대해 긍정적 태도를 가지며, 과제에 대한 지식과 자기조절학습 능력이 높은 학습자일수록 AI 시스템과 협력적으로 상호작용하는 양상을 보였다. 이러한 연구 결과는 AI 시대에 필요한 교육의 방향을 설정하고 AI 활용 수업의 설계원리를 개발하는 데 주요한 시사점을 제공한다.

      • KCI등재

        인간-컴퓨터 상호작용을 위한 신경망 알고리즘기반 레이저포인터 검출

        정찬웅(Chanwoong Jung),정성문(Sungmoon Jeong),이민호(Minho Lee) 한국산업정보학회 2011 한국산업정보학회논문지 Vol.16 No.1

        본 논문에서는 인간-컴퓨터 상호작용 시스템 구현을 위해 신경망 알고리즘을 적용하여 스크린 상의 레이저포인터를 효과적으로 검출하는 방법을 제안하였다. 제안된 신경망 알고리즘은 먼저 레이저포인터가 없는 입력 카메라 영상의 패치들을 학습시킨다. 학습된 선경망은 카메라 영상으로부터 얻은 입력 패치에 대해 출력 값을 발생시킨다. 만약 미세한 레이저빔의 변화가 입력영상에 감지되면 이를 증폭시켜 레이저 빔을 검출하는 역할을 한다. 제안된 시스템은 레이저포인터, 싼 가격의 웹캠 그리고 영상처리 프로그램으로 구현할 수 있다. 그리고 레이저포인터와 컴퓨터의 배경화면 색상이 유사한 경우에도 레이저포인터를 검출할 수 있는 장점이 있으므로 인간-컴퓨터 상호작용 시스템의 성능개선에 기여할 것이다. In this paper, an effective method to detect the laser pointer on the screen using the neural network algorithm for implementing the human-computer interaction system. The proposed neural network algorithm is used to train the patches without a laser pointer from the input camera images, the trained neural network then generates output values for an input patch from a camera image. If a small variation is perceived in the input camera image, amplify the small variations and detect the laser pointer spot in the camera image. The proposed system consists of a laser pointer, low-price web-camera and image processing program and has a detection capability of laser spot even if the background of computer monitor has a similar color with the laser pointer spot. Therefore, the proposed technique will be contributed to improve the performance of human-computer interaction system.

      • KCI등재

        인간-컴퓨터 상호작용을 활용한 교육용 잡샵 일정계획 인터페이스 개발 연구

        이미숙,문석환 한국경영교육학회 2009 경영교육연구 Vol.56 No.-

        본 연구에서는 잡샵 일정계획, 네트워크기반 생산일정계획, 인간-컴퓨터 상호작 용에 의한 일정계획(Human-Computer Interactive Scheduling; HCIS), 교육용 그래픽 인터페이스 등에 대한 선행연구를 기반으로 인간-컴퓨터 상호작용에 의한 잡샵 일정계획 그래픽 인터페이스를 개발하였다. 1990년을 전후로 인간-컴퓨터 상호작용(Human-Computer Interaction; HCI) 연구와 일정계획(Scheduling)이 접목하여 HCIS에 대한 연구가 활발하였지만 2000년 이후로 HCIS연구가 감소하 고 있는 실정이며 특히 이에 대한 교육용 인터페이스 개발은 전무한 상태이다. 기 존 연구에서 개발된 수치위주, single-agent learning의 HCIS 인터페이스와는 달 리, 본 연구에서는 시각화, 상호작용, 사용 용이성에 초점을 두어 웹상에서 여러 학 생들이 참여할 수 있는 인터페이스를 개발하였다. 산업현장을 잘 이해하지 못하는 대학생들이 잡샵 일정계획을 단순한 강의만을 통 해 파악하기 힘들기 때문에 시각적 인터페이스를 통한 시뮬레이션 학습이 필요할 것이다. 특히, HCIS에서는, 일정계획에 대한 인간의 전문적 지식이 요구되는데, 교 육용 그래픽 인터페이스가 개발되어 활용된다면 많은 학생들이 생산공정을 이해하 고 일정계획 전문가(Human Scheduler)가 되는데 도움이 될 것이다. In this paper, educational job shop scheduling interface using Human- Computer Interaction was developed based on the previous studies of job shop scheduling, network-based scheduling, Human-Computer Interactive Scheduling (HCIS), and educational graphic interface. Before and after 1990, Human Computer Interaction(HCI) has been grafted with scheduling and HCIS was discussed briskly. But, after 2000 the study of HCIS has been decreased and there's little educational interface development. In this paper, separate from the previous studies of HCIS, graphic interface that many students can take part in on the Web was developed focusing on the visualization, interaction, and ease of use. The proposed graphic interface can provide students with a computerized graphic interface that contains many aiding features under dynamic job shop environments. So they can understand easily the scheduling process and will become expert scheduler when they are employed in the real manufacturing system.

      • 교육용 일정계획 인터페이스 개발 연구

        이미숙(Mi Sook, Lee),문석환(Seok-Hwan, Moon) 한국경영교육학회 2009 한국경영교육학회 학술발표대회논문집 Vol.2009 No.6

        일정계획(scheduling)은 대부분의 제조업이나 서비스업에서 가장 중요한 역할을 하는 의사결정과정(decision-making process)으로서 경쟁력 있는 다양한 생산전략들을 뒷받침한다. 특히, 고객 욕구가 다양화된 시장환경 하에서 다품종소량생산을 하는 잡샵(job shop)에서의 일정계획문제는 제품종류의 다양화, 생산량과 납기의 다양화, 복잡한 작업흐름 때문에 매우 복잡하고 어렵다. 최근 잡샵에서의 복잡한 실시간 일정계획 문제를 해결하기 위해 수학적 접근방법, 휴리스틱, 지식기반 전문가 일정계획 시스템(Knowledge-Based Expert Scheduling System), 인간과 컴퓨터 상호작용에 의한 일정계획(Human-Computer Interactive Scheduling; HCIS) 등과 같은 많은 연구가 계속되어져 왔다. HCIS는 작업장과 기계에 대한 정보를 컴퓨터에 의해 제공받으면서 인간이 직접 작업배정을 하는 네크워크 기반 그래픽 인터페이스(network-based graphic interface)를 사용한 일정계획 기법이다. HCIS는 더 나은 일정계획을 위해 컴퓨터의 계산능력을 인간의 패턴 인식(pattern recognition), 적응(adaptation) 그리고 의사결정 능력(decision making ability)과 결합하게 된다. 본 연구에서는 네트워크기반 생산일정계획, HCIS, 잡샵에서의 작업배정규칙 등에 대한 선행연구를 기반으로 인간과 컴퓨터 상호작용에 의한 잡샵 일정계획 그래픽 인터페이스를 개발하였다. 산업현장을 잘 이해하지 못하는 대학생들이 잡샵 일정계획을 단순한 강의만을 통해 파악하기 힘들기 때문에 시각적 인터페이스를 통한 시뮬레이션 학습이 필요할 것이다. 특히, HCIS에서는, 일정계획에 대한 인간의 전문적 지식이 요구되는데, 교육용 그래픽 인터페이스가 개발된다면 많은 학생들이 생산공정을 이해하고 일정계획 전문가(Human Scheduler)가 되는데 도움이 될 것이다. The advanced technologies in the network area have contributed to build the new and interesting environment in the many application fields. The educational application program using the computer technology have also been developed continuously. In this paper, job shop scheduling graphic interface using Human Computer Interaction(HCI) was proposed for the purpose of education on the basis of the antecedent studies of the network-based scheduling, HCI, and dispatching rules in job shop. In HCIS, advantageous features of computers including computing power and aiding features are combined with human pattern recognition, adaptation and decision making abilities in order to make a better schedule. The proposed Human Computer Interactive Scheduling (HCIS) can provide students with a computerized graphic interface that contains many aiding features under dynamic job shop environments. So they can understand easily the scheduling process and will become expert scheduler when they are employed in the real manufacturing system.

      • KCI등재

        노령층의 대리 감각(Sense of Agency) 메커니즘과 지능형 장치의 인간-컴퓨터 상호작용 디자인에 관한 연구 -인지 신경과학 기반으로-

        조배욱,조택연 한국디자인문화학회 2024 한국디자인문화학회지 Vol.30 No.2

        긍정적 고령화와 성공적인 고령화 배경 하에 일상생활 속의 노인 지각제어(Perceived Control)가 주목받기 시작했다. 대리 감각(Sense of Agency)은 자신이 주도적으로 시작한 행동을 통해 외부 세계를 통제하는 느낌으로 지각제어에서 매우 중요한 위치를 차지하고 있다. 특히 스마트 디바이스와 상호작용하는인간-컴퓨터 상호작용(Human-Computer Interaction) 분야에서는 노인이 조작할 때마다 대리 감각의 성공이나 실패를 경험하게 된다. 그러나 현재 노인용 스마트 디바이스에 초점을 맞춘 연구에서는 스마트 디바이스 상호작용의 편리성과 자동화에 더 많이 집중하고 있어 직접 조작을 통해 얻는 제어감을 무시하고있다. 이 때문에 대리 감각을 높이지 못하고 심지어저하시킬 수도 있다. 따라서 본 연구는 인지신경과학을 바탕으로 우선 노인 대리 감각과 관련된 이론적배경을 정리하였다. 다음으로 대리 감각은 결과 예측(prediction of outcomes), 동작 실행(movement execution), 결과 피드백(outcome feedback)의 세 단계에서 발생하는 신경 메커니즘을 분석하였다. 마지막으로 세 단계를 통해 노인들이 스마트 디바이스와의상호 작용 설계에서 어떻게 정확하고 빠르게 대리 감각을 유발할 수 있는지에 대한 설계 설명과 조언을하였다. 첫째, 결과 예측 단계에서는 친숙하고 노인의신속한 인식과 정확한 예측을 가능하게 하는 상호 작용 지시가 노인에게 더 적합하다. 둘째, 동작 수행 단계에서는 노인이 신체의 다감각(예: 촉각+청각)을 동원하여 스마트 디바이스를 조작했다고 확신하고 다음결과를 정확하게 판단할 수 있도록 한다. 셋째, 결과피드백 단계에서는 시각, 청각, 촉각이 결합된 다감각적 피드백을 통해 노인이 대리 감각의 마지막 대리귀책(proxy attribution) 단계에서 결과가 자신의 행동에 의해 발생한 것인지 여부를 정확히 판단할 수 있게 한다. 이를 통해 피드백 결과가 자신의 예상과 일치하는지 여부를 인식한다. 본 연구를 통해 노인들의인터랙티브 디자인에 있어서 새로운 디자인 방향을제시할 수 있기 바란다. In the context of active aging and successful aging, the perceived control of the elderly in daily life has drawn increasing attention. The “sense of agency,” which refers to the feeling of controlling the external world through one’s own voluntary actions, occupies a crucial position in perceived control, especially in the field of human-computer interaction with intelligent devices, where each interaction with such devices involves successful or failed experiences of sense of agency. However, in the current research focusing on the elderly and intelligent devices, more and more devices concentrate on convenience and automation in interaction, neglecting the sense of control obtained through manual operation. This not only fails to enhance the sense of agency but may even lead to its decline. Therefore, based on cognitive neuroscience, this thesis first organizes the theoretical background related to the sense of agency in the elderly. Secondly, it analyzes the neural mechanisms underlying sense of agency during the stages of prediction of outcomes, movement execution, and outcome feedback. Finally, through these stages, design explanations and suggestions are provided on how to correctly and rapidly evoke the sense of agency in the elderly during interaction with intelligent devices. Firstly, in the prediction of outcomes stage, interactive instructions that are familiar and allow the elderly to quickly recognize and accurately predict are more suitable. Secondly, in the movement execution stage, coordinating multiple sensory modalities of the body (such as touch + hearing) can ensure that the elderly believe they have controlled the action, thus correctly judging the subsequent results. Thirdly, in the outcome feedback stage, through multisensory feedback combining visual, auditory, and tactile feedback, the elderly can correctly recognize whether the outcome is generated by their own actions in the final stage of proxy attribution of the sense of agency, and thus assess whether the feedback results are consistent with their expectations. It is hoped that this thesis can provide new design directions for interaction design for the elderly.

      • KCI등재후보

        멀티터치를 위한 테이블-탑 디스플레이 기술 동향

        김송국,이칠우 한국콘텐츠학회 2007 한국콘텐츠학회논문지 Vol.7 No.2

        Recently, the researches based on vision about user attention and action awareness are being pushed actively for human computer interaction. Among them, various applications of tabletop display system are developed more in accordance with touch sensing technique, co-located and collaborative work. Formerly, although supported only one user, support multi-user at present. Therefore, collaborative work and interaction of four elements (human, computer, displayed objects, physical objects) that is ultimate goal of tabletop display are realizable. Generally, tabletop display system designs according to four key aspects. 1)multi-touch interaction using bare hands. 2)implementation of collaborative work, simultaneous user interaction. 3)direct touch interaction. 4)use of physical objects as an interaction tool.In this paper, we describe a critical analysis of the state-of-the-art in advanced multi-touch sensing techniques for tabletop display system according to the four methods: vision based method, non-vision based method, top-down projection system and rear projection system. And we also discuss some problems and practical applications in the research field. 최근에 인간과 컴퓨터 상호작용을 위한 사용자 의도 및 행위 인식에 관한 비전 기반 연구가 활발히 진행되고 있다. 그 중에서도 테이블-탑 디스플레이 시스템은 터치 감지 기술의 발전, 협력적인 작업 추구에 발맞추어 다양한 응용으로 발전하였다. 이전의 테이블-탑 디스플레이는 오직 한명의 사용자만을 지원하였으나 현재에는 멀티터치를 통한 멀티유저를 지원하게 되었다. 따라서 테이블-탑 디스플레이의 궁극적인 목적인 협력적인 작업과 네 가지 원소 (인간, 컴퓨터, 투영된 객체, 물리적 객체) 의 상호작용이 실현 가능하게 되었다. 일반적으로 테이블-탑 디스플레이 시스템은 다음의 네 가지 측면; 맨 손을 이용한 멀티터치 상호작용, 동시적인 사용자 상호작용을 통한 협력적인 작업의 구현, 임의의 위치 터치를 이용한 정보 조작, 상호작용의 도구로서 물리적인 객체의 사용을 중심으로 설계되어 있다. 본 논문에서는 테이블-탑 디스플레이 시스템을 위한 최첨단의 멀티터치 센싱 기술을 시각기반 방법, 비-시각 기반 방법으로 분류하고 비판적인 견해에서 분석을 하였다. 또한 테이블-탑 디스플레이 관련 연구들을 시스템 구성방식에 따라 분류하고 그 장단점과 실제 사용되는 응용 분야에 대해 기술하였다.

      • KCI우수등재

        소셜 로봇의 자기의식 표현이 로봇의 호감도에 미치는 효과 연구

        김동환,최상욱 한국정보과학회 2019 정보과학회논문지 Vol.46 No.7

        The research on social robots is gradually expanding with the inclusion of studies on interaction with humans with emphasis on behavior, facial expressions, nonverbal cues, and emotional expressions. In this study, we investigated the effect of expression of self-consciousness in social robots at the time of social attraction through a survey experiment. In particular, we measured the changes in the social attraction score depending on the public and private self-consciousness expressions and the appearance of the robot, especially when the robot was placed in the uncanny valley. The results showed that the expressions of self-consciousness increased the attractiveness of social robots, but we found mixed effects on message types and the appearance of the robots. This study suggests a new and efficient way to enhance the perceived attractiveness of robots. Also, the results are hypothesized to have practical implications for designing the interface and interaction of social robots and in building a positive social relationship with humans. 최근 활발한 연구가 진행 중인 소셜 로봇 분야는 로봇의 행동이나 표정, 비언어적 감정 표현과 같은 인간과의 상호작용을 다루는 연구로 범위가 확대되고 있다. 본 연구에서는 인간과 대화하고 교감하는 소셜 로봇을 대상으로 로봇의 자기의식 표현이 호감도에 미치는 효과를 실험을 통해 살펴보았다. 특히, 로봇의 공적/사적 자기인식 표현 방식과 외형에 따라 사용자가 느끼는 사회적 매력의 변화를 측정해 사회적인 환경 속에서 인간과 로봇의 상호작용 방식에 따른 차이를 분석해보았다. 실험 결과 로봇의 자기의식 표현은 로봇에 대한 호감도를 상승시키는 결과로 이어졌지만, 표현 방식과 외형에 따라 유의하게 다른 효과가 발견되었다. 본 연구의 결과는 로봇의 시각적/기능적 측면이 아닌 사회적 관계 속에서 로봇의 매력을 높이는 효율적인 방안을 제시한다는 점에서 의의가 있고, 향후 소셜 로봇의 인터페이스 디자인에서도 사용자의 호감을 이끌어내는 상호작용 전략의 구상에 활용될 수 있을 것으로 기대한다.

      • 입술동기화 얼굴 애니메이션

        이혁준 광운대학교 신기술연구소 1999 신기술연구소논문집 Vol.28 No.-

        인간과 컴퓨터의 상호작용에 있어서 높은 수준의 현실감을 제공하는 가상현실을 이용한 대화 시스템 은 매우 중요한 요소로 요구되고 있다. 본 논문에서는 원격 합성 음성/영상 대사를 위한 입술 동기화 얼굴 애니메이션 시스템을 소개한다. 이 시스템에서는 음성 또는 텍스트 형태로 주어진 대사를 입력으로 하여 viseme의 열을 구한 뒤 viseme-파라미터 테이블을 이용하여 얼굴모델의 형태제어 파라미터 값을 결정한다. 결정된 파라미터 값을 이용하여 키프레임을 만들고 보간법을 사용하여 중간 프레임을 만들어 애니메이션을 완성한다. 대사 입력과 파라미터값 결정을 서버에서 처리하여 음성데이터와 파라미터값을 비트스트립의 형태로 클라이언트에 전달하면 클라이언트는 애니메이션을 실행하여 디스플레이한다. There is a strong desire for means to communicate between men and machines, either at the local site or at a distant location, through a more realistic virtual environment. We designed and implemented a lip-synchronized facial animation system that enables the remote synthetic audio/visual speech. In this system, a server, with its input either in audio or text form, constructs a sequence of viseme, before it determines the control parameters for animation using a viseme-parameter table. Based on the Parameter values obtained, key frames and intermediate frames are created by interpolation. The server takes the audio or text input and sends the audio data and the control parameters obtained, and the client takes care of animation.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼