RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 학위유형
        • 주제분류
          펼치기
        • 수여기관
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 지도교수
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • Enhancing user experience with a conversational agent : effects of self-disclosure and reciprocity

        이서영 Graduate School of Information, Yonsei University 2017 국내박사

        RANK : 248619

        컴퓨터는 사회적 행위자 ‘CASA(Computer-Are-Social-Actors)’ 패러다임에 따라 사람들은 컴퓨터를 도구가 아닌 사회적 행위자로 인식하고 다른 사람에게 적용하는 규범 및 행동을 무의식적으로 컴퓨터에게 적용하게 된다. 본 논문은 인간과 컴퓨터의 상호 작용이 관계 발전에 어떤 영향을 미치는 지 살펴보기 위해 찰스 버거(Charles Berger)의 불확실성 감소 이론(Uncertainty Reduction Theory) 을 적용해 상호 작용 주체 간의 예측력과 설명력을 높이기 위한 불확실성 감소 커뮤니케이션 이론과 CASA패러다임을 채택하여 사용자 만족에 대한 주요 의사 소통 변수로서 자기 공개 및 호혜성의 독립 변인(2*2) 을 조합하여 실험을 통해 사용자와 CA의 관계 발전에 어떤 영향을 미치는지 살펴보았다. A two-way ANOVA 테스트를 통해 자기 공개 및 호혜성이 사용자 만족도 및 지속사용의도에 미치는 영향을 분석했다. 사용자 만족에 대한 독립변수의 상호 작용 효과 (interaction effect)는 나타나지 않았지만 자기 공개 및 호혜성 각각의 주 효과는 두 가지 모두 중요한 것으로 나타났다. PLS 분석 결과는 인지된 신뢰와 상호 작용의 즐거움은 커뮤니케이션의 독립변수와 사용자 만족 간의 관계에서 중요한 매개변인임을 보여주었다. 또한 호혜성은 에이전트와 사용자 간의 관계 발전 시에 자기 공개보다 강력한 커뮤니케이션 변수로 작용했다. 아울러, 종속 변수(사용자 만족도)와 최종종속변수(지속 사용 의도) 사이에는 큰 상관 관계를 보였다. 본 연구의 결과는 에이전트 설계에 있어 의미 있는 실무적 함의를 주고 에이전트와 사용자 사이의 상호작용을 통한 관계 발전에 어떤 영향을 주는 지에 대한 이론적인 함의를 시사하고 있다. This study investigates how user satisfaction and intention to use for an interactive movie recommendation system is determined by communication variables and relationship between conversational agent and user. By adopting the Computers-Are-Social-Actors (CASA) paradigm and uncertainty reduction theory, this study examines the influence of self-disclosure and reciprocity as key communication variables on user satisfaction. A two-way ANOVA test was conducted to analyze the effects of self-disclosure and reciprocity on user satisfaction with a conversational agent. There is no significant interaction effect of self-disclosure and reciprocity on user satisfaction, but the main effects proved to be both significant. PLS analysis results showed that perceived trust and interactional enjoyment are significant mediators in the relationship between communication variables and user satisfaction. In addition, reciprocity is a stronger variable than self-disclosure in predicting relationship building between an agent and a user. Finally, user satisfaction is an influential factor of intention to use. These findings have implications from both practical and theoretical perspective.

      • 대화형 에이전트와 사용자의 친밀감 형성이 신뢰에 미치는 영향에 대한 연구 : 자기노출, 잡담, 의인화 전략을 중심으로

        박선영 연세대학교 대학원 2019 국내석사

        RANK : 232319

        4차 산업혁명의 시대를 맞이하여 여러 인공지능 기술이 출시되고 있다. 이러한 인공지능 기술이 효과적으로 사용되기 위해서는 사용자가 그것을 신뢰하는 것이 중요하다. 신뢰라는 개념은 대인관계에서 매우 중요한 요소 중 하나이며, 컴퓨터는 사회적 행위자라는 패러다임에 의하면 기술과 인간의 관계에도 적용될 수 있을 것이다. 본 연구에서는 대화를 통해 상호작용이 가능하여 기계가 아닌 교류의 대상으로 인식되기에 적합한 환경을 갖춘 대화형 에이전트를 중심으로 인간과의 상호작용에 대해 연구하였다. 연구에서는 신뢰의 중요한 선행요건인 친밀감 형성을 중심으로, 대인관계에서 친밀감을 형성하기 위한 전략으로 사용되는 자기노출과 잡담을 대화형 에이전트에 적용하였다. 또한 성격적으로 유사한 대상에 친밀감을 느끼게 되는 현상을 이용하여 의인화 전략을 대화형 에이전트에 적용하였다. 세 가지 전략을 적용한 에이전트에 대해 사용자들이 친밀감을 느끼는가, 이것이 신뢰에 영향을 미치는가를 알아보고자 하였고 이를 통해 대인관계의 사회적 전략이 에이전트와 인간의 관계에도 적용되는지 알아보고자 하였다. 또한 이들의 관계에 있어서도 친밀감이 신뢰의 선행요건이 되는지 밝히고자 하였다. 연구는 인공지능 스피커와 사용자가 대화하는 모습의 데모 영상을 피험자들에게 보여준 후 설문에 응답하도록 하는 방식으로 이루어졌다. 변인 간의 독립성을 확보하고 실험의 효율성을 증대시키기 위해 2x2x2의 혼합요인설계로 실험을 설계하였고 분석은 측정 변인의 타당성 검증, 조작화 검증, 가설 검증의 세 단계로 이루어졌다. 실험 결과, 잡담 전략은 친밀감 형성에 부정적인 영향을 미쳤고 자기노출과 의인화 전략은 긍정적인 영향을 미쳤다. 또한 세 개의 전략은 신뢰에는 직접적으로 영향을 미치지 않았지만, 친밀감은 신뢰에 영향을 미쳤기 때문에 친밀감이 신뢰를 매개함을 알 수 있었다. 본 연구의 결론은 다음과 같다. 첫째, 자기노출, 잡담, 의인화 전략은 사용자의 신뢰를 형성하는 데 직접적인 영향을 미치지 않는 것으로 나타났다. 이러한 전략들에 의해 먼저 친밀감이 형성된 이후 신뢰가 형성됨을 알 수 있었다. 즉, 불확실성이 감소되어야 신뢰가 형성될 수 있으며, 사용자들은 잘 모르는 에이전트에 대해 신뢰하지 않는 것이다. 본 연구를 통해 친밀감이 신뢰를 매개하는 현상은 사용자가 제공 받고자 하는 정보의 종류나 수행하려는 업무의 복잡도에 따라 달라질 수 있음을 알 수 있었다. 간단한 업무에 대해서는 친밀한 에이전트를 신뢰하지만 복잡하거나 난이도가 높은 업무에 있어서는 오히려 친밀한 에이전트보다 딱딱하고 형식적인 에이전트를 신뢰할 수 있다는 점을 발견하였다. 둘째, 대인관계에서 상대방의 마음을 얻기 위한 하나의 전략으로 사용되는 잡담은 대화형 에이전트에 대한 사용자의 친밀감 형성에 기여하지 않는 것으로 나타났다. 이는 대화형 에이전트에 대한 사용자의 인식에서 기인하는 것으로 보인다. 아직까지 사용자들은 대화를 나눌 수 있는 음성기기를 ‘컴패니언(Companion)’으로 인식하지 않고 ‘비서’의 개념으로 인지하고 있는 것을 알 수 있었다. 또한 잡담하는 에이전트에 대해 인간인 척 하는 것 같아 불편함을 느낀다는 의견이 존재하므로 언캐니 밸리(Uncanny valley) 현상이 외모 뿐만 아니라 발화에 있어서도 적용됨을 알 수 있었다. 그러나, 일부 긍정적인 의견도 존재하여 컴패니언으로 발전할 여지도 존재함을 알 수 있었다. 마지막으로, 사용자들은 자기노출하는 에이전트와 의인화된 에이전트에게 친밀감을 느끼는 것으로 나타났다. 그리고 이러한 특성이 사용자가 에이전트를 신뢰하게 되는 요소임을 알 수 있었다. 사용자들은 같은 수준의 자기노출을 대화 상대방에게 들었을 경우와 대화형 에이전트에게 들었을 경우에 대하여 각각 다른 수준으로 받아들이고 있음을 알 수 있었다. 이는 언급한 것처럼 사용자들이 인공지능 스피커에게 정서적 효용성 보다는 기능적 효용성에 더 큰 가치를 두기 때문일 것이다. 또한 잡담이나 자기노출 없이 의인화만 이루어진 에이전트에 대해서 기계적이라고 인식하는 경향이 높았다. 따라서 말투와 억양보다 중요한 것은 컨텐츠이며, 대인관계에서의 사회적 전략을 이용하는 것이 인공지능 스피커의 지속적인 사용을 유도하는 방법의 하나로 사용될 수 있다는 점을 도출하였다. 그러나 선행되어야 할 것은 대화형 에이전트와의 관계에 대한 인식의 개선일 것이다. 대화형 에이전트와 친밀감을 형성하고 이것이 신뢰로까지 연결되기 위해서는 일방적으로 업무를 지시하는 비서에서 더 나아가 대화의 상대로 인식할 수 있도록 할 필요가 있을 것이다. 본 연구에서는 대화형 에이전트에 사회적 전략을 적용하여 친밀감과 신뢰가 형성되는지에 대해 살펴보았다. 본 연구가 음성 기반의 인터페이스를 디자인함에 있어서 사용자와 긍정적인 상호작용을 위한 지침으로 사용되기를 기대한다. With the advent of the fourth industrial revolution, a number of artificial intelligence technologies are being released. It is important for users to trust these artificial intelligence technologies in order to be used effectively. The concept of trust is one of the most important factors in interpersonal relationships, and could be applied to technology and human relationships in the paradigm of ‘Computers Are Social Actors’. This study has investigated interaction between human and conversational agents which interact through dialogue, so that it is suitable for recognition as an object of exchange, no as a machine. This study focused on intimacy-building, an important prerequisite for trust, and applied self-exposure and small talk to conversational agents, which were used as strategies to build intimacy in interpersonal relationships. In addition, the anthropomorphism strategy was applied to the conversational agents using the phenomenon of feeling intimacy with personally similar objects. The purpose of this study was to investigate whether the users feel intimacy about the agents applying the three strategies and whether they affect the trust. We also tried to find out whether intimacy is a prerequisite for trust in these relationships as in interpersonal relationships. The study was conducted by showing the subjects a video demo of an artificial intelligence speaker and a user talking before responding to the survey. In order to secure the independence between the variables and to increase the efficiency of the experiment, the experiment was designed with the 2x2x2 mixed factorial design. The analysis consisted of three steps: validation of the measurement variables, verification of manipulation, and verification of hypothesis. As a result of the experiment, the small talk strategy had a negative effect on the building of intimacy and the self-exposure and anthropomorphism strategy had a positive effect. In addition, the three strategies did not directly affect trust, but because intimacy affected trust, intimacy mediated trust. The conclusions of this study were as follows: First, self exposure, small talk and anthropomorphism strategies did not directly affect the user’s trust. By these strategies, we can see that trust is formed after intimacy is formed first. This means that trust can be formed only when the uncertainty is reduced, and users do not trust the unknown agent. Through this study, it can be seen that the phenomenon that intimacy mediates trust depends on the type of information that the user wants to receive and the complexity of the task to be performed. This study found that users trust close agents for simple tasks, but they can trust harder and more formal conversational agents than they do for complex or challenging tasks. Second, it was found that small talk, which is used as a strategy to gain the hearts of others in interpersonal relationships, did not contribute to the formation of user intimacy with conversational agents. This appears to be due to the user's perception of the agents. So far, users have been able to recognize voice devices that can communicate with each other as 'personal assistant' rather than 'companion'. Also, since there is an opinion that it feels uncomfortable because it seems to pretend to be a human being as a chatting agent, it can be seen that the Uncanny valley phenomenon applies not only to appearance but also to speech. However, there was also some positive opinion, so there was a possibility to develop as a companion. Finally, users were found to be familiar with agents that expose themselves and with agents that are personified. And we could see that these characteristics were factors that users would trust the agents. Users could see that they perceived the same level of self-exposure as different levels for the human conversational partner and for the conversational agent. This may be because, as mentioned, users put more value on functional utility than emotional utility on AI speakers. In addition, there was a tendency to perceive the agent with only anthropomorphism without small talk or self-exposure as mechanical device. Therefore, the thing which is more important than speech and intonation are contents, and it is derived that using social strategy in interpersonal relationship can be used as a way to induce continuous use of AI speaker. However, what should be preceded will be an improvement in awareness of the relationship with the conversational agent. To form intimacy with conversational agent and link it to trust, it will be necessary for conversational agent to be recognized as a dialogue partner further from the personal assistant who unilaterally directs the task. This study looked at whether social strategies were applied to conversational agents to create intimacy and trust. It is expected that this study is used as a guide to positive interactions with users in designing a voice-based interface.

      • 대화형 에이전트의 담화표지 사용이 사용자 인식에 미치는 영향 : 의인화, 인지된 지능을 중심으로

        정유인 연세대학교 일반대학원 2019 국내석사

        RANK : 232303

        As modern technology continues to develop itself further along the way, voice-based conversational agents have been communicating with its users in a more human-like way than ever before. However, the use of Discourse Markers (e.g. "um or uh-huh”) by a Conversational Agent, despite its frequent use and various lexical functions in human conversations, are not fully explored in HCI fields. In order to explore how two types of discourse markers (back-channels and conversational fillers) can impact the user perception on intelligence and human-likeness of the conversational agent, a 2(with/without Discourse Markers) x 2(task/social oriented conversation) experiment was conducted. Based on the experiment, the study has discovered two points – that 1. conversational agents using back-channels are evaluated by users as them being more intelligent and human-like in social-oriented conversations, and 2. that the use of conversational fillers weren’t able to induce a noticeable change regarding the perception of its humanlike-ness and intelligence statistics-wise. It is highly suggested of future developments regarding conversational agents to take the aforementioned outcomes into consideration. 최근 인간-컴퓨터 상호작용 분야에서는 유사성 매력 효과를 창출하기 위한 전략으로 대인 커뮤니케이션 요소를 대화형 에이전트에 적용하고 그 효과를 검증하는 연구들이 활발하게 진행되고 있다. 본 논문은 대인 커뮤니케이션에서 빈번하게 사용되는 두 가지 기능(호응하기/시간벌기)의 담화표지를 음성 유일의 대화형 에이전트에 적용하고, 사용자가 인식하는 에이전트의 의인화와 지능 수준에 차이가 나타나는지를 검토했다. 총 60 명의 참가자를 대상으로 오즈의 마법사 실험 연구를 진행된 결과, ‘호응하기’ 기능의 담화표지 사용은 대화형 에이전트의 의인화 수준과 인지된 지능 수준을 향상시킨 것으로 나타났다. 또한 그 효과는 고민 상담 등 대화형 에이전트와 사적인 대화를 나누는 사회적 대화 맥락에서 강하게 나타났다. 한편 후행 발화를 준비하기 위해 잠시 머뭇거리는 ‘시간벌기’ 담화표지 사용 유무는 대화형 에이전트의 의인화와 인지된 지능 수준에 유의미한 차이를 가져오지 않았다. 사후 인터뷰를 기반으로 그 원인을 분석한 결과, ‘호응하기’ 담화표지는 사용자에게 인간의 대화 상황과 비슷하다는 친근한 인상을 주며, 강한 현존감을 제공하여 대화형 에이전트의 의인화 수준을 증가시킨 것으로 나타났다. 또한 사용자는 에이전트의 ‘호응하기’ 담화표지 사용을 명령어를 정확히 인식했다는 시스템의 피드백 메시지로 인식하여 에이전트의 지능 수준을 높다고 평가했다. 한편 ‘시간벌기’ 담화표지는 사용자에 따라 그 평가가 상이하게 나타났다. ‘호응하기’ 담화표지와 마찬가지로 ‘시간벌기’ 담화표지를 사용하는 에이전트가 인간과 유사하다고 인식한 사용자가 있었지만, 대답하기 전 잠시 생각하는 행동이 기계인 에이전트에게는 부자연스럽게 느껴진다는 응답도 존재했다. 이와 같은 연구 결과는 스크린이 없는 음성 유일의 환경에서 대화형 에이전트의 담화표지 사용 효과가 그 기능과 맥락, 나아가 사용자의 특성에 따라 다르게 나타날 수 있음을 시사한다. 위 결과를 토대로 본 논문은 대화형 에이전트의 디자인 과정에서 고려해야할 구체적인 디자인 함의점을 제시했다는 점에서 연구 의의를 가진다.

      • 대화형 에이전트와의 상호작용에서 대화 유형과 발화 방식이 사용자 경험에 미치는 영향 : 스마트 홈 맥락을 중심으로

        강예슬 연세대학교 정보대학원 2021 국내석사

        RANK : 232303

        A conversational agent is an interface that is used in a variety of situations with advances in natural language processing of artificial intelligence. Among them, research on interaction with a conversational agent in smart home is expanding with development of voice processing technology that enables continuous conversation. This article studied the effect of conversational and speaking styles on user experience when interacting with a conversational agent in the form of experimental research. The conversation style was divided into task-oriented conversation and relationship-oriented conversation, and the differences between the two were studied. For smart home, the effects of response utterance type and preceding utterance type on user experience were compared. Through this, we quantitatively verified the elements of conversation that influence the user experience for the design of interactions with a conversational agent. In addition, for smart home, we studied and qualitatively analyzed the differences in the participants' perception of preceding utterance type, a new technology with little recognition, through post-interview. Finally, we tried to find practical discussion points through integrated analysis of the experimental results. Experimental results show: First, the conversation style had a meaningful effect on likability. Task-oriented dialogue showed higher likability rather than a relationship-oriented conversation. The second, the speaking style had a significant effect on psychological reactance. Psychological reactance to the preceding utterance type was great. Third, the effect of interaction of conversational and speaking styles had a meaningful impact on likeability and perceived intelligence. On the task-oriented dialogue conditions, the case of the preceding utterance type showed high likeability and perceived intelligence. On the relationship-oriented dialogue conditions, the case of the response utterance type showed high likeability and perceived intelligence. In post interview and integrated analysis, quantitative and qualitative analysis of psychological reactance were different. We interpreted this result to be due to the diversified perceptions and needs of participants on smart home technology. Based on this analysis, we presented four points of discussion when designing the interaction of a conversational agent for a smart home: (1) Conditional introduction of preceding utterance type and presentation of options. (2) Design for the sequential involvement of agents according to the period of continuous use. (3) Focus on relationship-oriented dialogue design in response utterance type cases. (4) Consideration of a conversational agent applying various types of persona considering role. It is academically meaningful that we have quantitatively studied the role of agents influenced by conversational and speaking styles operating in smart homes. It is also practically meaningful that we presented the discussion points required to design dialogue for the smart home after comprehensively analyzing quantitative and qualitative studies. 대화형 에이전트는 인공지능과 자연어 처리의 발전과 함께 다양한 상황 맥락에서 활용되는 인터페이스이다. 그 중 스마트 홈에서의 대화형 에이전트와의 상호작용에 관한 연구는 최근 음성처리 기술이 지속 대화가 가능한 수준으로 진보하면서 또다시 연구의 영역이 확장되고 있다. 이 논문에서는 대화형 에이전트와의 상호작용에서 대화 유형과 발화 방식이 사용자 경험에 미치는 영향을 실험 연구로 진행하였다. 대화 유형은 과제 중심적 대화와 관계 중심적 대화로 구분하여 유형에 따른 차이가 있는지 확인하였고, 스마트 홈 맥락에서 사용자가 먼저 에이전트를 호출하는 후행 발화 방식과 에이전트가 먼저 말을 거는 선행발화 방식이 사용자 경험에 어떠한 영향을 미치는지 비교해보고자 하였다. 이를 통해 대화형 에이전트와의 상호작용을 설계할 때 대화의 요소 중 어떤 것이 사용자 경험에 영향을 미칠지 정량적으로 검증하고자 하였다. 또한, 스마트 홈 맥락에서의 선행발화가 아직은 사용자들의 인지가 적은 신기술에 해당하기에 사후 인터뷰를 통해 실험 참여자들의 인지 차이를 확인하고 정성적 분석을 실시하였다. 그리고 실험 결과와의 통합 분석을 통해 실무적인 논의점을 찾고자 하였다. 실험 결과 첫 번째, 대화 유형은 호감도에 미치는 주효과가 유의하게 나타났고, 과제 중심적 대화가 관계 중심적 대화에 비교하여 호감도가 높음을 알 수 있었다. 두 번째, 발화 방식은 심리적 저항감에 미치는 주효과가 유의하게 나타났는데, 선행발화에 대한 심리적 저항감이 크게 나타났다. 세 번째, 대화 유형과 발화 방식의 상호작용 효과는 호감도와 인지된 지능에 유의미한 차이가 있음을 알 수 있었다. 과제 중심적 대화 조건에서는 선행발화가 호감도와 지각된 지능이 높게 나타나고, 관계 중심적 대화 조건에서는 후행 발화가 호감도와 지각된 지능이 높게 나타났다. 사후 인터뷰 분석과 통합 분석 시 심리적 저항감의 경우 정량적 분석과 정성적 분석의 결과가 다르게 나왔는데, 각각의 참여자의 스마트 홈 기술에 대한 인지 정도 및 니즈가 다양하기 때문으로 해석하였다. 이러한 분석을 바탕으로 스마트 홈 맥락에서의 대화형 에이전트 상호작용 설계 시 논의되어야 하는 점을 도출하였는데, (1) 선행발화의 조건부 도입 및 옵션을 제시할 것, (2) 지속 사용 기간에 따른 에이전트의 순차적 관여도를 설계할 것, (3) 후행 발화에서의 관계 중심적 대화 설계에 집중할 것, (4) 역할을 고려한 다양한 퍼소나(persona)를 적용한 대화형 에이전트 고려할 것의 4가지로 제안하였다. 이 연구는 스마트 홈 맥락에서 작용하는 대화의 유형과 발화 방식으로 달라지는 에이전트의 역할을 정량적 방법으로 검증하였다는 점에서 연구적 의의가 있다. 또한, 정량적 연구와 정성적 연구를 종합 분석하여 스마트 홈 맥락에서의 대화를 설계할 때 필요한 논의점을 도출하였다는 점에서 실무적 의의를 가진다.

      • 대화형 에이전트의 추천 전략이 음성 쇼핑 경험에 미치는 영향에 관한 연구 : 제품 유형과 대화 주도성을 중심으로

        김정현 연세대학교 정보대학원 2018 국내석사

        RANK : 232303

        대화형 에이전트(Conversational Agent)가 탑재된 AI스피커가 하나의 홈 디바이스 카테고리로 자리 잡았다. 음악 재생, 홈 IoT 제어, 뉴스, 날씨 검색 등 홈 생활 편의에 집중된 서비스에서 O2O, 쇼핑, 금융, 등 외부 전문 서비스와 연계되어 생활 행태 자체를 변화시키는 서비스로 범위를 확장하고 있다. 이제 대화형 에이전트를 통해 음성으로 상품을 구매할 수 있다. AI스피커를 활용한 음성 쇼핑 상황에서는 시각 정보가 없기에 전형적인 온라인 구매 프로세스와 다르다. 제품의 비교, 탐색 과정을 에이전트가 대신한다. 또한, 음성 인터렉션으로만 정보를 전달하기에 한 번에 제공할 수 있는 정보 양이 매우 제한적이다. 음성 쇼핑에서는 에이전트가 1~3개 정도의 제품만 추천 가능하고 소비자는 에이전트가 추천한 물품 중에서 구매할 확률이 매우 높다. 이러하기에 음성 쇼핑에서 추천 전략이 매우 중요하다. 이 연구에서 대화형 에이전트를 활용한 음성 쇼핑에서 효과적인 제품 탐색, 추천 전략이 무엇인지 실증적으로 탐구해보았다. 첫째, 음성 쇼핑에서 대화형 에이전트가 웹/모바일 쇼핑과 유사하게 음성 쇼핑에서도 사용자가 주도권을 가지고 탐색하고, 결정하는 사용자 주도 전략(User-Initiative Dialogue)을 취하는 것이 효과적인지, 에이전트가 매장에 방문하면 맞아주고 안내해주는 판매원과 같이 사용자와 대화를 이끌어나가며 사용자의 쇼핑 목적을 묻고, 이에 맞는 제품을 추천해주고 설명해주는 상호 주도 전략(Mixed- Initiative Dialogue)을 취하는 것이 효과적인지 알아보고자 하였다. 둘째, 제품유형과 대화형 에이전트의 대화 주도권 전략 간에 상호작용 효과가 있는지 살펴보았다. 연구결과는 다음과 같다. 음성 쇼핑 환경에서 상호주도 대화가 사용자 주도 대화보다 지각된 쇼핑가치, 에이전트 추천 제품에 대한 구매의도, 에이전트에 대한 사회적 실재감, 호감도 그리고 지속 이용의도에 긍정적 영향을 미치는 것으로 나타났다. 그러나, 저항감에서는 유의미한 차이를 보이지 않았다. 피험자들은 모바일, 웹과 달리 풍부한 이미지 자료를 참고하며 쇼핑을 할 수 없는 것을 음성쇼핑의 한계로 인식하고 대화 주도 전략과 관계없이 음성 쇼핑 자체에 불만과 거부감을 보였다. 또한 에이전트를 기업의 판촉행위를 돕는 매개라 인식하고 에이전트 메시지 내용과 그 추천에 대한 불신을 보였다. 이런 부정적 감정들이 저항감으로 나타났다고 보인다. 대화주도권 전략과 제품 유형 간에는 유의미한 상호작용 효과가 나타나지 않았다. 즉, 음성 쇼핑에서는 제품유형이 소비자 행동의 중요 조정변수로 작용하지 않았다. 시각적 보조 정보가 없고 제공할 수 있는 정보 양에 제약이 매우 커서 탐색재와 경험재 간 특성 차이가 실질적으로 드러나지 못했다고 보인다. 이 연구는 시장이 형성되고 있음에도 선행연구가 거의 없는 대화형 에이전트를 활용한 음성 쇼핑을 주제로 연구하였다는 점에서 의의가 있다. 대화형 에이전트가 퍼스널 쇼퍼와 같이 사용자의 쇼핑 목적 달성을 위해 적극 개입하는 상호 주도 전략으로 설계되어야 사용자의 만족과 지속 이용을 기대할 수 있음을 밝혔다. 나아가, 제품 유형보다는 제품에 대한 사전정보 보유 여부 혹은 제품에 대한 관심도가 중요 조정 변수가 될 수 있음을 시사한다.

      • 대화형 에이전트의 오류 메시지 전략과 의인화가 오류 회복에 미치는 영향

        최우빈 서울대학교 대학원 2020 국내석사

        RANK : 232303

        Conversational agents are increasingly used in a wide variety of domains. Not only voice-based agents such as Apple's Siri, Amazon Echo, but chatbots for various purposes such as travel information and health counseling are also commercially available. However, the use of conversational agents often results in unexpected errors that often compromise user trust or experience. In addition to some technical errors, conversational agents often do not understand the user's speech or fail to provide the desired answer. These errors can not only harm the user experience(UX) but also reduce the credibility of the agent, which in the long run may lead to the frustration to accept the information provided by the agent or to stop using it at all. In order to solve these errors, in this study, I apply the theory of Situational Crisis Communication Strategy and explore the effective error message strategy according to the type of error. Situational Crisis Communication Strategy Theory states that when an organization's crisis occurs, the use of receptive strategies(apologies) and defensive strategies(excuses) to restore the trust, respectively, depends on whether the public attribute the cause to the inside or outside of the organization. This study applies this theory to find out whether there is a difference in the user's trust depending on the error message strategy for each error type of the conversational agent. In this experiment, we attempted to find out which of the error messages using the apology and excuse strategies are effective in recovering trust and user experience. Using a travel information chatbot, the experiment participants experienced four types of errors (from a preliminary study) while planning a trip with the chatbot, and then we measured the trust and user experience. Experiment results showed that the error message strategy itself does not affect the error recovery. Also, the degree of anthropomorphism only influenced the attractiveness of the chatbots. However, when the degree of anthropomorphism was high, the excuse strategy was more effective in recovering the trust and perceived competence for errors caused by an external service failure. And for all other error types, the apology strategy turned out to be more effective. Also, depending on whether users attributed the cause of an error to the chatbots or not, the effect of recovery strategies differed. When the users think the chatbot is responsible for the error, the apology strategy is more effective, whereas the excuse strategy is more effective when users think chatbot is not responsible. This study suggests an error message design guideline for conversational agents and has implications for how to deal with unexpected situations in which computer agents have to take responsibility. 대화형 에이전트가 점점 더 다양한 영역에서 활용되고 있다. 애플의 시리, 삼성의 빅스비, 아마존 에코와 같이 음성을 기반으로 한 에이전트 뿐 아니라 여행상품 검색, 건강 상담 등 다양한 목적의 챗봇도 상용화되어 있는 상황이다. 그러나 대화형 에이전트를 사용하다보면 예기치 못한 오류가 자주 발생하여 사용자 신뢰도나 경험을 해치는 경우가 많다. 그 중에는 기술적인 오류도 있지만, 대화형 에이전트의 경우에는 사용자의 발화를 이해하지 못하거나 원하는 답변을 제공하지 못하는 것도 포함된다. 이러한 오류들은 단순히 사용자 경험(UX)을 해치기만 하는 것이 아니라 에이전트에 대한 신뢰도를 하락시켜 장기적으로는 에이전트가 제공하는 정보를 받아들이지 않거나 아예 사용 자체를 중단하게 할 가능성이 있다. 물론 이러한 오류들을 해결하기 위해서는 인공지능을 활용한 자연어처리 기법의 발전 등 기술적인 발전이 선행되어야 함은 분명하다. 그러나 모든 오류를 사전에 예상하고 막는 것은 사실상 불가능하기 때문에, 오류가 발생했을 때 적절한 오류 메시지를 통하여 회복 전략을 세우는 것이 중요하다. 따라서 본 연구에서는 상황 위기 커뮤니케이션 전략 이론(SCCT: Situation Crisis Communication Strategy)을 적용하여, 오류 유형에 따라 효과적인 오류 메시지 전략이 무엇인지 탐구해보고자 하였다. 상황 위기 커뮤니케이션 전략 이론에 따르면, 어떤 조직의 위기가 발생했을 때 대중들이 그 원인을 조직 내부와 외부 중 어디에 귀인하는지에 따라 각각 수용적 전략(사과)과 방어적 전략(변명)을 사용하는 것이 조직 신뢰도 회복에 효과적이다. 본 연구는 이 이론을 적용하여 대화형 에이전트의 오류 유형 별로 오류 메시지 전략에 따라 사용자가 느끼는 신뢰도에 차이가 있는지 알아보았다. 또한, 에이전트의 의인화 정도에 따라 사람들이 사회적으로 반응하는 정도가 달라진다는 점에서 의인화 정도에 따른 효과도 살펴보았다. 본 실험에 앞서, 실제 대화형 에이전트를 사용하는 과정에서 경험할 수 있는 오류를 유형화하기 위해 사전 연구를 진행하였고, 그에 따라 대화형 에이전트에서 경험할 수 있는 오류를 5가지로 크게 유형화하였다: (1) 발화 이해 오류(사용자가 발화한 단어의 의미나 문장 구조를 이해하지 못하는 경우), (2) 문맥 이해 오류(대화의 맥락이나 과거 정보를 기억하지 못하는 경우), (3) 출력 정보 오류(질문에 맞지 않는 정보를 제공하는 경우), (4) 에이전트가 제공하지 않는 기능을 요구하는 경우, (5) 정보 접근 불가 오류(데이터베이스 자체에 사용자가 요구한 데이터가 없을 때). 본 실험에서는 사과 전략과 변명 전략을 사용한 오류 메시지 중 신뢰도와 사용경험 회복에 효과적인 것이 무엇인지 알아보고자 하였다. 직접 개발한 여행 정보 챗봇을 사용하여, 실험 참여자가 챗봇과 함께 여행 계획을 세우는 동안 4가지의 오류 유형을 경험하도록 한 후, 오류 메시지 전략에 따른 신뢰도와 사용경험을 측정하였다. 실험 결과, 오류 메시지 전략은 그 자체로는 오류 회복 정도에 영향을 미치지 않았다. 그리고 의인화 정도는 호감도에만 영향을 미쳤다. 그러나 의인화 정도가 높은 경우에 한해서, 외부 서비스 장애로 인한 오류에 대해서는 변명 메시지가 신뢰도 및 인지된 능력 회복에 더 효과적이었다. 그리고 다른 오류들에 대해서는 모두 사과 메시지가 더 효과적인 것으로 드러났다. 또한 사람들이 오류의 책임에 대해 느끼는 귀인 장소에 따라서, 챗봇에게 책임이 있다고 생각한 경우에는 사과 메시지가, 챗봇의 책임은 아니라고 생각한 경우에는 변명 메시지가 더 효과적인 것으로 나타나 상황 위기 커뮤니케이션 전략이 예상하는 방향과 일치하는 것으로 드러났다. 본 연구는 대화형 에이전트의 오류 메시지 디자인 가이드라인을 제시하고, 대화형 에이전트를 비롯한 컴퓨터 에이전트가 책임을 져야 하는 상황에서 어떻게 대처해야 하는지에 대한 시사점을 제공하였다는 의의를 가진다.

      • Communication with AI: Designing Conversational Agents for Dyadic and Group Interactions

        김수민 서울대학교 대학원 2022 국내박사

        RANK : 232298

        The advancements in technology shift the paradigm of how individuals communicate and collaborate. Machines play an active role in human communication. However, we still lack a generalized understanding of how exactly to design effective machine-driven communication and discussion systems. How should machine agents be designed differently when interacting with a single user as opposed to when interacting with multiple users? How can machine agents be designed to drive user engagement during dyadic interaction? What roles can machine agents perform for the sake of group interaction contexts? How should technology be implemented in support of the group decision-making process and to promote group dynamics? What are the design and technical issues which should be considered for the sake of creating human-centered interactive systems? In this thesis, I present new interactive systems in the form of a conversational agent, or a chatbot, that facilitate dyadic and group interactions. Specifically, I focus on: 1) a conversational agent to engage users in dyadic communication, 2) a chatbot called GroupfeedBot that facilitates daily social group discussion, 3) a chatbot called DebateBot that enables deliberative discussion. My approach to research is multidisciplinary and informed by not only in HCI, but also communication, psychology and data science. In my work, I conduct in-depth qualitative inquiry and quantitative data analysis towards understanding issues that users have with current systems, before developing new computational techniques that meet those user needs. Finally, I design, build, and deploy systems that use these techniques to the public in order to achieve real-world impact and to study their use by different usage contexts. The findings of this thesis are as follows. For a dyadic interaction, participants interacting with a chatbot system were more engaged as compared to those with a static web system. However, the conversational agent leads to better user engagement only when the messages apply a friendly, human-like conversational style. These results imply that the chatbot interface itself is not quite sufficient for the purpose of conveying conversational interactivity. Messages should also be carefully designed to convey such. Unlike dyadic interactions, which focus on message characteristics, other elements of the interaction should be considered when designing agents for group communication. In terms of messages, it is important to synthesize and organize information given that countless messages are exchanged simultaneously. In terms of relationship dynamics, rather than developing a rapport with a single user, it is essential to understand and facilitate the dynamics of the group as a whole. In terms of task performance, technology should support the group's decision-making process by efficiently managing the task execution process. Considering the above characteristics of group interactions, I created the chatbot agents that facilitate group communication in two different contexts and verified their effectiveness. GroupfeedBot was designed and developed with the aim of enhancing group discussion in social chat groups. GroupfeedBot possesses the feature of (1) managing time, (2) encouraging members to participate evenly, and (3) organizing the members’ diverse opinions. The group which discussed with GroupfeedBot tended to produce more diverse opinions compared to the group discussed with the basic chatbot. Some effects of GroupfeedBot varied by the task's characteristics. GroupfeedBot encouraged the members to contribute evenly to the discussions, especially for the open-debating task. On the other hand, DebateBot was designed and developed to facilitate deliberative discussion. In contrast to GroupfeedBot, DebateBot was applied to more serious and less casual social contexts. Two main features were implemented in DebateBot: (1) structure discussion and (2) request opinions from reticent discussants.This work found that a chatbot agent which structures discussions and promotes even participation can improve discussions, resulting in higher quality deliberative discussion. Overall, adding structure to the discussion positively influenced the discussion quality, and the facilitation helped groups reach a genuine consensus and improved the subjective satisfaction of the group members. The findings of this thesis reflect the importance of understanding human factors in designing AI-infused systems. By understanding the characteristics of individual humans and collective groups, we are able to place humans at the heart of the system and utilize AI technology in a human-friendly way. "인간-컴퓨터 상호작용"과 "사용자 경험"을 넘어, "인간-인공지능 상호작용" 그리고 "알고리즘 경험"의 시대가 도래하고 있다. 기술의 발전은 우리가 의사소통하고 협업하는 방식의 패러다임을 전환했다. 기계 에이전트는 인간 커뮤니케이션에서 적극적이며 주도적인 역할을 수행한다. 하지만 효과적인 AI 기반 커뮤니케이션과 토론 시스템 디자인에 대한 이해와 논의는 부족한 것이 사실이다. 이에 본 연구는 인간-컴퓨터 상호작용의 관점에서 다양한 형태의 커뮤니케이션을 지원할 수 있는 기술적 방법을 탐색하는 것을 목표로 한다. 이를 위해 저자는 일대일 그리고 그룹 상호작용을 지원하는 대화형 에이전트를 제시한다. 구체적으로 본 연구는 1) 일대일 상호작요에서 사용자 관여를 높이는 대화형 에이전트, 2) 일상적인 소셜 그룹 토론을 지원하는 에이전트, 3) 숙의 토론을 가능하게 하는 에이전트를 디자인 및 개발하고 그 효과를 정량적 그리고 정성적으로 검증했다. 시스템을 디자인함에 있어서 인간-컴퓨터 상호작용뿐 아니라, 커뮤니케이션학, 심리학, 그리고 데이터 과학을 접목한 다학제적 접근 방식이 적용되었다. 첫 번째 연구는 일대일 상호작용 상황에서 사용자의 관여 증진을 위한 대화형 에이전트의 효과를 검증했다. 설문조사라는 맥락에서 수행된 이 연구는 웹 설문조사에서 응답자의 불성실로 인해 발생하는 응답 데이터 품질의 문제를 극복하기 위한 새로운 인터랙션 방법으로 텍스트 기반 대화형 에이전트의 가능성을 탐색하는 것을 목표로 했다. 이를 위해 2 (인터페이스: 웹 對 챗봇) X 2 (대화 스타일: 포멀 對 캐쥬얼) 실험을 진행했으며, 만족화 이론에 근거하여 응답 데이터의 품질을 평가했다. 그 결과, 챗봇 설문조사의 참여자가 웹 설문조사의 참여자보다 더 높은 수준의 관여를 보이고, 결과적으로 더 높은 품질의 데이터를 생성하는 것을 확인할 수 있었다. 하지만 이런 챗봇의 데이터 품질에 대한 효과는 챗봇이 친구 같고 캐쥬얼한 대화체를 사용할 때만 나타났다. 이 결과는 대화형 인터랙티비티가 인터페이스뿐 아니라 대화 스타일이라는 효과적인 메세지 전략을 동반할 때 발생하는 것을 의미한다. 두 번째 연구는 일상적인 소셜 채팅 그룹에서 집단의 의사결정과정과 토론을 지원하는 대화형 시스템에 대한 것이다. 이를 위해 GroupfeedBot이라는 대화형 에이전트를 제작하였으며, GroupfeedBot은 (1) 토론 시간을 관리하고, (2) 구성원들의 균등한 참여를 촉진하며, (3) 구성원들의 다양한 의견을 요약 및 조직화하는 기능을 갖고 있다. 해당 에이전트를 평가하기 위해 다양한 태스크 (추론, 의사결정, 자유 토론, 문제 해결 과제)와 그룹 규모(소규모, 중규모)에 관하여 사용자 조사를 시행했다. 그 결과 의견의 다양성 측면에서 GroupfeedBot으로 토론한 집단이 기본 에이전트와 토론한 집단보다 더 다양한 의견을 생성했지만 산출된 결과의 품질과 메시지 양에 있어서는 차이가 없는 것을 확인할 수 있었다. 균등한 참여에 대한 GroupfeedBot의 효과는 태스크의 특성에 따라 다르게 나타났는데, 특히 자유 토론 과제에서 GroupfeedBot이 참여자들의 균등한 참여를 촉진했다. 세 번째 연구는 숙의 토론을 지원하는 대화형 시스템에 대한 것이다. 세 번째 연구에서 개발된 DebateBot은 GroupfeeedBot과 달리 더 진지한 사회적 맥락에서 적용되었다. DebateBot은 (1) 생각하기-짝짓기-공유하기 (Think-Pair-Share) 전략에 따라 토론을 구조화하고, (2) 과묵한 토론자에게 의견을 요청함으로써 동등한 참여를 촉진하는 두 가지 주요 기능을 수행했다. 사용자 평가 결과 DebateBot은 그룹 상호작용을 개선함으로써 심의 토론을 가능하게 했다. 토론 구조화는 토론의 질에 긍정적인 효과를 발휘하였고, 참여자 촉진은 진정한 합의 도달에 기여하였으며, 그룹 구성원들의 주관적 만족도를 향상했다. 본 연구는 이 세 가지 연구의 결과들을 바탕으로 인간-인공지능 커뮤니케이션에 대한 다양한 시사점들을 도출하였으며, 이를 TAMED (Task-Agent-Message-Information Exchange-Relationship Dynamics) 모델로 정리하였다.

      • 복합 인공지능 모듈을 이용한 지능형 대화 에이전트

        홍진혁 연세대학교 대학원 2003 국내석사

        RANK : 232287

        대화형 에이전트는 인간이 사용하는 자연언어를 통하여 사용자와 시스템 사이에서 정보를 주고받는 에이전트이며, 대화를 통해서 사용자의 의도를 이해하고 적절한 행동을 취하여 사용자가 목적을 달성하도록 돕는다. 전통적인 대화형 에이전트는 패턴매칭 기술을 통해 사용자의 질의를 분석하여 미리 준비된 답변을 제공한다. 미리 설계된 질의에 대해서 정확히 일치하는 경우에만 답변을 제공하기 때문에 대화 유형이 매우 단순하다. 또한 얼마나 많은 양의 답변 문장을 보유하느냐로 그 답변 성능이 결정되고 많은 양의 답변을 사전에 구축해두어야 한다. 실제 사람 사이의 대화에서는 사용자의 배경지식이나 대화의 문맥을 고려하여야만 질의의 의도를 이해할 수 있는 경우가 빈번하며, 대화를 통해 새로운 지식을 서로가 습득한다. 보통 대화형 에이전트가 이러한 면을 고려하지 않고 설계되어 단순 질의 답변만을 처리하는데 한계가 있다. 본 논문에서는 대화형 에이전트가 다양한 유형의 대화를 처리하도록 대화 관리 모듈, 지식 학습 모듈과 사용자 모델링 모듈로 나누어 시스템을 설계하였다. 기존의 대화형 에이전트가 수행하였던 단순질의 답변뿐만 아니라 문맥을 고려한 답변도 가능하게 하였고, 답변 문장이 준비되어 있지 않은 새로운 정보가 입력되었을 경우에는 대화를 통해서 답변 문장을 직접 생성하도록 하였다. 또한 보다 세밀하고 유연한 사용자 의도 추론을 위해 사용자 질의에 포함된 키워드와 문형 정보를 고려하고 베이지안 네트워크와 순차 패턴매칭을 단계적으로 적용하였다. 두 가지 추론 기법을 단계적으로 적용함으로써 질의 분석을 보다 세부적으로 하였고, 지식 구조의 설계를 보다 용이하게 하였다. 대화 속에서 사용자의 의도를 보다 정확하게 파악하기 위해 베이지안 네트워크의 추론을 위한 변수를 대화 중에 조정하고 대화의 문맥을 모델링하여 의도 추론 시 적절히 활용한다. 다양한 유형의 대화를 통해 제안하는 대화 에이전트의 정성적인 성능을 분석하고 다양한 사용자 평가를 수행하여 제안하는 지능형 대화 에이전트의 성능을 정량적으로 측정하였다. Conversational agent is a system that provides user with proper information and maintains the context of dialogue based on natural language. This paper proposes module-based approach for designing conversational agent in order to construct an effective conversational agent which covers various types of dialogues. The proposed conversational agent is composed of 3 modules: dialogue management module, knowledge acquisition module, and user modeling module. With this structure, it manages not only simple answer, but also a dialogue that considers context. Moreover, it learns an answer through dialogue when a user inputs a new information or query which is not manageable. Keyword and dialogue act are extracted from the query, and inference engine composed of bayesian network and sequential pattern matching makes the inference of user's intention more detailed and flexible. And as user modeling, the update of bayesian network makes it more accurate to infer the user's intention. Actually implementing it for an information provider, we can confirm the usefulness of the proposed architecture for conversational agent.

      • Development of the 'ForMe' agent to assist ADHD children in performing daily tasks : user-centered design approach for creating regularity

        박도은 Graduate School, Yonsei University 2023 국내박사

        RANK : 232284

        Attention deficit hyperactivity disorder (ADHD) is the most common mental illness experienced by children in the prepubertal period. ADHD child patients have difficulty starting and completing daily tasks successfully on time owing to executive function impairment. Failure of children to perform tasks can cause problems such as low self-efficacy and frequent issues with parents. This study aimed to develop a digital assistant to support the daily life of children with ADHD. Four studies were conducted through an iterative user-centered design process to increase the likelihood of developing an effective conversational agent intervention that fits patients' needs and preferences. STUDY 1 aimed to identify the difficulties encountered by children with ADHD in performing daily tasks. An in-depth interview was conducted targeting parents who have children with ADHD, and an analysis was conducted using grounded theory. To address the issue of non-completion of tasks by children, households employed a token-economy method involving planning and scheduling charts. However, despite implementing these solutions, maintaining interest and completing the plan remained challenging. In this process, parents intervened by inquiring, informing, and guiding the behavior of these children. In STUDY 2, a voicebot with self-instruction training and behavioral parenting training was developed to help children perform daily tasks. A pilot randomized controlled trial was conducted for eight weeks to explore the feasibility of the developed voicebot for 16 children with ADHD. The quantitative and qualitative analysis results demonstrated that the use of a voicebot has a positive impact on improving self-efficacy of children and alleviating ADHD symptoms. Interaction with the voicebot helped in performing daily tasks. STUDY 3 developed an application that can be operated on a tablet PC, allowing children to interact through a voice-based conversational agent. It was developed to apply customized interactions according to ADHD severity. A field study of a pre-post design was conducted in which 16 ADHD and eight typical development children used a conversational agent for eight weeks. The quantitative and qualitative analysis confirmed that it was effective in improving self-efficacy of children, improving ADHD symptoms, and enhancing executive function. Reduction in parenting stress of parents was also confirmed. It was explored that habit formation for children's daily tasks was related to relieving ADHD symptoms. In STUDY 4, a field study of pre-post design targeting numerous people was conducted to confirm the effectiveness of the conversational agent. A monitoring application for parents was developed and used in the study. A four-week study was conducted targeting suspected ADHD and typical development children. Quantitative analysis confirmed that it effectively improves the ADHD symptoms of children and promotes school adjustment. In conclusion, we developed a voice-based conversational agent that supports children with ADHD in their daily tasks. The conversational agent improves the quality of life for children with ADHD by helping them overcome difficulties and ultimately achieve functional improvement. This study is significant as it employs an appropriate user-centered design methodology to address the actual problems faced by children with ADHD and presents practical solutions to them. In particular, the completeness of the prototype was improved by conducting repeated experiments targeting children with ADHD. An interaction customized for ADHD symptoms was provided to the child. A way for children and parents to solve their children's problems was presented. Most importantly, the results of the three tests show that the cognitive behavioral therapy and behavioral therapy method applied to the prototype would effectively improve the function of children with ADHD. This study presented a case that can overcome the limitations of pharmacological treatment. Finally, the confirmation that voice-based conversational agents can introduce novel functionalities in the field of digital health opens up possibilities for positive effects in the industrial sector. 주의력결핍 과잉행동장애(ADHD)는 사춘기 전 아동이 경험하는 가장 흔한 정신질환이다. ADHD 아동은 실행 기능 결함으로 일상 과업을 제시간에 성공적으로 시작하고 완료하는 데 어려움을 겪는다. 환아의 과업 수행 실패는 낮은 자기효능감, 부정적 자아상 등 2차 문제를 야기할 수 있다. 본 연구는 ADHD 아동의 일상생활을 돕는 디지털 어시스턴트 개발을 목표로 한다. 환아의 요구를 반영하면서도 효과적인 대화형 에이전트의 중재 방법을 개발하기 위하여, 사용자 중심 설계 프로세스 기반의 반복적인 연구가 수행되었다. 연구 1은 ADHD 아동이 일상 과업을 수행하는 과정에서 겪는 어려움을 확인하는 것을 목표로 했다. ADHD 아동의 부모를 대상으로 심층 인터뷰를 진행하였고, 근거 이론을 통해 분석하였다. 아동의 일상 과업 수행을 돕기 위하여, 각 가정에서는 토큰 이코노미가 적용된 과업 스탬프나 계획표를 사용하고 있었다. 그러나 이러한 솔루션 중에서도 계획 완성이 어렵고, 관심 유지가 어려운 것으로 나타났다. 아동의 일상 과업 수행 중, 부모가 자녀에게 행동과 절차를 묻거나, 알려주거나, 지도하는 모습이 확인되었다. STUDY 2에서는 ADHD 아동의 일상 과업 수행을 돕는 보이스봇이 개발되었다. ADHD 아동 16명을 대상으로 보이스봇의 실행 가능성을 확인하기 위한 8주간의 무작위 대조 시험을 진행했다. 정량적, 정성적 분석 결과, 보이스봇이 아동의 일상 과업 수행, 자기효능감 및 ADHD 증상 개선에 도움이 되는 것을 확인하였다. STUDY 3에서는 아동과 인터랙션 가능한 대화형 에이전트가 탑재된 태블릿 PC 용 애플리케이션을 개발하였다. ADHD 증상 정도에 따라 대화 시나리오를 구성하여 맞춤화된 인터랙션 적용이 가능하다. ADHD 아동 16명과 일반 발달 아동 8명이 8주 동안 대화형 에이전트를 사용하는 사전 사후 설계의 필드스터디가 수행되었다. 정량적, 정성적 분석 결과, 아동의 자기효능감 향상, ADHD 증상 개선, 실행 기능 향상에 도움이 되는 것으로 확인되었다. 부모의 양육 스트레스 감소도 확인할 수 있었다. STUDY 4에서는 대화형 에이전트의 효과를 확인하기 위하여, 대규모 인원을 대상으로 한 사전 사후 설계의 필드스터디가 수행되었다. ADHD 의심 아동과 일반 발달 아동을 대상으로 4주간의 연구가 수행되었다. 정량 분석 결과, 아동의 ADHD 증상 개선과 학교 적응 촉진에 도움이 되는 것으로 확인되었다. 본 연구에서는 ADHD 아동의 일상 과업을 돕는 대화형 에이전트를 개발하였다. 대화형 에이전트는 ADHD 아동이 어려움 극복에 기여하고, 궁극적으로 기능적 향상을 이룰 수 있도록 도와줌으로써, 아동의 삶의 질 향상에 기여한다. 본 연구는 사용자 중심 설계 방법론을 활용하여 ADHD 아동이 겪는 실제 문제점을 탐색하고, 그에 대한 실질적인 해결책을 제시하였다. 반복 실험을 통해 프로토타입의 완성도를 높였고, ADHD 증상에 맞춤화된 인터랙션이 아동에게 제공될 수 있게 개발되었다. 세 번의 임상시험으로, 프로토타입에 적용한 인지행동치료와 행동치료 방법이 ADHD 아동의 삶과 기능 향상에도 도움이 될 수 있다는 추측이 가능하게 되었다. 마지막으로, 음성 기반의 대화형 에이전트가 디지털 헬스 영역에서 새로운 기능을 제시할 수 있음을 확인함으로써, 산업적 측면에서 긍정적인 가능성을 기대할 수 있게 되었다.

      • 대화형 에이전트의 성능 개선을 위한 사용자 발화에 관한 탐색적 연구

        최혜민 연세대학교 대학원 2018 국내석사

        RANK : 232271

        This study collected and analyzed the utterances of human users to improve the performance of conversational agents. To do this, it is important to grasp intentions in user utterances. In order to develop an effective conversational agent, we tried to understand various language processing and language comprehension factors specialized in user's spoken language. There are two things that this study confirmed by collecting user utterances only for music services. First, we examined whether users' intention and utterance match. Second, we analyzed the utterances of the users and examined the morphemes which occupied a large portion. As a result, when using the conversational agent, the user uttered the request message as a direct keyword related to the function and purpose, also confirmed that the user uttered it according to the emotional state or the situation. This inconsistent statement is likely to be unintelligible to the agent. The results of this study suggest that the user 's emotional state and situation should be considered when designing the conversational agent. 본 연구는 대화형 에이전트의 성능 개선을 위해 실제 인간 사용자의 발화를 수집하여 분석하였다. 이를 위해 사용자의 발화에서 의도를 파악하는 것이 중요하다. 효과적인 대화형 에이전트를 개발하기 위해 사용자의 구어체발화에 특화된 다양한 언어 처리 및 언어 이해 요소들을 이해하고자 하였다. 음악서비스에 한정해 사용자 발화를 수집함으로써 본 연구가 확인한 것은 두가지였다. 첫째, 사용자의 의도와 발화가 일치하는지의 여부를 알아보았다. 둘째, 사용자의 발화문을 분석하여 많은 비중을 차지한 형태소가 무엇인지 알아보았다. 그 결과 사용자들은 대화형 에이전트를 사용할 때 기능 및 목적과 관련된 직접적인 키워드로 요청문을 발화하지만, 감정 상태나 처해진 상황에 따라 발화하는 것을 확인하였다. 이러한 불일치 발화문은 에이전트가 이해하지 못할 가능성이 크다. 본 연구 결과는 대화형 에이전트 설계 시 사용자의 감정상태와 상황을 고려해야 한다는 시사점을 가진다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼