RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        AI 시대 PR 실무자들의 역할과 AI 기술 활용에 관한 연구

        김활빈,박한나,홍지미,김자림 한국PR학회 2024 PR연구 Vol.28 No.1

        연구목적 디지털 환경 변화 속에서 PR 실무자들은 생성형 AI 기술을 어떻게 올바르게 활용하고 어떠한 커뮤니케이션 전략과 전술을 구사해야 하는지에 대한 도전에 직면하고 있다. 본 연구는 PR 실무자들이 AI 시대에 자신의 역할 변화를 어떻게 인식하는지, 그리고 이러한 변화 속에서 AI 기술을 어떻게 준비하고 활용하는지 살펴보고자 한다. 연구방법 본 연구는 탐색적 연구로서 스노우볼(snowball) 표본추출 방법을 사용하여 AI 업무를 경험했던 PR 실무자 15명을 인터뷰하였다. 여성 실무자 7명과 남성 실무자 8명이 이메일을 이용한 1차 서면 인터뷰에 참여하였고, 데이터분석 과정에서 필요하다고 판단하여 진행한 2차 서면 인터뷰에 1차에 인터뷰했던 실무자 중 11명이 응답하였다. 응답자 연령대는 20대부터 50대 사이였다. PR 실무경력은 최소 3년 이상에서 최고 29년까지로, 직급 또한 대리부터 PR 대행사 부문 대표까지 다양했다. 연구결과 PR 실무자들은 향후 5년간은 AI 기술을 효과적으로 다루어야 하는 기술자적 역할에, 그리고 향후 10년간은 데이터 분석과 관리 및 새로운 조직과 업무를 담당하는 관리자적 역할에 초점을 두었다. PR 실무자로서 효과적인 커뮤니케이션 전략과 전술에 대해서는 AI 기술을 활용하고 도움을 받을 수 있는 방향으로 나아갈 것으로 예측했고, 창의성 이슈에 대해서는 다수의 응답자가 인간의 창의성이 대체되기 힘들며 AI 기술에 의해 보완될 것으로 예상했다. PR 산업이 직면할 법적⋅윤리적 이슈에 대해 편향되거나 혐오 콘텐츠, 가짜 뉴스 문제를 지적했고, PR 실무자의 직접 확인과 라이선스 비용 지불 및 관련 제도 정비 등을 대응책으로 제시했다. 결론 및 함의 본 연구는 AI 시대 PR 실무자들의 역할 변화와 필요한 역량을 탐색적으로 살펴보았다. 점차 커뮤니케이션 기술자와 관리자 역할 사이의 경계가 모호해지고 있으며, AI시대의 PR실무자들은 기술적 역량과 전략적 사고를 동시에갖추어야 한다. PR실무자들이 시대의 변화에 적응하고 자신의 역량을 강화할 수 있도록 재교육 및 지속적인 학습기회가 제공되어야 할 것이다. Objectives In a digital environment, PR practitioners face challenges in effectively using generative AI technology and determining the most impactful communication strategies and tactics. This study explores PR practitioners’ perceptions of changes in their roles in the AI era and investigates how they prepare for and utilize AI technology amidst these changes. Methods For this exploratory study, we conducted in-depth interviews with 15 PR practitioners who have experience working with AI. We used the snowball sampling method to select our participants. Initially, we conducted interviews via email, reaching out to a diverse group of participants. This group included 7 women and 8 men, with ages ranging from their 20s to 50s. The participants had varying work experience, ranging from 3 to 29 years, and held positions from junior staff to branch representatives of PR agencies. After analyzing the initial data, it became clear that a second round of written interviews was necessary. As a result, 11 of the original participants provided additional responses. Results PR practitioners are currently placing their attention on technical roles in order to effectively navigate AI technology in the next five years. They are also focusing on managerial responsibilities related to data analysis, management, and the development of new organizations and tasks in the coming decade. These practitioners believe that AI technology will strengthen and refine communication strategies and tactics. When it comes to creativity, the majority of respondents agree that while human creativity is irreplaceable, it can be enhanced through the integration of AI. On the legal and ethical front, concerns have been raised about biased content, hate speech, and the spread of fake news. To address these issues, respondents suggest that PR practitioners should have direct oversight, licensing fees should be imposed, and systemic improvements should be made. Conclusions This study examines the changing role and necessary skills of PR practitioners in the era of AI. It aims to deepen theoretical understanding and explore practical application. The study emphasizes that the lines between technician and manager roles are becoming increasingly blurred, stressing the importance for PR practitioners in the AI era to have both technical expertise and strategic thinking abilities. It also highlights the need to provide retraining and continuous learning opportunities to help PR practitioners adapt to the evolving landscape and enhance their skills.

      • KCI등재

        AI기반 학습분석 시스템의 교육적 효과성 분석

        김상홍 한국콘텐츠학회 2024 한국콘텐츠학회논문지 Vol.24 No.6

        본 연구는 AI기반 학습분석 시스템인 클래스팅 AI가 초등학교 학습 환경에서 학업성취도 및 21세기 학습자 역량(창의성, 문제해결력, 협업능력)에 미치는 영향을 분석하였다. 서울 소재 S초등학교 4학년 학생들을 대상으로 AI학습분석 집단, 교육용 SNS 활용 집단, 전통적 ICT 활용 집단으로 나누어 학업성취도와 학습역량을 비교하였다. 그리고 교수자들에게도 AI기반 학습분석 시스템을 활용에 대한 만족도 및 수업의 변화에 대한 사전 사후 인식의 변화를 분석하였다. 연구 결과, AI학습분석 집단이 다른 집단에 비해 학업성취도 및 학습역량(4개 영역)이 유의미하게 높게 나타났다. 또한 교수자들은 AI기반 학습분석을 통해 학습자들의 적극적인 수업참여를 유도할 수 있었으며 수업이 학습자중심으로 변화하였다고 인식하였다. 이는 AI기반 학습분석 시스템이 학생들의 적극적인 학습 참여와 학습자 중심의 교육 환경 조성에 기여할 수 있음을 시사한다. This study analyzed the impact of ClassTing AI, an AI-based learning analytics system, on academic achievement and 21st-century learner competencies (creativity, problem-solving, collaboration) in elementary school learning environments. Fourth-grade students at S Elementary School in Seoul were divided into three groups: an AI learning analytics group, an educational SNS utilization group, and a traditional ICT utilization group, to compare academic achievement and learning competencies. Additionally, the satisfaction of instructors with the use of the AI-based learning analytics system and changes in their pre-and post-perceptions about the transformation of lessons were analyzed. The results indicated that the AI learning analytics group significantly outperformed the other groups in terms of academic achievement and learning competencies. Instructors also recognized that AI-based learning analytics facilitated active student participation and shifted the classroom towards a learner-centered environment. This suggests that AI-based learning analytics systems can contribute to fostering active learning engagement and creating a learner-centered educational environment.

      • KCI등재SCOPUS

        AI 디자인 툴의 디자인 업무 지원 방향성 제안

        정은희(Eun Hee Chung),최정민(Jung Min Choi) 한국디자인학회 2022 디자인학연구 Vol.35 No.4

        Background As artificial intelligence (AI)-related technologies such as big data, graphics processing unit (GPU), and deep learning have developed and the design work environment has changed, research on the use of AI tools is being actively attempted in the design field. In the existing directions of research and development of AI tools, the relationship between the actual work performed at each stage of the design process and the work support area of the AI tool has not been sufficiently investigated. This study aims to suggest the directions of work support for AI tools that can effectively and efficiently support work in the design process. Methods Through a literature review, we investigated trends in utilizing AI in the design field and research trends in AI-based design support tools. We also analyzed the trends of adopting AI tools for design work by selecting some of the existing AI design support tools. Through in-depth interviews with designers, their needs for work assistance were identified. Through in-depth interviews with AI experts, we explored possibilities of using AI tools in design work. In addition, we proposed directions for work support of AI tools that can help designers’ work effectively. Results The results of in-depth interviews showed that designers mostly needed the assistance of others when planning for project directions and making decisions based on objective judgment. Currently, AI tools are mainly used in the process of generating design ideas, and creating prototypes through design development. The planning and decision-making work stages of AI tools are rarely involved. Conclusions This study proposes the directions of AI tools that assist design tasks more effectively and efficiently by reflecting the current status of AI design tools and the requirements of support tools for designers. First, designers need AI support tools that assist design planning works by collecting and analyzing data suitable for project purposes and provide objective data necessary for decision-making tasks. Second, it is necessary to systematically help the idea generation and convergence process by reflecting the planning intention. Third, AI tools as a system are needed to manage design tasks integrally and organically according to the project purpose. This study is expected to be more practical in performing design tasks by proposing the direction of use of AI tools from the perspective of designers needs.

      • KCI등재

        AI의 탄생, 그 진실과 거짓

        배문정 인천대학교 인문학연구소 2024 인문학연구 Vol.41 No.-

        AI의 공식 역사서들은 AI라는 기술과학 technoscience의 탄생 시점을 1956년 다트머스회합으로 지정하고 있다. 이 회합은 AI의 명명식이자, 새로운 학문의 출범을 알린 자리였다. 회합을 주도한 인물은 존 매카시와 마빈 민스키였다. 그리고, 여기에 허버트 사이먼과앨런 뉴웰을 더해 다트머스 4인방은 AI의 창립자이자 선구자로 칭송 받는다. 하지만 신경망 기반의 AI, 두드러지게는 딥러닝의 성공을 이끈 연구자들은 아마도 이런 공식 해석에동의하지 않을 것이다. 신경망과 로봇 공학, 그리고 인공생명으로 대변되는 새로운 AI의토대는 1940년대 사이버네틱스에 의해 마련되었다. 1956년에 출범한 AI는 사이버네틱스가제시한 기계 지능의 많은 전망 중에서 디지털 컴퓨터로 인간 지능을 모사 simulation하는일에 집중했다. 오늘날 GOFAI(Good Old Fashioned AI)로 불리는 초기 AI는 자신의 제도적 토대를 마련하는 과정에서 사이버네틱스 전통을 부정하고, 그 맥을 잇고 있는 신경망과 합성 두뇌 연구를 배척했다. 본 논문은 1956년 AI가 탄생한 그 시점의 역사에 주의를환기 시키고, 사이버네틱스에서 AI로 넘어가는 길목에서 무슨 일이 있었는지, AI의 선구자들은 왜 사이버네틱스와 자신을 구분하고 그 학문적 연결을 끊으려고 했는지를 조사한다. The established historical narrative of Artificial Intelligence (AI) dates from the conception of AI to the Dartmouth Conference in 1956. The meeting was the naming ceremony of AI and the launch of a new discipline. Leading the meeting were John McCarthy and Marvin Minsky. Along with Herbert Simon and Alan Newell, the Dartmouth Four have been hailed as the founders and pioneers of AI. But the researchers behind the success of neural network-based AI, and more notably deep learning, probably disagree with this interpretation. The groundwork of the new AI, represented by neural networks, robotics, and artificial life, was laid by cybernetics in the 1940s. Launched in 1956, AI focused on simulating human intelligence with digital computers, among the many prospects of machine intelligence presented by cybernetics. Early AI, now called GOFAI (Good Old-Fashioned AI), rejected the tradition of cybernetics while establishing its institutional foundations and persecuting neural networks and artificial brains. This paper draws attention to the history of the time when AI was born in 1956, examines what happened on the path from cybernetics to AI, and why the pioneers of AI tried to distinguish themselves from cybernetics and sever its academic connection.

      • KCI등재

        AI로봇의 형사법적 지위

        이규호(Kyu-Ho Lee) 한국법학회 2020 법학연구 Vol.77 No.-

        사람인 운전자가 보행자를 직접적으로 치상을 가하면 형법 제268조의 업무상 과실치사상죄나 교통사고처리특례법상 범죄로 처벌받을 수 있게 된다. AI로봇에게 형법상 책임을 묻기 위해서는 로봇 스스로 범행을 해야 하는데 전통형법은 사람의 행위만을 염두하고 있어서 로봇을 처벌할 수가 없게 되어 있다. 그러나 기존의 로봇이 단순히 인간의 뜻에 따라 움직이는 것과 달리 AI로봇은 인간으로부터 독립해서 인식 판단해서 행동할 수 있기 때문에 다르다. 인공지능과 관련된 사건사고가 발생하는 AI로봇의 보편화 시대에 우리의 형법과 형사소송법에는 규정이 없어 법적 취급문제가 나타나고 있다. 따라서 본고는 이러한 문제의 해결을 위해 AI로봇의 형사법적 지위를 고찰하고자 한다. AI로봇에 대한 형사제재에 대한 고민을 하면서 in dubio pro reo원칙이 떠올랐고, AI로봇이 범행을 했더라도 처벌규정이 없으므로 처벌할 수 없다는 결론에 이르게 될 것이다. 현재의 인간의 지배하에 있고 독자적 생각 판단능력이 없는 AI로봇만 놓고 이야기한다면 잘못된 것일 수도 있지만, 앞으로의 강한 AI로봇에 대해서도 일체의 형사제재를 부과하지 않아야 하는지 의문이 아닐 수 없다. 강한 인공지능의 경우 기능적으로 인간과 많이 유사하고 인간보다 훨씬 중한 범죄를 스스로 더 저지를 수 있기에 아무 제재도 하지 않는다면 문제가 될 것이다. 어떤 개체에게 사람처럼 자유로운 판단능력과 자유의지가 있다면 그 개체에 대해 범죄의 책임을 귀속시키는 것이 바람직하므로 AI로봇에게 사람에 준하는 지적인 능력과 자율권이 있다면 그 자율적 결정으로 인한 책임도 귀속시키는 것이 타당할 것이다. AI로봇과 인간은 같다는 등식은 불성립하더라도 AI로봇을 사람에 준하는 이른바 준인격체로 취급할 가능성은 충분하다고 본다. 따라서 강한 AI로봇은 적어도 규범을 보완하는 범위에서 인간에게 적용되는 형법의 적용대상이 될 수 있을 것이고 형사법적으로 인간에 준하는 지위를 부여받을 수 있을 것이다. 다만 사람에 준하는 법적 지위가 논의될 수 있는 AI로봇은 충분히 발달한 인공지능로봇을 의미한다. 현행 형법이 자연인만이 범죄의 주체라고 명시하고 있지 않다. 범죄의 주체에 대한 규정자체가 없다. 그럼에도 불구하고 일반적으로 오직 인간만 범죄의 주체가 될 수 있다고 보고 있는 것이다. 인간만이 범죄의 주체가 될 수 있다는 것은 자연과학적 법칙이 아니다. 범죄의 주체성은 사회문화적 상황에 따라서 달라질 수 있으며 입법으로 변경될 수 있다는 주장도 논리적 모순은 있어 보이지는 않는다. 범죄 및 책임귀속의 주체를 가르는 기준은 해당개체에게 범죄에 대한 판단능력이 있는지, 범죄로 인한 형사책임을 귀속시켜도 부당하지 않은지 여부에 있다는 생각이다. 전술한 바와 같이 튜링테스트를 통과할 정도의 지적 능력을 갖추고 상당한 물리적 실체를 갖춘 AI로봇이라고 한다면 인간에 준하여 범죄의 주체가 될 수 있다는 평가가 가능하리라고 본다. There was a drivers death in 2016 but the 2018 accident is significant in that it killed citizens who were not using artificial intelligence. If a persons driver injures or kills a pedestrian himself, he or she will be punished for professional negligence or traffic crimes under the Special Act on the Treatment of Traffic Accidents under Article 268 of the Criminal Law. In order for AI robots to be held accountable under criminal law, they should have committed the crime themselves, but the traditional criminal law is designed for human behavior only, so the robots behavior cannot be punished. However, AI robots are different because they are independent of humans and can recognize themselves and act in judgment, unlike conventional robots that simply move according to human will. Although the AI (Artificial Intelligence) is in an era of widespread AI (Artificial Intelligence) accidents, legal treatment in relation to artificial intelligence is a problem since there are no rules in the Criminal Law and the Criminal Procedure Act. Therefore, we would like to review and review the criminal and legal status of AI robots in order to prepare for or resolve such problems.

      • AI 필터링과 설명가능 인공지능

        김주현 서울대학교 기술과법센터 2020 Law & technology Vol.16 No.3

        악성 게시글 및 댓글의 위험성에 대한 사회적 경각심이 높아지고 있는 상황 속에서, 인터넷 포 털 사이트와 SNS 등은 악성 게시글 및 댓글 등 을 AI를 통하여 필터링하는 기능을 도입하고 있 다. 그 과정 속에서 AI가 어떠한 기준에 따라 필 터링을 하는지 구체적인 내용이 공개되지 않아 이용자들의 반발이 계속되고 있다. AI 필터링의 확산은 불가피하게 이용자의 표 현의 자유, 알 권리를 제약하는 결과로 이어진다. 특히 AI 필터링은 인간에 의한 필터링과 달리 필 터링 결과에 이른 근거가 무엇인지 인간이 이해 할 수 있는 방법으로 인간에게 전달하는 것이 어 렵다는 점에 특징이 있다. 설명가능 인공지능(XAI)은 이용자에게 시스 템의 개별 의사결정에 대한 설명을 제공하고, 이 용자가 AI 시스템의 전반적인 강점 및 약점을 이 해하도록 도와주는 기술이며, 미국 방위고등연구 계획국(DARPA)의 주도하에 연구가 진행되고 있다. XAI는 다양한 분야에서 이용자로부터 신뢰 를 얻고 사회적 수용을 위한 공감대를 형성하는 수단이 될 것으로 예상된다. EU의 일반개인정보보호규정(GDPR)은 정보 주체들이 인공지능 알고리듬이 어떻게 결과를 도 출하는지에 대한 설명을 요구하는 근거규범을 포 함하고 있다. 설명요구권과 자동화된 의사결정을 제한할 권리를 규정함으로써 정보주체의 기본 권 리를 보장하기 위한 규제 메카니즘을 구축하였다. 이로써 XAI 개발과 설계를 위한 노력이 긴요한 과제가 되었다. GDPR의 AI 규제 메카니즘 구축이 기술 발전 을 저해하는 효과를 낳을 수 있다는 부정론도 제 기되고 있다. 하지만 AI 알고리듬의 오류 발생 가 능성이 상존하므로, AI 필터링의 신뢰도를 확보 하기 위한 근거 설명의 필요성이 크다는 점에서 AI의 알고리듬 도출 결과의 근거를 요구할 수 있 는 입법이 긴요하다고 볼 수 있다. Amid growing social awareness about the dangers of malicious postings and comments, internet portals and social media sites are introducing ways to filter out malicious postings and comments through Artificial Intelligence. Due to unclear nature of the standards for those AI filters, users of the social media sites are continuing to criticize these actions. The spread of AI filtering inevitably leads to restriction of users’ freedom of expression and rights to know. Particularly, unlike filtering by humans, AI filtering is uniquely characterized by the difficulty of conveying to humans how and why it reached a certain conclusion by ways humans can understand. Explainable artificial intelligence (XAI) is a technology that provides users with transparency in individual decision making process rendered by the system and helps users understand the overall strengths and weaknesses of AI systems. The research is being conducted under the leadership of the U.S. Defense Advanced Research Planning Agency (DARPA). XAI is expected to provide a means to gain trust from users in various fields and form a consensus among the public. The EU’s General Data Privacy Regulation (GDPR) provides a legal framework requiring information producers to explain how Artificial Intelligence algorithms operate. This regulatory mechanism was established to ensure the basic rights of the information producers by way of setting forth the rights to request explanation of AI and to limit automated decision-makings. This has made the effort for XAI development and design an important task. Of course, there are also criticisms that the establishment of the GDPR's AI regulation mechanism could potentially have an hindering effect on the technology development. However, since there always coexists possibility of AI algorithm error, given the need for explanation of the grounds to secure the credibility of AI filtering, it is essential that some legal requirement for the basis of results reached by AI algorithm be legislated.

      • KCI등재

        뉴럴네트워크의 잔차 파라미터를 활용한 AI0PCC 기반 스트리밍 프레임워크

        이민석,김준식,이성배,김규헌 한국방송∙미디어공학회 2023 방송공학회논문지 Vol.28 No.6

        최근 3차원 포인트 클라우드의 획득/표현 장비가 발전함에 따라 자율주행 등의 응용 분야에서 포인트 클라우드의 활용에 관한 기술 연구가 활발히 진행 중이다. 그러나 포인트 클라우드 기반의 응용 프로그램 상용화에는 여러 제한 사항이 존재하며, 이 중 하나는 포인트 클라우드 콘텐츠의 막대한 데이터 크기이다. 이러한 제한 사항을 해결하기 위해 여러 포인트 클라우드 압축 기술이 개발되고 있으며, 최근 인공지능 기반의 AI-PCC(AI-based PCC) 기술이 등장하였다. AI-PCC는 압축 성능이 우수하다는 장점이 있으나, 압축된 포인트 클라우드 비트스트림과 함께 뉴럴네트워크를 구성하는 파라미터들이 전송되어야 한다는 한계가 존재한다. 이는 AI-PCC 뉴럴네트워크 내부의 파라미터가 학습 방식에 따라 다르게 설정되기에 발생하는 문제이다. 큰 크기를 갖는 뉴럴네트워크 파라미터를 수시로 전송한다면 대역폭 이용에 있어 효율이 많이 떨어지기에 AI-PCC를 활용한 포인트 클라우드의 전송 및 소비는 어려움이 있다. 따라서 본 논문은 AI-PCC의 잔차 파라미터를 INNC(Incremental Neural Network Coding) 기반으로 압축 후 전송하여 효율적인 AI-PCC 기반 스트리밍을 가능케 하는 프레임워크를 제안한다. Recent advancements in 3D point cloud capture and expression technologies have led to progressions in point cloud usage forapplications such as metaverse or autonomous driving. However, several challenges exist when trying to use point clouds incommercial applications. One of these key challenges is the vast size of point cloud contents. Various technologies for efficientPCC(Point Cloud Compression) are undergoing active development to resolve this limitation. The most recent approach forcompressing point clouds is AI-PCC(AI-based PCC), which refers to PCC technologies using neural networks usually applying theconcept of the well-known VAE(Variational Auto Encoder). Even though AI-PCC achieves great performance, it faces a problem:the server needs to transmit the parameters of the AI-PCC neural network along with the compressed point cloud bitstream. Thereason for transmitting the parameters is that AI-PCC codecs have been trained with different parameters on different datasetsaccording to their predetermined quality rate, and this can cause critical memory and bandwidth issues when implementing astreaming protocol. Therefore, this paper proposes a framework for AI-PCC streaming by compressing the residual parameters ofAI-PCC neural networks using INNC(Incremental Neural Network Compression).

      • KCI등재

        전문대학 제품디자인 교육에서 생성형 AI의 활용 - ChatGPT의 활용을 중심으로

        오혁근(Hyouk Keun Oh) 한국디자인리서치학회 2025 한국디자인리서치 Vol.10 No.2

        디자인 산업의 디지털 전환이 가속화되면서 다양한 AI 기술이 제품디자인 교육에서도 중요한 역할을 하고 있다. 본 연구는 전문대학의 제품디자인 교육에서 AI의 활용 가능성과 효과를 실제 교육사례를 통해 분석하였으며, 연구 결과, AI는 콘셉트 설정, 디자인 리서치, 피드백 제공, 프로젝트 진행 등에서 학습자들에게 유용한 도구가 될 수 있음을 확인하였다. AI 기반 디자인 도구는 창의성을 증진하고 디자인 수정 과정을 효율화하며, 실시간 피드백을 제공하여 학습 효과를 향상시킨다. 특히, 프로젝트 기반 학습(PBL)과 캡스톤디자인 수업에서 AI는 실무 환경과 유사한 학습 경험을 제공하고 팀원 간 협업을 촉진하는 역할을 한다. 그러나 AI 활용에는 저작권 문제, 창작물의 독창성, 데이터 편향성 등의 한계가 존재하기 때문에 AI는 보조적 도구로 활용되어야 하며, 학습자의 비판적 사고력과 창의적 개입이 필요하다. 본 연구에서는 디자인 교육에서 AI의 최적 활용 방안을 제시하기 위하여 단계별 교육모델을 제안하였으며, 향후 연구에서는 AI의 디자인 교육 효과를 정량적으로 분석하고, 윤리적 문제 해결 방안을 모색할 필요가 있다. As the digital transformation of the design industry accelerates, various artificial intelligence(AI) technologies are playing an increasingly important role in product design education. This study analyzed the applicability and effectiveness of AI in product design education at colleges through real-world educational cases. The research findings confirm that AI can serve as a valuable tool for learners in concept development, design research, feedback provision, and project execution. AI-based design tools enhance creativity, streamline the design modification process, and provide real-time feedback, thereby improving learning outcomes. In particular, in project-based learning(PBL) and capstone design courses, AI facilitates a learning experience similar to real-world work environments and fosters collaboration among team members. However, AI use comes with challenges such as copyright issues, originality in design, and data bias. Therefore, AI should be utilized as an assistive tool, requiring learners to engage in critical thinking and creative intervention. This study proposes a step-by-step educational model to optimize AI use in design education. Future research should focus on quantitatively analyzing the impact of AI in design education and exploring solutions to ethical concerns.

      • KCI등재SCOPUS

        생성형 AI를 활용한 콘텐츠 제작 기반 메이커 교육 프로그램 개발 - TMSI 모형에 따른 시각 디자인 전공 교육 사례

        장순규(Soonkyu Jang) 한국디자인학회 2024 디자인학연구 Vol.37 No.2

        Background: Recently, design industries, education, and the field of art have been changing because of Generative AI. This is the reason why anyone can create high-quality writing, image, and video through Generative AI without learning professional techniques. Therefore, it is time for a new design education program based on Generative AI. For this reason, the research aims to develop a program that creates contents using Generative AI. Methods: This research developed an education program focusing on the major of visual communication design while highly utilizing on Generative AI. The program was constructed by the methodology of maker education in order to creates contents by using various Generative AI tools that generate text, image, and video. To build maker education for the program, a 15-week curriculum was opened based on the Thinking-Making-Sharing-Improving(TMSI) model. Then, a student, who participated in the above educational program, evaluated and participated in an interview of the process before and after the program. A cross-validation was also conducted to confirm the perception of Generative AI. Results: After learning the Generative AI, the participants in the program increased their satisfaction of education confidence, interest, and sharing. The difference in evaluation before and after the program was significant. When the program was completedover, I confirmed that the Generative AI recognized the relationship as a work assistant. In the interview, the subject said that the program was positive because Generative AI can be easily learned and used, and a wide range of design expressions are possible. Furthermore, I predicted that the concept would be specialized in the design process. The sharing of various Generative AI work reviews with a prompt would be helpful for future work. Conclusions: This research confirms that the TMSI model-based program as maker education producing content through Generative AI will have a positive effect on education for a visual communication design major. I hope that the stage and tools of the program can be helpful in education in the era of using Generative AI.

      • KCI등재

        스마트 TV에서 AI 비서의 능동적 제안에 따른 인터렉랙션 사용자 경험 연구

        김윤수,장순규 한국디자인학회 2024 디자인학연구 Vol.37 No.2

        연구배경 AI 비서가 사용자 호출에 반응하는 수동적 인터렉랙션 방식을 넘어, AI가 사용자 선호와 습관을 예측하고 능동적인 제안을 하는 방식이 개발되고 있다. 하지만, 현재 능동적 인터랙션은 스마트폰 및 AI 스피커에최적화되어 있다. 반면, AI 비서 활용에 사용자들이 긍정적인 반응을 보이는 TV는 아직 수동적 AI 인터렉랙션만이 제공된다. 본 연구는 능동적 AI 인터랙션 구조가 TV 사용 경험에 미치는 영향을 확인한다. 연구방법 (스페이스 조절)TV를 시청하는 중 AI가 능동적으로 특정 기능을 제안하는 프로토타입을 피실험자가 시청 후 설문을 통해 평가하는 방식으로 진행(붙여 쓰기)하였다. 능동적 인터랙션의 유형에 따른 사용 경험 차이를 확인하기 위하여, AI가 제안만 하는 인터랙션, AI가 먼저 묻고 행동하는 인터랙션, 그리고 AI가 먼저 행동을한 뒤 사용자에게 이전으로 돌아갈지 묻는 방식으로 구분하여 진행했다. 나아가 TV 사용 정황에 따른 다른 사용자 경험의 차이를 확인하기 위하여 실시간 방송, 광고, 및 채널을 바꾸는 기능 수행 중의 상황 조절변수로 설정했다. 연구결과 AI 비서의 능동적 제안이 기능이 TV 사용자 경험에 있어서, 상호작용 유형과 제안 시기가 사용자 만족도와 사용성에 큰 영향을 주는 것을 확인하였다. 모든 사용자 경험 요인에서 AI가 묻고 행동하는 유형이 가장긍정적인 평가를 받았고, 실시간 방송을 보는 것보다, 광고와 같이 짧은 내용의 방송에서 제안하는 방식이 긍정적임을 확인했다. 또한 채널을 변경하는 상황에서는 모든 유형이 부정적임을 확인했다. 결론 본 연구는 TV시청 환경에서 AI의 능동적인 인터렉랙션이 사용자 경험을 향상시킬 수 있다는 결론을 내린다. 특히, 상호작용 유형과 제안 시기를 조절함에 따라 사용자의 만족도와 사용성을 크게 향상(붙여 쓰기) 시킬 수 있다는 점을 확인하였다. 따라서 스마트 TV에서 AI를 효과적으로 활용하기 위해서는 사용자의 요구와상황에 민감하게 대응하는 AI 시스템을 개발하는 것이 중요할 것으로 전망한다. Background AI interaction is evolving beyond passive interaction, which is initiated by user prompts, and includes proactive artificial intelligence (AI) interaction. AI initiates the interaction by proactively suggesting based on user preferences and context. Currently, proactive AI interaction is mostly optimized for smartphones and AI speakers, but not yet for TVs. This study explores the effects of proactive AI interactions on TV viewing experiences. Methods A prototype video of a proactive AI interaction was presented and evaluated. To investigate the varying user experiences between different types of proactive interactions, three scenarios were trialed: AI suggestion-only, AI request-before-action, and AI action with optional reversion. Differing contexts like live broadcasting, advertisements, and channel navigation were also considered. Results The study showed that the type of interaction and context of the user significantly affect user satisfaction and usability in the TV experience. The results showed that the interaction type, where AI seeks permission before acting, received the most positive results. Regarding context, suggestions during short content like advertisements were more positively received than during live broadcasting. Conversely, all interaction types were negatively perceived when changing channels. Conclusions Proactive AI interactions can enhance user experience in the TV viewing environment. Particularly, user satisfaction and usability can be significantly improved by adjusting the interaction type and context of AI suggestions. Therefore, for effective use of AI in smart TVs, it is crucial to develop AI systems that sensitively respond to user needs and situations.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼