Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer translate in English
ISSN : 1975-6291(Print)
ISSN : 2287-3961(Online)
Journal of Korea Robotics Society Vol.14 No.3 pp.163-169
DOI : https://doi.org/10.7746/jkros.2019.14.3.163

A Study on the Appearance Design and Behavior of a Humanoid Robot to Receive Donations Effectively

Younseal Eum1, Hyunjong Song1, Yitaek Kim1, Injoon Min1, Dongha You1, Jeakweon Han
1Researcher, Hanyang University ERICA, Ansan, Korea
(, kimpd1224, ijmin95, )
Assistant Professor, Corresponding author: Department of Robotics, Hanyang University ERICA, Ansan, Korea (jkhan@hanyang.ac.kr)
20190402 20190602 20190802

Abstract


Robot ALICE@ERICA is a service robot developed to receive donations and to provide information services. ALICE@ERICA stands for Artificial Learning Intelligence robot for Culture and Entertainment at ERICA. In order to achieve the specific purpose of receiving donations, proper appearance design, appropriate movement and good communication skills are required in terms of HRI. In this paper, we introduce three strategies for developing robots to receive donations effectively. The first is to design a robot that makes people feel intimacy, the second is to approach only one of several people as a donor, and finally the donor communicates with video contents and voice recognition. A survey was conducted on the person who showed the reaction after the robot donated money in public places. Based on the survey results, it is proved that the method presented in this study effectively contributed to fund raising. If robots can perform actions that require high level of HRI, such as donation, robots can contribute more to human society. We hope that this study contributes to the improvement of human happiness.



효과적으로 기부를 받기 위한 인간형 로봇의 외형 디자인 및 행동에 관한 연구

엄 윤 설1, 송 현 종1, 김 이 택1, 민 인 준1, 유 동 하1, 한 재 권

초록


    Hanyang University
    HY-2018-00000000797

    1. 서 론

    로봇 ALICE@ERICA는 한양대학교 에리카 캠퍼스 방문객 들에게 안내 및 기부를 받기 위해 개발된 서비스 로봇이다. 서 비스 로봇은 인간과 상호작용이 필요한 경우, 또는 사회적인 관계를 통해 가치를 만들어야 하는 경우에 주로 사용된다. 현 재 개발된 많은 서비스 로봇은 인간과 상호작용을 가능케 하 기 위해 사람을 인지하고, 시선을 맞추고 대화하는 등의 기술 을 탑재하고 있다[1].

    사람들에게 기부라는 특정 행동을 유도하기 위해서는 보통 의 서비스 로봇과는 다른 개발 요소들이 필요하다. 기부를 받 으려는 목적을 달성하기 위해서는 크게 세가지 개발 요소가 중요하다고 판단되었다. 첫째는 친밀감을 조성하는 로봇의 외 형 디자인, 두번째는 여러 명의 사람 중 한 명만 기부자로 인식 하여 정확하게 접근하기, 마지막은 동영상 콘텐츠와 음성인식 을 활용한 기부자와의 원활한 의사소통이다.

    본 논문에서는 기부 로봇 개발에 적합한 로봇 디자인, 로봇 이 사람을 인식하고 기부자를 선정하여 접근하는 방법, 음성 인식 전략에 대해 다루고자 한다. 또한 로봇이 실제로 공공장 소에서 기부 활동을 수행한 뒤, 이에 따른 설문조사를 실시하 여 논 연구의 효과에 대하여 논하고자 한다.

    2. Background

    다양한 영역에서 다양한 종류의 서비스 로봇이 개발되고 있으나 현재 실제 생활에서 기부 받기 위해 사용되는 로봇은 많지 않으며 로봇의 개발도 충분히 고도화되지 못하고 있다.

    Min Su Kim, et.al 은 30 cm 키의 3자유도의 팔을 움직일 수 있으며 지정된 장소에서 동전 등 현금이 양동이에 들어왔을 때 계획된 행동과 말을 할 수 있는 로봇, Dona를 개발하였다[2]. Tim Pryde et.al 은 DON-8r 라는60 cm 크기의 오뚜기 모양의 모바일 로봇을 개발하여 원격으로 움직이며 현금을 받도록 개 발되었다[3]. Miguel Sarabia 은 성인 키 높이의 원통형 모바일 로봇에 3자유도 팔과 얼굴 위치에 모니터를 장착한 iCharibot 을 개발한 뒤 원격조종으로 박물관과 기차역에서 모금활동을 하며 사람들의 행동을 분석하였다[4]. 그러나 위의 연구 개발은 모두 단순한 움직임 또는 원격조종으로 움직이기 때문에 로봇 이 스스로 자선 모금을 받는데 한계가 있으며 실제 인간 사회 에서 유용하게 사용되지 못하고 있다. 따라서 로봇이 자율적 으로 사람에게 다가가 효과적으로 기부를 받기 위해서는 인간 과 상호작용이 보다 더 원활하게 이루어질 수 있는 고도화된 로봇 연구 및 개발이 필요한 상황이다.

    3. 로봇 외형 디자인

    ALICE@ERICA가 서비스 로봇으로서 인간과 상호작용을 극대할 수 있도록 로봇의 외형 디자인 연구를 진행하였다. 서 비스 로봇의 상호작용 효과를 높이기 위한 디자인적 측면에서 의 노력은 여러 실험을 통해 활발히 이루어지고 있다. Zheng- Hua Tan은 LED array 또는 터치 패드를 통해 얼굴 표정을 만들 어 로봇의 감정을 표현할 수 있도록 개발된 로봇이 사람과 상 호작용이 가능하다는 실험결과를 보여주었다[5]. Ran Hee Kim 과 Sonya S. Kwak는 각각 로봇의 외형 형상에 따른 상호작용 효과를 비교한 연구를 진행하였고, 사람 형태를 띤 로봇이 그 렇지 않은 로봇보다 기부를 받을 확률이 높음을 확인하였다 [6,7]. 그러나 Masahiro Mori의 uncanny valley 실험에서 알 수 있 듯이 인간과 흡사하게 생긴 로봇에서도 로봇이 인간의 닮는 정도에 따라 거부감을 느끼기 때문에 인간형 디자인에는 넘지 말아야 할 선이 존재한다[8].

    Kerstin Sophie Haring 은 동물형 로봇이나 인간과 너무 닮 은 안드로이드 형태의 로봇보다 인간과 적당히 닮은 휴머노이 드 형태의 로봇이 인간에게 즉각적인 반응을 일으키는데 월등 히 좋다는 연구 결과를 보여주었다. 특히 ‘이 로봇을 만져보겠 는가?’ 혹은 ‘이 로봇이 당신을 만져보는 것을 허락하겠는가?’ 라는 질문에 휴머노이드 형태의 로봇이 ‘그렇다’는 반응을 가 장 높게 얻었음으로써 ‘인간은 로봇의 외형에 따라 일정한 기 대치를 갖는다’는 점을 증명하였다[9]. 이러한 연구들은 사람 과 적당히 닮은 형태의 로봇이 사람들에게 친밀감을 높여 준 다는 것을 보여준다.

    로봇의 키 또한 사람의 반응에 영향을 주는데, Irene Rae은 사람의 시야보다 로봇의 시야가 더 낮은 경우 사람이 안정감 을 느낀다는 연구 결과를 보여주었다[10]. 또한 Mikey Siegel은 여성의 음성을 사용하여 대화를 진행한 로봇이 남성 목소리를 사용한 로봇 보다 높은 기부 확률을 가졌음을 확인함으로써 로봇 목소리의 성별이 인간과 로봇의 상호작용에 영향을 줄 수 있다는 것을 보여주었다[11]. 즉, 인간에게 가장 친숙하게 받 아들여지기 위해서는 인간과 적당히 닮은 형태의 휴머노이드 로봇이 가장 좋으며 성인보다는 작은 키에 여성형 디자인과 음성을 가진 로봇을 개발해야 한다는 결론을 얻었다.

    결과적으로 ALICE@ERICA는 지금까지 기존의 로봇에서 는 제시되지 않은 투피스 정장을 입은 여성형 휴머노이드 로 봇 형태로 완성되었다.

    투피스 정장 형태를 선택한 이유는 투피스 정장이 공식적 인 행사나 장소에서 여성들이 가장 많이 입는 형태이므로 기 부 행위에 정중한 분위기를 형성하는데 기여할 것으로 판단되 었기 때문이다.

    얼굴은 디테일한 디자인을 지양한 미니멀 디자인을 함으로써 인간이 로봇 얼굴에 대해 주관적인 느낌과 판단을 덧입힐 수 있는 여지를 두도록 하였다. 또한 팔의 링크 및 관절에는 로봇임을 한 눈에 알아볼 수 있도록 금속 재질과 모터를 그대로 드러냈다. LIDAR, 안테나, 스피커 같이 밖으로 드러나야 하는 전장 부품들 은 디자인을 해치지 않으면서도 제 기능을 발휘할 수 있도록 각각 목, 귀, 가슴에 배치하였다. 이러한 시도를 통해 ALICE@ERICA 의 디자인이 인간의 형상을 닮음에 있어 지나치거나 모자라지 않 는 균형을 갖춘 로봇으로 보일 수 있도록 의도하였다.

    [Fig. 1]은 친근한 느낌이 들 수 있도록 디자인된 ALICE@ ERICA의 얼굴 및 외형 모습을 보여주고 있다.

    4. 기부자 인식 및 접근

    4.1 YOLO 모델을 이용한 사람 인식 및 기부자 선정

    ALICE@ERICA는 원거리에 나타난 사람들에게 스스로 다 가가는 목적을 수행하기 위해서 영상 데이터를 사용하였다. 특히 사람을 인식하기 위해서 영상을 이용한 인공지능 사물 인식 분야에서 좋은 결과를 보여주고 있는 YOLO (You only Look Once) 모델을 사용하였다[12].

    [Fig. 2]는 ALICE@ERICA의 소프트웨어 구조도이다. 각 블럭은 ROS 노드를 나타내며 화살표는 ROS 토픽의 종류 및 방향을 보여주고 있다.

    로봇이 기부할 대상을 선정하고 따라가기 위해서 가장 먼 저 수행해야하는 것은 비젼 데이터를 기반으로 사람을 인식하 고 사람의 3차원 위치를 파악하는 것이다. 사람을 인식하기 위 해서 스테레오 카메라인 ZED를 이용하여 이미지와 거리 정보 를 습득한다. 습득된 이미지는 YOLO 객체 검출 모델에 입력 되고 이미지 속에 사람 형상이 존재하면 직사각형 모양으로 추출된다. 추출된 직사각형 이미지들의 밑부분을 사람이 서 있는 곳으로 파악하고 사각형 하단부의 거리 정보를 People Tracker 노드로 보낸다. People Tracker 에서는 현재의 사람의 위치 데이터는 과거의 사람 위치 데이터와 비교되어 노이즈가 제거된 뒤 특정 거리 구간 내에 위치하고 있는 사람들 중 접근 하고 있는 사람, 가장 가까운 사람을 고르라는 두 가지 경우의 판 단 조건을 거쳐 기부자를 결정하고 이를 지속적으로 Behavior Controller 노드에 전달한다.

    거리정보로는 ZED의 Depth 정보와 LiDAR의 Depth 정보 2개 가 사용된다. ZED의 Depth 정보는 카메라 화각 내 3차원 좌표로 표현되어 원거리 판단에 적합하며, LiDAR의 Depth 정보는 2차 원 평면상의 위치 데이터로써 근거리 판단에 적합하다. ZED는 기부자의 위치파악을 위해 사용하며, LiDAR는 기부자와 적절 한 거리 유지 또는 장애물과의 충돌을 방지를 위해 사용한다.

    기부자의 위치 추정 시 판단 조건에 부합하는 사람의 위치 가 존재하지 않는 다면 추적하던 사람이 사라졌다는 것을 Behavior controller 노드에 전달하여 로봇이 멈추도록 한다. 또 한, Behavior controller 노드에서는 LIDAR로부터 온 Depth 데 이터를 이용하여 목표로 한 사람에게 충분히 가까이 다가갔는 지 또는 예상치 못한 장애물이 있는지를 감시한다. 로봇이 기부 자에게 충분히 다가가면 Motion manager 및 Voice Recognition 이 실행되어 준비된 영상 및 모션을 보여준다. [Fig. 3]은 위 행 동체계를 표현한 순서도이다.

    ALICE@ERICA는 여러 사람이 아닌 특정한 한 명의 사람 을 지정하고 따라가는 것이 목표이기 때문에 거리와 시간 비 교라는 간단한 알고리즘으로도 기부자에게 접근한다는 목표 를 충분히 구현할 수 있었다. [Fig. 4]는 ALICE@ERICA 가 ZED 이미지를 바탕으로 YOLO 모델을 이용하여 사람을 인식 하는 장면을 보여주고 있다.

    4.2 기부자에게 접근 및 상호작용

    로봇과 사람의 상호작용 효과를 높이기 위해서는 음성 정 보를 이용하여 로봇과 사람의 대화 패턴을 형성하는 방법이 있으며[13], 사람과 사람 사이 대화에서 서로의 얼굴을 마주 보 며 이동하듯이 로봇도 사람과 얼굴을 마주 보며 함께 이동하 는 방법도 있다[14]. 더 나아가 사람의 얼굴을 인식하여 로봇과 사람의 시선을 맞춤으로써 상호작용의 효과를 더 높이는 실험 결과도 있다[15].

    ALICE@ERICA는 기부자와 상호작용을 위해서 선정된 기 부자 앞까지 접근하는 것을 1차 목표로 하였다. 기부자가 로봇 전방 1 m에 위치할 수 있도록 기부자의 현재 위치 정보를 바탕 으로 [Fig. 2]의 Wheel Controller에서 바퀴를 구동하여 로봇의 위치를 실시간으로 제어한다.

    기부자가 특정 구간안에 들어오면 기부자와 상호작용을 하기 위하여 동영상 콘텐츠를 보여주고 대화를 시도한다. ALICE@ ERICA의 왼손에는 10인치 패널이 설치되어 있으며 왼팔은 가반 중량 500 g으로 설계된 6자유도 매뉴퓰레이션이다. 기부 자가 로봇 정중앙 1 m 전방에 위치하고 기부자가 패널을 보고 있다는 가정하에 labeling 된 기부자로 추출된 직사각형의 윗 부분의 공간상 좌표를 기부자의 얼굴 위치라고 추측한다. 이 좌표와 로봇의 왼손을 잇는 직선이 패널 평면의 법선 벡터가 되도록 왼팔의 역기구학을 풀어 팔의 각 관절의 각도 값을 결 정한다. [Fig. 2]의 Motion Manager 노드 에서 팔 관절의 각도 를 제어한다. 이 때 패널 평면과 기부자의 시선이 직각을 이루 게 함으로써 기부자가 패널을 잘 볼 수 있도록 한다. 또한 준비 된 동영상이 재생되는 동안 Motion Manager 가 오른팔과 머리 를 적절하게 제어하여 로봇과 인간의 상호작용이 보다 더 자 연스럽게 이루어 질 수 있도록 한다.

    기부자 앞에서 준비된 동영상 컨텐츠가 실행될 때 ALICE@ ERICA는 음성인식을 사용하여 기부자와 상호 의사소통을 시 도한다. 음성인식은 Google 클라우드에 접속한 뒤 Google Speech 서비스를 사용한다. 이를 위해 로봇 자체적으로 무선 통신 데이터 서비스를 받을 수 있도록 전용 단말기를 설치한 다. ALICE@ERICA는 기부와 관련된 특정 언어가 인지되었 을 때 준비된 특정 대답을 할 수 있도록 프로그래밍 되었다. 이 런 방식의 프로그램은 충분한 실험과 충분한 데이터 확보가 필수이다. 대화의 경우의 수를 많이 확보할수록 보다 더 많은 대화의 경우의 수를 수행할 수 있기 때문에 원활한 의사소통 을 하기 위해서는 꾸준한 데이터 축적이 요구된다.

    대화 경우의 수를 조직함에 있어서 문장이 아닌 특정 단어 를 중심으로 대화의 의미 파악을 시도할 경우 기부자가 같은 의도의 다른 문장을 구사하더라도 로봇이 동일한 대답을 할 수 있어서 대화의 유연성은 더 높아질 수 있다. ALICE@ERICA 는 기부자가 같은 의도로 다른 표현을 쓰더라도 그 의미를 같 다고 파악하여 동일한 대답을 할 수 있다. 총 100여개의 기부 와 관련된 대화 경우의 수에 대응할 수 있다.

    [Fig. 5]는 ALICE@ERICA 가 여러 명의 사람 중 한 사람을 기부자로 선정하고 다가간 뒤 기부를 유도하기 위해서 준비된 동영상 컨텐츠를 보여주는 실험 장면이다.

    5. 기부자 설문조사

    실제 생활 환경에서 로봇 기부 행위와 디자인의 상관 관계 를 파악하기 위한 설문조사를 실시하였다. 설문조사는 로봇의 커버를 장착하지 않은 상태에서 57명, 로봇의 커버를 장착한 상태에서 59명, 총 116명의 사람들을 대상으로 진행되었다. 연 령은 10대에서 60대까지 다양하게 선별되었고 성별 또한 2:3 비 율이 넘지 않도록 균형을 맞추었다. 두 실험의 조건을 최대한 동 일하게 설정하기 위하여, 같은 장소에서 같은 시간대에 1시간 동 안 총 2일간 진행하였으며, 실외 온도와 습도는 두 경우 모두 31°C 와 87%로 동일하였다. [Fig. 6]은 로봇의 커버를 탈, 부착한 상태에서 기부행동 및 설문조사 실험을 하고 있는 장면이다.

    설문조사는 로봇이 참여자에게 접근하여 로봇 스스로 자신 의 목적을 소개하도록 한 뒤, 참여자가 이에 대한 반응 및 소감 을 응답하는 순으로 진행하였다. 설문 조사 문항은 [Fig. 7]에 보여지는 바와 같다.

    조사 결과 [Fig. 8]에서 보여지듯이 로봇의 커버 장착여부에 따라, 로봇을 표현하는 형용사의 긍정적 표현과 부정적 표현의 정도가 다른 것을 볼 수 있었다. 커버를 장착하지 않은 경우 68% 였던 긍정적 표현이 커버를 장착하면 77%로 증가하였다.

    흥미로운 점은 로봇의 요청사항을 이해하였는지 묻는 질문 에, 커버를 장착하지 않았을 경우 ‘예’ 라고 대답한 비율이 63% 였으나 커버를 장착했을 경우 81% 로 급격히 높아졌다는 것이다. [Fig. 9]는 로봇 커버 탈, 부착에 따른 로봇 요청사항에 대한 이 해도 차이를 보여주고 있다. 이것은 로봇의 외형 디자인이 감 성적인 영역 이외에도 ‘이해’라는 이성적인 영역에도 영향을 준다는 것을 보여준다.

    로봇의 기부 요청에 응하고 싶은 마음과 로봇에 대한 친숙감 을 1점(전혀 아니다)에서 5점(매우 그렇다)까지 평가했다. 커버 를 장착하지 않았을 때의 기부의사는 평균 3.12점이었으나 커 버를 장착했을 때는 3.42점으로 기부 의사가 증가하는 것을 볼 수 있었다. 로봇을 편안하고 친숙하게 느끼는 정도 또한 커버가 없을 때는 평균 2.60점 밖에 되지 않았으나 커버가 있을 때는 3.24점으로 친숙도가 크게 증가하는 것을 확인할 수 있었다. [Fig. 10] 은 기부의사 및 친숙도의 조사결과를 도표로 나타낸 것이다.

    위 결과를 성별로 구분해 보면 그 정도가 성별에 따라 다르 다는 것을 확인할 수 있다. [Fig. 11]은 기부 요청에 응하고 싶 은 정도를 여성과 남성으로 나누어 보았을 때의 결과이다. 로 봇의 기부 요청에 응하고 싶은 마음은 커버 탈부착 여부에 따 라 여성은 3.00에서 3.55까지 크게 높아졌으나 남성은 3.19에서 3.35로 상대적으로 변화가 크지 않았다. 즉 여성이 로봇 외형에 따라 로봇과 상호작용에 더 민감하게 반응한다고 볼 수 있다.

    로봇에 대한 친숙도를 묻는 질문에는 성별의 차이가 더 크 게 나타났다. [Fig. 12]는 로봇에 대한 친숙도를 여성과 남성으로 나누어 보았을 때의 결과이다. 커버 장착 여부에 따라 친숙함 을 느끼는 정도가 여성은 2.48에서 3.27로 크게 증가했으나 남 성은 2.67에서 3.22로 상대적으로 변화가 크지 않았다.

    친숙감을 느끼는 이유에 대한 설문 결과는 커버 장착 유무 에 따라 전혀 다른 양상을 보여주었다. 커버가 없는 경우 로봇 에 친숙감을 느끼는 이유는 로봇의 제스쳐 때문이라는 답이 가장 많이 나왔다. 그러나 커버를 장착하게 되자 로봇의 제스 쳐는 가장 낮은 점수를 받았고 대신 로봇의 외형 때문에 로봇 에 친숙감을 느낀다는 답이 압도적으로 많이 나왔다. 즉, 로봇 의 디자인 요소가 강화되면 로봇의 외형, 목소리 등 보여지고 들려지는 직접적인 감각이 로봇을 친숙하게 만든다. 그러나 로봇의 디자인 요소가 약해지면 로봇의 행동으로 관심의 대상 이 옮겨진다고 볼 수 있다. [Fig. 13]에 로봇에 친숙감을 느끼는 요소들에 대한 구체적인 값을 도표로 표현하였다.

    설문 조사 결과를 종합해 보면 로봇 외형 디자인 변화에 따 라 인간의 감정과 이성 모두 영향을 받는 것을 볼 수 있었다. 구 체적으로 로봇에 커버를 장착하여 로봇에 디자인 요소를 부여 하였을 때 로봇에 대한 친밀감과 의사전달 이해도 및 기부의사 가 모두 증가하는 것을 확인할 수 있었다. 따라서 본 연구에서 제시한 로봇의 디자인 요소들은 인간과 로봇의 상호작용을 긍 정적인 방향으로 이끄는데 기여하고 있음을 확인할 수 있었다.

    6. 결 론

    ALICE@ERICA는 로봇이 인간 사회에 기여하고자 개발된 서비스 로봇으로써 한양대학교 에리카 캠퍼스내에서 학교 안 내와 동시에 기부를 받을 수 있도록 제작되었다. 특히 기부금 모집이라는 특수목적을 수행하기 위해서 개발 단계부터 전략 적인 접근이 요구되었고 이에 따라 디자인, 기부자 인식 및 접 근 방법, 기부자와의 상호작용에 관한 연구가 진행되었다. 디 자인 측면에서는 원활한 기부를 받을 수 있도록 1.2 m 키에 투 피스 정장을 입은 여성형 휴머노이드 로봇 형태로 디자인되었 다. 기부자를 파악하기 위하여 인공지능 사물 인식 모델인 YOLO를 기반으로 기부자 선정 프로그램을 개발하였다. 로봇 이 선정된 기부자에게 다가갈 수 있도록 구동 모터가 실시간 으로 제어되며 기부자와 마주한 뒤에 여러 행동을 할 수 있도 록 팔 및 머리의 모션 제어가 수행되었다. 또한 로봇과 기부자 사 이의 원활한 의사소통을 위해서 동영상 콘텐츠를 재생할 수 있는 패드를 손에 장착하고 음성 인식을 수행하였다. 패드는 기부자 가 잘 볼 수 있는 각도로 제어되며 음성인식은 Google 기반 서비 스를 기반으로 특정 대화를 수행할 수 있도록 프로그램 되었다.

    또한 ALICE@ERICA의 효과적인 모금 및 상호작용 효과를 증명하기 위해서 공공장소에서 다양한 연령의 사람을 대상으 로 기부 모금 활동을 하고 설문조사 실험을 진행하였다. 실험 결과 ALICE@ERICA의 디자인과 행동이 로봇에 대한 친밀감 을 높이고 기부 의사를 높인다는 것을 확인할 수 있었다. 따라 서 본 연구에서 제시한 디자인과 행동 전략이 기부금 모집이 라는 고난이도의 인간과 로봇 상호작용을 증진시키는데 기여 하였다고 판단된다.

    7. 향후 계획

    현재 스마트 결제 시스템과 관련된 행정적인 제약으로 인해 실제 기부가 이루어지는 것 까지의 시험은 수행하지 못 하였다. 결재 시스템의 문제를 해결 후 불특정 다수의 사람을 대상으로 실험을 설계하고 진행할 예정이다. 의미 있는 실험 을 진행하기 위해서 인간과 로봇의 상호작용 효과에 대한 정량적 지표를 개발하고 다양한 활동 환경을 선정하여 비교 분석할 예정이다. 이를 토대로 로봇의 꾸준한 고도화가 진행 되어 보다 자연스럽고 원활한 기부자와의 상호 작용이 이루어 지기를 기대한다. ALICE@ERICA의 기부 로봇 연구가 인간 에게 로봇이 보다 친밀하고 편안하게 받아들여질 수 있도록, 로봇 디자인 및 HRI 연구 발전에 도움이 되기를 기대한다.

    Figure

    JKROS-14-3-163_F1.gif

    Human-friendly appearance of robot ‘ALICE@ ERICA’

    JKROS-14-3-163_F2.gif

    Software architecture of ALICE@ERICA

    JKROS-14-3-163_F3.gif

    Flowchart of ALICE@ERICA

    JKROS-14-3-163_F4.gif

    Image data in which the robot recognizes people using YOLO

    JKROS-14-3-163_F5.gif

    HRI experiment to make a donation

    JKROS-14-3-163_F6.gif

    Survey to find out the influence of robot design (without robot covers (left), with robot covers (right))

    JKROS-14-3-163_F7.gif

    Survey Questionnaires

    JKROS-14-3-163_F8.gif

    positive / negative expressions about robot impressions (without robot covers (left), with robot covers (right))

    JKROS-14-3-163_F9.gif

    Understanding requirements (without robot covers (left), with robot covers (right))

    JKROS-14-3-163_F10.gif

    Survey results on the impact of robot design

    JKROS-14-3-163_F11.gif

    Survey results showing gender differences in donation intention according to robot design

    JKROS-14-3-163_F12.gif

    Survey results showing gender differences in familiarity of the robot by the robot design

    JKROS-14-3-163_F13.gif

    Survey results showing gender differences in familiarity of the robot by the robot design

    Table

    Reference

    1. T. Fong, I. Nourbakhsh, and K. Dautenhahn, “A survey of socially interactive robots,” Robotics and Autonomous Systems, vol. 42, issues. 3-4, pp. 143-166, Mar., 2003.
    2. M. S. Kim, B. K. Cha, D. M. Park, S. M. Lee, S. Kwak, and M. K. Lee, “Dona: Urban Donation Motivating Robot,” 2010 5th ACM/IEEE International Conference on Human-Robot Interaction (HRI), pp. 159-160, Osaka, Japan, 2010.
    3. B. Heater, Don-8r the panhandling robot set to make the homeless obsolete, [Online], https://www.engadget.com/2011/04/26/don-8r-thepanhandling-robot-set-to-make-the-homeless-obsolete/, Accessed: April 26, 2011.
    4. M. Sarabia, T. L. Mau, H. Soh, S. Naruse, C. Poon, Z. Liao, K. C. Tan, Z. J. Lai, and Y. Demiris, “iCharibot: Design and Field Trials of a Fundraising Robot,” International Conference on Social Robotics, ICSR 2013: Social Robotics, pp. 412-421, 2013.
    5. Z.-H. Tan, N. B. Thomsen, X. Duan, E. Vlachos, S. E. Shepstone, M. H. Rasmussen, and J. L. Højvang, “iSocioBot: A Multimodal Interactive Social Robot,” International Journal of Social Robotics, vol. 10, issue. 1, pp. 5–19, Jan., 2018.
    6. R. H. Kim, Y. Moon, J. J. Choi, and S. S. Kwak, “The Effect of Robot Appearance Types on Motivating Donation,” 2014 ACM/IEEE International Conference on Human-robot Interaction, Bielefeld, Germany, pp. 210-211, 2014.
    7. S. S. Kwak, “The Impact of the Robot Appearance Types on Social Interaction with a Robot and Service Evaluation of a Robot,” Archives of Design Research, vol. 27, no. 2, pp. 81-93, Mar., 2014.
    8. M. Mori and K. F. MacDorman and N. Kageki, “The Uncanny Valley [From the Field],” IEEE Robotics & Automation Magazine, vol.19, issue. 2, pp. 98-100, Jun., 2012.
    9. K. S. Haring, K. Watanabe, and C. Mougenot, “The Influence of Robot Appearance on Assessment,” 2013 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Tokyo, Japan, pp. 131-132, 2013.
    10. I. Rae, L. Takayama, and B. Mutlu, “The Influence of Height in Robot-Mediated Communication,” 2013 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Tokyo, Japan, pp. 1-8, 2013.
    11. M. Siegel, C. Breazeal, and M. I. Norton, “Persuasive Robotics: The influence of robot gender on human behavior,” 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems, St. Louis, MO, USA, pp. 2563-2568, 2009.
    12. J. Redmon and A. Farhadi, “YOLO9000: Better, Faster, Stronger,” 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, pp. 7263-7271, 2017.
    13. Q. Nguyen, S.-S. Yun, and J. Choi, “Audio-visual integration for human-robot interaction in multi-person scenarios,” 2014 IEEE Emerging Technology and Factory Automation (ETFA), Barcelona, Spain, pp.1-4, 2014.
    14. Y. Kobayashi and Y. Kuno, “People tracking using integrated sensors for human robot interaction,” 2010 IEEE International Conference on Industrial Technology, Vina del Mar, Chile, pp. 1617-1622, 2010.
    15. M. S. Bartlett, G. Littlewort, I. Fasel, and J. R. Movellan, “Real Time Face Detection and Facial Expression Recognition: Development and Applications to Human Computer Interaction,” 2003 Conference on Computer Vision and Pattern Recognition Workshop, Madison, Wisconsin, USA, pp. 53-53, 2003.

    저자소개

    • 엄 윤 설 (Younseal Eum)
    • 2000 숙명여자대학교 공예과(학사)
    • 2007 숙명여자대학교 공예과(석사)
    • 2010 Craft &Material Study, Virginia Commonwealth Univ.(석사)
    • 2016~2018 숙명여자대학교 산학협력중점교수
    • 2018~현재 한양대학교 융합시스템학과(박사과정)
    • 2018~현재 CEO, (주) A ROBOT
    • 관심분야: HRI, Robot Design, Robot Contents

    • 송 현 종 (Hyunjong Song)
    • 2010 고려대학교 기계공학과(학사)
    • 2012 고려대학교 기계공학과(석사)
    • 2012~2017 (주)로보티즈 선임연구원
    • 2019~ Department of Mechanical and Aerospace Engineering, NYU(박사과정)
    • 관심분야: Humanoid robot, Bipedal walking, AI

    • 김 이 택 (Yitaek Kim)
    • 2017 광운대학교 로봇공학부(학사)
    • 2019 한양대학교 융합시스템학과(석사)
    • 관심분야: Bipedal walking, Control, ROS

    • 민 인 준 (Injoon Min)
    • 2018 한양대학교 로봇공학과(학사)
    • 2018~현재 한양대학교 융합시스템학과 (석사과정)
    • 관심분야: Humanoid robot, AI

    • 유 동 하 (Dongha You)
    • 2018 한양대학교 로봇공학과(학사)
    • 2018~현재 한양대학교 융합시스템학과 (석사과정)
    • 관심분야: Vision recognition

    • 한 재 권 (Jeakweon Han)
    • 2000 고려대학교 기계공학과(학사)
    • 2002 고려대학교 기계공학과(석사)
    • 2012 Mechanical Engineering, Virginia Tech.(박사)
    • 2012~2015 (주)로보티즈 수석연구원
    • 2015~현재 한양대학교 로봇공학과 조교수
    • 관심분야: Humanoid robot, Bipedal walking, AI
    오늘하루 팝업창 안보기 닫기