4월, 2020의 게시물 표시

핀터레스트

|  핀터레스트 링크  | 

[UAF 보고서][네이버 클로바]

이미지
링크 |  https://xd.adobe.com/view/241512e7-e4fb-4a2d-4991-3b72647709c2-5224/?fullscreen&hints=off 본문 | 해당 보고서는 네이버 클로바 애플리케이션을 사용한 뒤 , 해당 경험을 UAF 모형에 맞춰 묘사한다 . 필자는 앱 고객센터에 안내한 다음 문구 , “ 네이버 클로바 (Cloud Virtual Assistant) 는 음성 기반의 인공지능 비서앱입니다 .” 를 다음과 같이 이해했다 .   음성 기반 -> 이야기로만 인공지능 -> 마치 사람처럼 비서 -> 도와준다   이런 맥락에서 기대한 User Interaction Cycle 은 다음과 같다 .     즉 , “ 음성 기반 인공지능 비서 ” 라면 , 시각 · 촉각을 제외한 청각적 수단만으로 소통할 수 있어야 한다고 기대했다 . 우선 “ 말하기 ” 측면에서 , 클로바는 명령어를 대부분 이해한다 . 다만 같은 문장을 청유형으로 바꿨을 경우 제대로 반응하지 못한다 . 다음 “ 듣기 ” 측면에서 , 이 앱이 제공하는 “ 유인나 목소리 ” 등 서비스는 사용자가 사용 경험을 긍정적으로 평가하도록 유도한다는 의미에서 , 좋은 전략이었다고 본다 . 사용자가 들었을 때 호감을 느끼는 목소리일수록 해당 영역에서 좋은 평가를 얻어낼 수 있을 것이다 . 마지막 시각 · 촉각에 의한 의사소통이 대다수 명령을 마무리하는 절차인 점은 아쉽다 . 이 부분은 필자가 경험하리라고 기대했던 바와 본질상 다른 지점이다 . 다만 “ 음성 기반 인공지능 비서 ” 를 표방하는 제품들이 추구해야 할 바를 찾아낼 수 있었던 사례라고 생각한다 .