[UAF 보고서][네이버 클로바]


링크 | https://xd.adobe.com/view/241512e7-e4fb-4a2d-4991-3b72647709c2-5224/?fullscreen&hints=off
본문 | 해당 보고서는 네이버 클로바 애플리케이션을 사용한 뒤, 해당 경험을 UAF 모형에 맞춰 묘사한다. 필자는 앱 고객센터에 안내한 다음 문구, “네이버 클로바(Cloud Virtual Assistant)는 음성 기반의 인공지능 비서앱입니다.”를 다음과 같이 이해했다.
 
음성 기반 -> 이야기로만
인공지능 -> 마치 사람처럼
비서 -> 도와준다
 
이런 맥락에서 기대한 User Interaction Cycle은 다음과 같다.
 
 


, “음성 기반 인공지능 비서라면, 시각·촉각을 제외한 청각적 수단만으로 소통할 수 있어야 한다고 기대했다. 우선 말하기측면에서, 클로바는 명령어를 대부분 이해한다. 다만 같은 문장을 청유형으로 바꿨을 경우 제대로 반응하지 못한다. 다음 듣기측면에서, 이 앱이 제공하는 유인나 목소리등 서비스는 사용자가 사용 경험을 긍정적으로 평가하도록 유도한다는 의미에서, 좋은 전략이었다고 본다. 사용자가 들었을 때 호감을 느끼는 목소리일수록 해당 영역에서 좋은 평가를 얻어낼 수 있을 것이다. 마지막 시각·촉각에 의한 의사소통이 대다수 명령을 마무리하는 절차인 점은 아쉽다. 이 부분은 필자가 경험하리라고 기대했던 바와 본질상 다른 지점이다. 다만 음성 기반 인공지능 비서를 표방하는 제품들이 추구해야 할 바를 찾아낼 수 있었던 사례라고 생각한다.

댓글

이 블로그의 인기 게시물

Sketch example

John 8:7(illustration)