26/04/04 ~ 26/04/10
눈에 띄는 공통점은 서로 다른 분야의 사례들이 모두 같은 질문으로 모인다는 점이다. AI 에이전트는 더 많은 일을 대신하지만 그만큼 사용자가 언제 확인해야 하는지가 흐려지고, 농기계 수리권 문제는 닫힌 진단 인터페이스가 실제 사용 경험을 어떻게 무너뜨리는지 드러낸다. 스마트 글래스 연구는 포함적 기술이 사회적 맥락 속에서는 오히려 대화의 흐름과 관계의 어색함을 건드릴 수 있음을 보여줬고, LLM 맥락 관리 연구와 GenAI 스마트폰 연구는 보이지 않는 처리 과정이 커질수록 사용자의 불안도 커진다는 사실을 확인시켰다. 기술의 성능 경쟁처럼 보이는 이슈들이 사실은 상태 가시성, 개입 가능성, 실패 이후 복구 경로라는 아주 HCI적인 문제로 수렴하고 있다는 점이 특히 인상적이다.
이 흐름은 HCI·UX가 더 이상 사용성을 다듬는 후반 공정이 아니라, 자동화 시스템의 책임 경계를 설계하는 핵심 영역이 되고 있음을 보여준다. 첫째, 문맥과 내부 상태를 숨긴 채 결과만 보여주는 인터페이스의 한계가 분명해지고 있다. 에이전트의 계획-실행-확인 루프, LLM의 대화 문맥, 스마트폰의 백그라운드 AI 처리 모두 사용자가 시스템이 무엇을 보고 무엇을 하려는지 알 수 없을 때 위험이 커진다. 둘째, 통제권은 단순한 설정 메뉴가 아니라 실제 상황에서 작동하는 개입 경로여야 한다는 점이 반복해서 나타난다. 수리 도구 제공, branching과 exclude 같은 문맥 편집, 세밀한 권한 분리는 모두 사용자가 시스템을 멈추고 수정하고 되돌릴 수 있는 장치를 의미한다. 셋째, 실패의 문제는 정확도 저하에만 있지 않고 사회적 흐름의 붕괴로 이어진다. 스마트 글래스의 지연과 부정확함은 정보 전달 오류를 넘어 협업의 리듬과 관계의 편안함을 깨뜨리며, 반복 승인 경고나 과도한 권한 알림은 결국 경고 피로와 무감각을 낳는다. 최근 패턴은 더 똑똑한 시스템을 만드는 것과 동시에, 그 시스템이 틀리거나 과하게 개입할 때 사용자가 자연스럽게 받아들이고 수정할 수 있는 상호작용 구조를 함께 설계해야 한다는 방향으로 정리된다.
실무자에게 중요한 메시지는 자동화 수준을 높이는 것만으로 신뢰가 생기지 않는다는 점이다. 제품은 처음부터 전체 계획 제시, 현재 상태 표시, 중간 개입, 즉시 중단, 실패 후 복구 같은 경로를 기본 구조로 포함해야 하며, 이것은 부가 기능이 아니라 핵심 경험의 일부가 된다. 연구자에게는 신뢰를 단순 만족도나 채택 의도로만 재는 접근을 넘어, 사용자가 언제 개입해야 하는지 아는지, 시스템의 불확실성을 어떻게 해석하는지, 복구 과정에서 인지 부담이 얼마나 드는지까지 측정하는 과제가 더 중요해질 것이다. 특히 포함성과 프라이버시, 수리 가능성 같은 의제는 더 이상 별도 윤리 주제가 아니라 인터페이스 설계의 품질 문제로 다뤄져야 한다. 앞으로 주목할 지점은 인간이 시스템을 얼마나 덜 보게 만들 수 있느냐가 아니라, 꼭 봐야 하는 순간을 얼마나 명확하고 부담 없이 드러낼 수 있느냐에 있을 것이다.
HCI 전문가들의 생각을 바탕으로 AI 에디터가 정리한 의견입니다.