26/04/11 ~ 26/04/17
여러 소식이 서로 다른 분야를 다루는 듯 보이지만, 실제로는 같은 질문으로 모인다. AI가 무엇을 얼마나 잘 판단하느냐보다, 그 판단이 틀렸을 때 사람이 어떤 신호를 받고 어떤 권한으로 개입할 수 있느냐가 핵심이라는 점이다. 자율주행, 정신건강 지원, 대화형 LLM, 추천 시스템 모두 표면적으로는 성능 경쟁의 장처럼 보이지만, 실제 위험은 대개 인터페이스의 침묵, 책임의 공백, 목표의 왜곡에서 커진다. 특히 사용자가 시스템을 단순 도구가 아니라 어느 정도 스스로 판단하는 행위자로 받아들이는 순간, UX는 편의의 문제가 아니라 안전과 책임의 문제가 된다.
이 소식들이 함께 보여주는 최근 흐름은 세 가지다. 첫째, HCI의 관심이 사용성에서 통제 가능성으로 이동하고 있다. 과거에는 AI가 얼마나 자연스럽고 매끄럽게 작동하는지가 중요했다면, 이제는 언제 자신 없어 하는지, 언제 멈춰야 하는지, 사용자가 어떻게 즉시 수정할 수 있는지가 더 중요한 설계 기준이 되고 있다. 테슬라 사례와 고위험 AI 인터페이스 논의는 자동화가 부드럽게 이어지는 경험보다, 잘못된 자동화가 끊기고 수정되는 경험이 더 중요하다는 사실을 보여준다. 둘째, 안전은 더 이상 모델 내부의 필터링 문제로만 다뤄지지 않는다. 망상 맥락 대화 연구나 또래 지원 연구는 위험이 답변 내용 하나에서만 생기는 것이 아니라, 긴 상호작용 속에서 관계가 형성되고 책임이 누적되는 과정에서 생긴다는 점을 드러낸다. 그래서 상태 투명성, 에스컬레이션 경로, 인간 개입 지점 같은 인터랙션 구조가 모델 성능 못지않게 중요해진다. 셋째, UX의 평가 기준이 단기 반응 최적화에서 장기 목표 정렬로 이동하고 있다. 플랫폼 추천 연구가 지적하듯 클릭과 체류시간은 측정하기 쉽지만, 사용자의 장기적 복지나 숙고된 선호와는 자주 어긋난다. 이는 생성형 AI 서비스에도 그대로 이어져, 지금 반응이 좋고 대화가 길어진다고 해서 그것이 곧 좋은 경험은 아니라는 점을 시사한다.
실무자에게 가장 큰 함의는 AI를 더 똑똑하게 만드는 일만으로는 제품 신뢰를 얻기 어렵다는 점이다. 앞으로 중요한 것은 불확실성을 숨기지 않는 화면, 개입 시점을 놓치지 않게 하는 경고, 실패 후 책임을 떠넘기지 않는 운영 구조를 함께 설계하는 일이다. 연구자에게는 설명가능성이나 정확도 평가를 넘어, 실제 사용 맥락에서 책임 배치와 복구 가능성을 어떻게 측정할지 더 정교한 방법론이 필요하다. 특히 한국의 서비스 환경에서는 사용자가 AI를 도구보다 관계적 존재로 받아들이는 경향, 모바일 중심의 짧고 빈번한 사용, 가족과 지인 네트워크가 개입하는 사회적 맥락을 함께 고려해야 한다. 결국 앞으로 주목할 지점은 AI가 얼마나 잘 맞히는가가 아니라, 틀릴 때 얼마나 빨리 드러나고, 누가 어떻게 개입하며, 사용자가 다시 주도권을 잡을 수 있는가에 있다.
HCI 전문가들의 생각을 바탕으로 AI 에디터가 정리한 의견입니다.