Relational Translator로서의 AI: Cross-Cultural Contexts에서의 소속감과 Mutual Legibility 재고하기
AI as Relational Translator: Rethinking Belonging and Mutual Legibility in Cross-Cultural Contexts
배경 및 소개
최근 전 세계적으로 외로움과 사회적 고립이 커지고 있는데요. 이에 대한 해법으로 AI companion가 각광받았지만, 일부 맥락에서는 장시간·집중적 사용이 외로움 증가와 오프라인 사회화 감소와 연관된다는 연구가 쌓이고 있습니다. 이 글은 그 모순을 “AI가 관계 그 자체가 될 수 있는가”라는 잘못된 질문에서 비롯된 범주 오류로 보고, “AI가 인간과 인간 사이의 관계를 매개하고 지지할 수 있는가”로 질문을 전환합니다. 저자들은 이를 Relational AI Translation이라 부르며, 문화·세대·지리의 간극을 가로지르는 문화-관계적 인프라로 AI를 재위치시키는데요. 비판적 사례로 서구권의 1세대 동아시아 이주자를 다루며, face와 guanxi 같은 관계 규범이 심리적 어려움의 신호를 덜 읽히게 만들고, 기존 Conversational AI가 서구 개인주의 가정에 치우쳐 오조준할 수 있음을 지적합니다. 이는 HCI/HAI에서 belonging과 mutual legibility를 기술이 어떻게 복원할지 재설계해야 한다는 점에서 의미가 있습니다.
주요 내용
핵심 주장은 단순합니다. 동반자형 설계 대신, 관계 매개형 설계로 전환해야 한다는 것인데요. 먼저 anthropomorphism을 유도하는 디자인 mirage(1인칭 화법, 자연스러운 음성·실수 등)가 취약한 사용자에게 ‘마음 있음’을 과신하게 만들어 실망·과의존·오신뢰를 키울 수 있다고 봅니다. 특히 일부 동아시아 사용자군에서 anthropomorphism 성향이 높다는 보고와 맞물려 윤리적 위험이 커지는데요. 더불어 LLM이 Theory of Mind(ToM) 벤치마크에서 그럴듯해 보여도 정서·관계적 이해는 착시일 수 있어 illusion of understanding를 낳고, multi-agent 환경에서는 초기 오해가 연쇄적 hallucination으로 증폭될 수 있다고 지적합니다. 따라서 불확실성 표기, 경계 설정, human escalation이 필수라고 봅니다. 또한 AI에 마음을 부여할수록 인간 상대로는 mind를 덜 부여하는 dehumanisation의 trade-off가 보고되었는데요. 저자들은 이를 필연이 아닌 설계 의존적 위험으로 보고, ‘정서 시뮬레이션’이 아니라 ‘소속감과 상호가독성’을 키우는 인프라로 방향을 잡습니다. 이를 위해 Self-Determination Theory(autonomy·competence·relatedness)와 Social Convoy Model을 통합해, 관계 대체가 아닌 지원에 초점을 둡니다. 시스템은 번역(translation), 길잡이(navigation), 성찰(reflection), 연결(connection)의 비대체적 층위로 구성되며, 성공 지표는 ‘AI 체류시간’이 아니라 인간 관계 역량의 회복과 AI 의존 감소입니다. 구체 운영은 세 가지 translation operation으로 구현되는데요. 첫째 emotion-intent decoding은 “괜찮아요(meiguanxi/daijobu/gwaenchana)” 같은 고맥락 표현의 숨은 정서를 가정 없이 확인합니다. 둘째 contextual reframing은 자율(autonomy) vs 의무(obligation) 관점 등 다중 프레임을 병치해 상호공감을 돕습니다. 셋째 relational scaffolding은 문화적으로 적합한 의사소통 기법과 커뮤니티 자원 연결을 통해 인간-인간 대화를 실질적으로 받쳐줍니다. 기술적으로는 Manager agent가 Work/Study/Emotion/Legal 등 도메인 agent를 조율하는 multi-agent 아키텍처를 제안하는데요. Cultural RAG가 공동설계 자료로 문화적 근거를 보강하고, 조정 우선순위는 safety→expert validation→cultural grounding→user autonomy로 명시됩니다. 위험 징후가 감지되면 즉시 human escalation을 트리거하며, 라우팅·문화 근거·도메인 추론을 분리해 오작동을 억제합니다. 궁극적으로는 인간 간 직접 소통이 복원되면서 AI 매개가 점차 희미해지도록 설계된다는 점이 인상적입니다.
결론 및 시사점
저자들은 네 가지 설계 논점을 던지는데요. 첫째, 문화 번역의 효과가 단순한 공감적 warmth 때문은 아닌지 분해 측정이 필요합니다. 따라서 translation operation을 정서적 지지 베이스라인과 비교하는 component-level 평가가 제안됩니다. 둘째, 고맥락 문화의 보호적 모호성(protective ambiguity)을 과번역이 해치거나, 반대로 오역이 문화 본질주의를 강화할 위험이 있어, 해석을 가설로 제시하고 불확실성을 노출하며 사용자 확인을 필수로 둡니다. 셋째, 위기·법적 이슈 등 범위를 넘는 사안에서는 “I cannot help”를 능력의 일부로 드러내고 Behavioural Activation을 ‘처방’이 아닌 ‘초대’로 제시해 agency를 지키는 안전 경계를 강조합니다. 넷째, 감정 표현이 풍부한 embodiment는 의존을 키울 수 있어, 참여 최적화 대신 원리 학습과 스캐폴딩 페이딩으로 ‘졸업’을 목표로 삼습니다. 물론 구조적 부정의(비자, 차별, 의료 접근성)는 번역만으로 풀 수 없으므로 커뮤니티·법률 자원 연결을 병행합니다. 한계로는 개념 단계의 틀이라는 점, 문화 변화에 따른 model drift, autonomy–safety 트레이드오프, 메모리/접근성의 제약이 지적됩니다. 향후 참여적 연구로 지표를 검증하고, 오프라인 참여 증가와 AI 의존 감소를 성공으로 정의하겠다는 계획인데요. 개인적으로는 AIMC/HAI에서 “동반자”의 매력을 내려놓고 “관계 인프라”로 재정의했다는 점에서 실천적 파급력이 크다고 봅니다. 문화 간 mutual legibility를 제어 가능한 시스템 구성요소로 쪼갰다는 점도 흥미롭습니다.
💡 실무에서는 companion 최적화 대신 Cultural RAG·multi-agent·uncertainty 표기·human escalation을 표준 안전장치로 두고, KPI를 오프라인 관계 강화와 AI 사용량 감소로 재설정하면 좋겠습니다. 연구에서는 translation operation의 독립 효과를 분리 측정하고, protective ambiguity를 보존하는 인터랙션 전략을 실험해보길 권합니다.
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.