ChatGPT로 더 똑똑하게 연구하는 방법
Research with ChatGPT
HCI Today가 핵심 내용을 정리했어요
- •이 글은 ChatGPT의 검색과 심층 조사(deep research)를 활용해 최신 정보를 찾는 방법을 소개합니다.
- •먼저 검색 기능으로 여러 자료를 빠르게 찾아, 주제와 관련된 최신 내용을 모으는 방법을 설명합니다.
- •그다음 찾은 자료를 비교하고 살펴보며, 믿을 만한 정보인지 판단하는 과정을 다룹니다.
- •또한 내용을 그냥 모으는 데서 끝내지 않고, 보기 쉬운 구조로 정리해 핵심을 뽑아내는 방법을 보여줍니다.
- •이 글은 ChatGPT를 잘 활용하면 자료 조사 시간을 줄이고, 더 정리된 결론을 얻을 수 있다고 말합니다.
HCI 전문가들의 생각을 바탕으로 AI 에디터가 생성한 요약입니다.
HCI 관점에서 읽을 만한 이유
이 글은 AI를 단순히 ‘똑똑한 기능’으로 보는 시각을 넘어, 사용자가 실제로 어떻게 믿고, 확인하고, 개입하는지까지 함께 보게 해줍니다. HCI와 UX 실무자에게는 모델 성능만 높여서는 해결되지 않는 문제, 예를 들면 설명 방식, 오류 대응, 신뢰 형성 같은 설계 포인트를 다시 점검하게 만든다는 점에서 의미가 있습니다. 특히 안전이 중요한 서비스라면 더더욱 읽어볼 가치가 있습니다.
CIT의 코멘트
AI 기능이 좋아질수록 오히려 인터랙션 설계의 빈틈이 더 크게 드러납니다. 자동으로 추천해 주는 기능도, 사용자가 어디까지 믿어야 하고 언제 멈춰야 하는지 분명하지 않으면 위험한 도구가 되기 때문입니다. 그래서 중요한 것은 모델 자체보다 시스템 상태를 얼마나 잘 보여주고, 사용자가 개입할 수 있는 경로를 얼마나 분명하게 마련하느냐입니다. 국내 서비스 환경에서는 이 문제가 더 복잡해집니다. 네이버, 카카오, 국내 스타트업처럼 빠르게 기능을 붙이는 문화에서는 ‘잘 작동한다’는 인상만으로 배포되기 쉬운데요, 실제 사용 맥락에서의 실패 모드와 책임 경계까지 함께 설계해야 합니다. 특히 처음부터 AI와 함께 자란 세대는 버튼을 누르는 방식보다 대화하고 수정하는 방식을 더 자연스럽게 기대할 수 있어서, 인터페이스의 기본 전제가 달라질 수 있습니다.
원문을 읽으면서 던질만한 질문
- Q.이 AI 기능에서 사용자가 직접 개입할 수 있는 지점은 어디이며, 그 신호는 충분히 눈에 띄게 설계되어 있나요?
- Q.실제 사용 중 모델이 틀렸을 때, 사용자가 빠르게 알아차리고 복구할 수 있는 실패 모드는 무엇인가요?
- Q.국내 사용자 맥락에서 글로벌 HCI 패턴을 그대로 가져왔을 때, 어떤 행동 차이 때문에 다른 결과가 생길 수 있나요?
HCI 전문가들의 생각을 바탕으로 AI 에디터가 생성한 코멘터리입니다.
정확한 내용은 반드시 원문을 참고해주세요.
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.