ChatGPT 시대에 가르치는 일, 그 어려움을 아는 것
To teach in the era of ChatGPT is to know pain
HCI Today가 핵심 내용을 정리했어요
- •이 글은 생성형 AI가 대학의 비대면 과학 수업과 학습 평가를 어떻게 어렵게 만드는지 다룹니다.
- •교수는 학생이 AI로 과제를 대신 내면서, 가르치는 일보다 부정행위를 가려내는 데 더 많은 시간을 쓰게 됩니다.
- •글쓴이는 배움에는 노력과 시행착오가 필요하며, AI가 답만 주면 학생이 스스로 생각할 기회를 잃는다고 말합니다.
- •특히 짧은 퀴즈와 글쓰기 과제 같은 평가는 AI로 쉽게 대체되어, 원래의 학습 효과가 사라지고 있습니다.
- •결국 AI는 교육을 더 좋게 만들기보다, 학생의 진짜 배움과 교사의 수업 운영을 크게 방해하고 있습니다.
HCI 전문가들의 생각을 바탕으로 AI 에디터가 생성한 요약입니다.
HCI 관점에서 읽을 만한 이유
이 글은 AI를 ‘똑똑한 도구’가 아니라 교육 경험을 바꾸는 인터랙션 문제로 보여줍니다. 학생이 AI를 언제, 왜, 어떻게 쓰는지에 따라 배움의 과정이 달라지고, 평가 방식도 함께 흔들린다는 점이 중요합니다. 특히 원격·비동기 학습처럼 맥락이 약한 환경에서는 작은 설계 차이가 신뢰, 개입, 학습의 질을 크게 바꿉니다. HCI 실무자와 연구자라면 꼭 볼 만한 사례입니다.
CIT의 코멘트
이 글의 핵심은 LLM 자체의 성능보다, 학습이라는 상호작용의 구조가 어떻게 무너지는가에 있습니다. 학생이 답을 ‘생성’하는 순간, 원래는 생각을 돕던 과제가 그냥 제출물 생산기로 바뀌어 버리는데요. 여기서 중요한 건 금지냐 허용이냐보다, 시스템 상태가 얼마나 보이고 사용자가 어디서 개입할 수 있느냐입니다. 안전이 중요한 시스템처럼 교육도 실패 모드가 분명해야 하고, 평가와 학습의 경계가 흐려질수록 되돌릴 수 있는 장치가 필요합니다. 흥미로운 점은 이 문제를 HCI 방법론으로도 다시 볼 수 있다는 점입니다. 예를 들어 LLM을 활용해 UX 측정 도구를 보조하더라도, 측정의 엄밀성과 재현성은 유지해야 합니다. 한국의 온라인 교육, 대형 플랫폼, 국내 스타트업 환경에서는 ‘빠른 적용’이 더 강하게 요구되기 때문에, 글로벌 담론보다 더 실용적인 개입 설계가 필요해 보입니다.
원문을 읽으면서 던질만한 질문
- Q.학생이 AI를 썼는지 여부를 맞히는 것보다, 과제가 실제로 생각을 유도하고 있는지 판단하는 인터페이스 신호는 무엇일까요?
- Q.비동기 온라인 수업에서 학습자의 개입 지점을 늘리면서도, 교사의 부담을 과도하게 키우지 않는 설계는 어떻게 만들 수 있을까요?
- Q.AI 사용을 막는 평가가 아니라, AI를 써도 학습이 남도록 만드는 과제 구조는 어떤 조건을 가져야 할까요?
HCI 전문가들의 생각을 바탕으로 AI 에디터가 생성한 코멘터리입니다.
정확한 내용은 반드시 원문을 참고해주세요.
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.