비대면·대형 강의 시험서 AI 활용한 부정행위 연이어 적발
과제·평가 전반으로 확산… “누가 AI 잘 쓰느냐의 싸움” 자조도
전문가들 “기술은 바뀌었는데 대학은 그대로… 평가 시스템 재설계 시급”

연세대와 고려대를 포함한 주요 대학에서 AI(인공지능)를 활용한 집단 부정행위가 잇따라 적발됐다. 비대면 수업과 대형 강의가 일반화된 가운데, AI 기술의 확산이 기존 평가 체계를 흔들고 있다는 우려가 커지고 있다.
연세대학교에서는 약 600명이 수강 중인 전공 과목 ‘자연어(NLP) 처리와 챗GPT’의 중간고사에서 집단 부정행위가 적발됐다. 해당 시험은 비대면으로 진행됐고, 수강생들은 시험 중 컴퓨터 화면과 손, 얼굴이 동시에 보이도록 영상을 촬영해 제출해야 했다.
그러나 교수 측은 “부정행위 장면이 다수 확인됐다”며 자수를 유도하는 공지를 냈고, 현재까지 자수한 학생 수는 40명을 넘는다. 영상에서는 시험 문제를 캡처하거나, 손을 사각지대에 둔 채 다른 기기를 조작하고, 화면에 외부 프로그램을 띄우는 등의 행위가 확인된 것으로 알려졌다.
고려대학교에서도 지난달 25일, 교양 과목 ‘고령사회에 대한 다학제적 이해’의 중간고사에서 일부 수강생들이 카카오톡 오픈채팅방을 개설해 문제와 정답을 실시간으로 공유한 사실이 드러났다.
이 수업은 약 1400명이 수강하고 있으며, 해당 채팅방에는 최대 500명이 동시 접속해 있었던 것으로 전해졌다. 일부 학생은 강의 자료를 AI에 학습시킨 뒤 자동으로 생성된 정답을 공유한 것으로도 파악됐다. 교수진은 시험을 전면 무효화했고, 고려대 측은 기말고사 운영 방식과 재발 방지 대책을 마련 중이다.
AI 기반 부정행위는 시험에 국한되지 않고 과제 전반으로도 확산되고 있다. 연세대 학생 커뮤니티에는 “족보 내용을 GPT에 돌려 형식만 바꿔 제출했다”, “누가 더 좋은 AI를 쓰느냐의 싸움이었다” 등 AI 활용을 자인하는 후기가 다수 올라와 있다.
이 같은 사례의 상당수는 사전녹화된 영상 콘텐츠를 중심으로 진행되는 비대면 강의에서 발생했으며, 교수와 직접 대면하지 않는 수업 구조가 AI 사용에 대한 심리적 저항을 낮추고 있다는 분석도 나온다.
전문가들은 AI 사용 자체를 막기보다는, 이를 전제로 학습 효과를 평가할 수 있는 새로운 설계가 필요하다고 본다. 대형 강의가 구조적으로 부정행위에 취약한 만큼, 대학 평가 기준에 이를 반영하는 제도적 대응도 요구된다는 지적이다.
실제로 대학정보공시 사이트 ‘대학알리미’에 따르면, 연세대의 200명 이상 대형 강의 수는 2020년 75개에서 2023년 104개로 늘었고, 원격 강의 수는 같은 기간 34개에서 321개로 급증했다.
수강 인원이 많고 교수와의 실시간 상호작용이 제한된 환경에서 보안 장치 없이 시험이나 과제를 진행하면, 부정행위 가능성은 높아질 수밖에 없다는 분석이 나온다.
일각에서는 AI 사용 여부에 따라 시험을 구분하거나, AI를 전제로 한 과제를 설계하되 사고 과정과 결과 분석에 초점을 맞추는 방식도 제안된다.
기술 환경이 빠르게 변화하는 상황에서 기존 평가 방식만을 고수할 경우, 유사한 부정행위 논란은 반복될 수밖에 없다는 것이다.
