
우리 아이들에게 중요한 건 정답이지, 왜 그렇게 생각했는지는 중요하지 않았다. 적어도 우리의 교육시스템은 그 과정을 중요하게 다루지 않았다. 교육은 본래 전인적 성장과 개별화 교육을 통해 학습자의 사고 과정과 이해의 맥락을 존중하는 것을 목표로 해왔지만, 치열한 입시 위주의 교육현장에서 이는 매우 어려운 과제가 되어버렸다.
생성형 AI가 흔드는 교육의 본질
이와 같은 이상과 현실의 괴리는 오랫동안 우리 교육의 숙제로 남아있었고, 그 해결을 위한 실마리로써 교육과 기술의 접목을 뜻하는 에듀테크를 공격적으로 우리 교실현장에 적용하기 시작하였다. 하지만 교육현장의 교수자·학습자·학부모들이 경험했듯이, 현재까지의 에듀테크는 우리가 추구하는 이상적 교육을 실현하기에는 한계를 드러낸 것이 사실이다.
기존의 에듀테크는 언제, 어디서나, 누구나 학습할 수 있는 기반을 마련해준 데 기여했지만, 학습자의 특성이나 학습 수준을 이해하고 차별화된 학습 경로를 만들어 주는 데에는 구조적 제한이 존재했다. 다시 말해 학습의 편의성은 향상되었지만, 개별 학습자의 학습 효과성 측면에서는 여전히 개선의 여지가 남아있다. 에듀테크는 학습자의 차이에 기반한 다양한 질문에 유연하게 반응할 수 없었고, 그 결과 학습자의 학습 욕구와 어려움을 해결해 주는 것은 여전히 교사의 몫이었다. 이러한 한계 속에서 교육현장은 학습자의 개별적 사고와 질문에 실시간으로 대응할 수 있는 새로운 기술적 전환점을 필요로 하게 되었다.
이런 요구 속에서 등장한 생성형 AI는 교육현장의 큰 변화를 예고하고 있다. 대한민국 사회는 새로운 기술을 빠르게 수용하는 특성을 지니고 있으며, 생성형 AI 역시 교육 분야 전반으로 빠르게 확산되고 있다. 이에 따라 AI 기술을 교육현장에 접목하려는 시도는 이미 다양한 형태로 이루어지고 있다.
그러나 교육현장의 목소리를 들어보면 이 변화가 마냥 긍정적으로만 받아들여지지는 않는다. 학교 현장에서는 학생들이 생성형 AI를 활용해 과제를 수행하기보다 답변을 그대로 복제하는 오남용 문제가 이미 심각한 수준에 이르렀다. 최근 대학가에서 불거진 AI를 활용한 과제 제출과 시험 부정행위는 생성형 AI의 교육적 활용에 대한 부정적 인식을 양산하고 있다.
더욱 우려스러운 점은 지식을 대하는 학생들의 태도 변화다. 일부 학생들은 교수자의 강의 내용을 깊이 이해하려 하기보다, 생성형 AI를 활용해 실시간으로 강의 오류를 찾아내거나 교수자의 권위에 도전하며 자신의 우월함을 입증하려는 모습이 목격되곤 한다. AI를 학습의 보조 도구가 아닌 교수자를 감시하고 견제하는 ‘절대적 준거’로 삼는 셈이다. 비단 대학만의 문제가 아니다. 기술 수용력이 압도적으로 높은 디지털 네이티브 세대에게 AI는 부모나 교사보다 더 신뢰할 만한 권위가 되고 있으며, 이러한 ‘관계의 역전’은 머지않아 초등학교 교실에서도 피할 수 없는 현실이 될 것이다.
생성형 AI 활용 학습에서의 윤리인식과 학습 책임 문제
또한 생성형 AI 사용에 대한 윤리적 의식의 결여 역시 중요한 문제로 부상하고 있다. 필자의 최근 연구에 따르면, 생성형 AI를 활용해 스토리를 창작하는 대학 수업에서 학습자들은 결과물이 AI에 의해 생성되었음에도 불구하고, 그 과정에서 자신이 프롬프트를 설계하고 방향을 제시했다는 이유로 결과물의 소유권이 자신에게 있다고 인식하는 경향을 보였다. 이러한 인식은 단순한 개념적 혼란을 넘어, 학습 책임과 윤리의식의 경계가 흐려지고 있음을 시사한다. 학습과정에서 중요한 것은 결과물 자체가 아니라, 그 결과에 이르기까지의 과정임에도, 학습자는 ‘얼마나 생각했는가’보다 ‘어떤 결과를 얻었는가’에 초점을 두게 되는 것이다.
많은 이들이 이러한 현상을 학생들의 지적 나태함 탓으로 돌리지만, 누구나 편하고 쉬운 방법을 찾는 것을 탓할 수는 없다. 그것은 인간의 본능에 가깝기 때문이다. 최소 시간 안에 단 하나의 정답을 찾아내야 하는 한국의 입시 중심 교육시스템을 고려하면, 생성형 AI는 학습자에게 가장 효율적인 도구가 될 수밖에 없다.
하지만 핵심적인 우려는 이렇게 사고와 검증의 역할을 인간이 스스로 내려놓게 되면, 생성형 AI가 참고하는 지식의 질 역시 점차 취약해질 수밖에 없다는 데 있다. 생성형 AI는 스스로 새로운 지식을 창출하거나 진위를 판단하지 못한 채, 주어진 정보의 패턴을 재조합할 뿐이기 때문이다. 만약 검증되지 않은 정보와 피상적인 답변이 반복적으로 생산·소비되는 구조가 고착된다면, AI는 점점 더 그럴듯하지만 부정확한 답변을 내놓을 위험이 커진다.
더 심각한 것은 이러한 출력이 다시 학습자의 학습자료로 흡수되고, 잘못된 정보가 비판 없이 ‘사실’로 받아들여지는 악순환이 형성될 수 있다는 점이다. 이 과정이 반복될수록 우리는 무엇이 옳고 그른지 판단하는 기준을 점차 상실하게 되며, 교육이 지켜야 할 가장 중요한 토대인 지식에 대한 신뢰 역시 흔들리게 된다. 사고와 검증의 책임을 점점 기계에 위임하는 사회에서, 인간은 의미를 창조하는 주체라기보다 결과를 수용하는 존재로 밀려날 가능성이 크다. 필자는 이러한 상황이 당장 현실화되지는 않으리라 믿는다. 그러나 최근 학습자들의 모습을 관찰하다 보면, 그 가능성을 가볍게 넘기기 어려운 징후들이 곳곳에서 감지된다.
윤리적 신중함이 또 다른 위험이 되기 전에
그렇다면 어떻게 이를 극복할 수 있을까? 많은 교육전문가는 정답을 찾아내는 교육에서 질문을 다듬는 교육으로의 전환이 필요하다고 말한다. 생성형 AI가 만들어낸 답변이 학습과제의 최종 결과가 아니라, 사고 과정을 확장하기 위한 하나의 매개로 기능해야 하며, 결과보다 그에 이르는 학습과정에 더 큰 가치를 두는 교육이 이루어져야 한다는 것이다. 물론 이러한 방향은 필요하고도 타당하다.
그러나 보다 근본적인 문제는 생성형 AI가 본래 교육을 목적으로 설계된 도구가 아님에도 불구하고, 아무런 장치 없이 교육현장에 무분별하게 사용되고 있다는 점이다. 늘 안타까운 것은 아이들이 안심하고 활용할 수 있는 공공적·교육적 AI 학습도구의 개발이 왜 이토록 더디게 진행되고 있는가 하는 현실이다. 사실 기술적 구현 자체가 불가능해서가 아니다. 개발 과정에서 가장 큰 난관은 언제나 ‘이 도구가 아이들에게 유해하지는 않을까’, ‘교사가 안심하고 수업에 활용할 수 있을까’라는 신뢰의 벽이다.
그런데 역설적이게도, 이러한 윤리적 신중함이 또 다른 위험을 만들어내고 있다. 우리가 과도한 윤리적 기준과 가이드라인에 매몰되어 기능을 제약하는 사이, 아이들은 이미 압도적인 정보량과 성능을 갖춘 ChatGPT와 같은 상용 생성형 AI로 이동하고 있다. 도덕적 완벽함을 추구하느라 정작 교육현장에서 활용 가능한 대안적 도구를 제시하지 못한다면, 학습자들은 결국 공공이 설계한 교육용 AI가 아닌, 거대 자본이 만든 범용 AI에 의존할 수밖에 없다. 현재의 상용 AI 알고리즘이 어린 학습자를 위해 설계되지 않았다는 사실을 모두가 알고 있음에도, 성능 격차라는 현실 앞에서 우리는 위험한 동거를 지속하고 있는 셈이다.
결론적으로 생성형 AI의 제한이나 금지는 더 이상 문제의 해결책이 될 수 없으며, 이제는 정교한 설계에 의해 개발된 교육용 AI, 즉 통제 가능한 AI로의 전환이 필요하다.