인공지능, 교육 현장에서 안전한 활용을 위해
페이지 정보
본문
기술적 진보 따른 새로운 불균형 초래 우려
새로운 기술, 안전한 활용 및
엄격한 규범과 함께 해야
글 | 나은서 사무관(교육부 미래교육전략팀)
교육은 기술의 발전과 함께 그 모습을 달리해왔다. 인공지능기술이 발전하고 코로나 팬데믹으로 교육의 디지털 전환이 가속화됨에 따라, 인공지능이 교육 전반에 스며들고 있다. 미래세대는 이전에 경험해보지 못한 인공지능 기반 교육을 받게 될 것이다. 이미 다수의 에듀테크 업체에서 인공지능 기반 교육 플랫폼·프로그램을 개발·보급 중이며, 시·도 교육청도 에듀테크 업체와 협약 등을 추진하며 다가올 인공지능 시대를 준비하고 있다. 인공지능은 학습자 개인별 맞춤형 교육을 지원하는 효과적인 수단으로서, 교육의 패러다임 전환을 견인할 것으로 예상된다.
인공지능의 교육적 활용과 규범의 필요성
새로운 기술은 안전한 활용과 함께 논의되어야 한다. “인공지능은 지속가능발전목표 달성을 앞당길 수 있는 큰 기회일 수 있지만, 모든 기술적 진보는 새로운 불균형을 초래하기에 우리는 그것을 예측해야 한다.”는 오드리 아줄레 유네스코 사무총장의 말처럼 기술의 발전과 안전한 활용에 대한 균형을 잡는 것이 중요하다.
실제로 영국에서 2020년에 코로나 팬데믹으로 인해 대입시험(A-Level)을 인공지능 알고리즘으로 대체하고자 하자, 알고리즘의 차별로 인한 반발이 일어났다. 국내·외 정부, 국제기구 등에서는 선제적으로 인공지능의 안전성을 확보하고자 예방적· 자율적 윤리규범을 마련하고 있다. 우리나라는 범정부 차원에서 2020년 11월, 「인공지능 윤리기준」을 발표하였으며, 유네스코는 지난 해 11월, 「인공지능 윤리권고」를 발표를 통해, “학습에 사용되는 인공지능은 보다 엄격한 관리가 필요함”을 밝혔다.
교육분야 인공지능 윤리원칙
기술의 발전에 따라 규범이 마련되는 것처럼, 인공지능의 교육적 활용이 증대함에 따라 교육에 특화된 윤리규범도 필요해졌다. 교육은 신체적, 정신적으로 인간의 성장에 큰 영향을 미치며 삶을 살아가는 태도와 가치관 형성에도 밀접하기에 보다 엄격한 규범이 필요하다. 또한, 교육분야는 교원·학생이 인공지능의 이용자이면서도 가까운 장래에 개발자가 될 수 있다는 특수성도 있다.
그러나 기존의 인공지능 윤리규범은 대부분 범용적이고 개발자 중심으로 규범화되어 교육 현장에 바로 적용하기에 제한적인 측면이 있다. 국내에서는 서울시교육청에서 「인공지능의 공공성 확보를 위한 현장 가이드라인」을 선제적으로 마련하여 인공지능 활용을 위한 가이드라인을 제공하고 있으나, 국가 차원의 규범은 미비했다. 이에 따라 교육부는 올해 8월 교육분야 인공지능이 윤리적으로 개발되고 안전하게 활용될 수 있도록 「교육분야 인공지능 윤리원칙」(이하 “윤리원칙”이라 한다.)을 마련하였다.
이 윤리원칙은 “사람의 성장을 지원하는 인공지능”을 대원칙으로, 10가지의 세부원칙을 제시하고 있다.(그림1) 교육기관 등에서 인공지능을 활용하는 ‘이용자’, 교육용 인공지능의 ‘개발자’ 그리고 인공지능의 교육적 도입·활용을 기획하는 ‘관리자’ 등이 준수해야 하며, 교육기관 및 교육활동을 지원하는 행정기관에서 활용되는 인공지능에 적용된다. 또한, 교육계의 자발적인 실천과 준수를 독려하는 자율규제의 성격을 지닌다.
교육은 궁극적으로 사람의 성장을 목표로 하며, 이는 인공지능을 활용한 교육에서도 가장 기본이 되어야 한다. 「교육기본법」 제2조 “모든 국민으로 하여금 인격을 도야하고 자주적 생활능력과 민주시민으로서 필요한 자질을 갖추게 함으로써 인간다운 삶을 영위 … 이바지하게 함을 목적으로 한다.”는 교육이념처럼 인공지능의 활용은 인간다운 삶을 영위할 수 있도록 돕고, 사람의 능력이 효과적으로 발휘될 수 있도록 해야 한다. 인공지능을 통해 인간다움과 미래다움이 공존하는 교육 패러다임을 실현할 수 있도록 대원칙으로 “사람의 성장을 지원하는 인공지능”을 두고 있다.
인공지능이 교육 현장에서 활용되는 것과는 별개로 학습자와 교수자 등으로 이루어진 전통적인 ‘교육공동체’는 여전히 중요하다. 인공지능의 등장이 교수자의 대체로 이어질 수는 없다. 다만, 기존에 교수자가 주로 담당하던 학습·평가, 과제 관리 등을 인공지능이 맞춤형으로 지원해줌에 따라 교수자에게 요구되는 역할과 역량이 달라질 수는 있다. 이는 시대의 변화에 따른 역할의 조정일 것이다. 특히, 인공지능 시대에는 교수자 고유의 전문성을 바탕으로 학습자와의 인간적·정서적 교류가 더욱 강조되고 있다. 교수자의 전문성을 존중하며 인공지능을 활용함으로써, 교수학습의 질을 높이고 교수자의 전문성도 효과적으로 발휘될 수 있도록 세부원칙 중 하나로 “교수자의 전문성을 존중한다.”를 두고 있다.
또한, 인공지능은 교육공동체의 유지와 지속에 대한 논의를 바탕으로 교수자와 학습자, 학습자와 학습자 등 인간적 관계 확대를 지원해야 한다. 유네스코 윤리권고에서도 전통적 교육형태에서의 교사-학생 간 관계가 중요하며 인공지능을 활용할 때 이에 대해 유념해야 한다는 점을 밝히고 있다. 인공지능이 교육에 참여하는 사람들이 긍정적 관계 형성을 도울 수 있도록 세부원칙에 “교육당사자 간의 관계를 공고히 유지한다”를 통해 규정하고 있다. 이외에도 세부원칙으로 인공지능의 윤리적 활용을 위한 “사회 공공성 증진”, “교육당사자의 안전 보장” 등을 두고 있다.
<그림1>교육분야 인공지능 윤리원칙(교육부)
인공지능의 안전한 활용을 위하여
윤리원칙은 규제가 아니라 모두의 사회적 합의를 전제로 하는 도덕적 규범이다. 따라서 실제 교육 현장, 개발 현장 등에서 인공지능을 개발하고 활용하는 사람들의 인식이 가장 중요하다. 자발적으로 경각심을 가지고 교육 현장에 안전하고 신뢰할 수 있는 인공지능이 자리매김할 수 있도록 돕는 것이 이 윤리원칙에 최종적으로 기대하는 바이다. 기술의 발전과 교육 현장에서의 활용 실태 등을 고려하여 지속적으로 논의해나가야 할 것이다. 또한 실제 현장에서 작동하기 위하여 인공지능 윤리교육 내실화, 교수자의 역량 개발을 지원하는 연수 프로그램 마련 등의 실천과제 추진과 병행되어야 할 것이다.
미래는 여전히 예상하기 어렵지만, 우리는 미래를 꿈꾸고 준비할 수 있다. 인공지능을 잘 활용하기 위한 준비를 시작한다면, 인공지능을 통해 이로운 삶을 누릴 수 있는 미래가 기다릴 것이다. 인공지능을 통해 모두가 성장할 수 있기를 바라며, 「교육분야 인공지능 윤리원칙」이 미래교육으로의 여정을 안내하는 이정표가 되기를 기대한다.
글 | 나은서 사무관(교육부 미래교육전략팀)
나은서 사무관은 교육부 미래교육전략팀에 근무하고 있다. 지난 8월 발표한 「교육분야 인공지능 윤리원칙」을 비롯하여 인공지능 제도적 기반 마련 업무를 담당하고 있다.