미국 교육부에서 발간한 AIED에 대한 인사이트와 권장사항을 담고 있는 보고서입니다. 이 보고서는 다음의 두 가지 질문을 던집니다.
1. 자동화를 통해 학습을 향상시키고 인간 자율성을 보호하며 이를 중심에 두는 바람직하고 달성 가능한 교육 시스템에 대한 우리의 공동 비전은 무엇인가?
2. 구성원들이 이 비전을 윤리적이고 평등하게 널리 구현하기 위해 필요한 가이드라인과 가이드레일, 그리고 긍정적 영향에 대한 설득력 있는 증거를 어떻게, 어떤 타임라인으로 준비할 것인가?
7가지 핵심 권장사항을 요약하면 다음과 같습니다.
1. 루프에서 인간 강조하기
자동화 시스템이 실패하거나 오류가 발생하는 경우, 대안적 프로세스를 통해 인간이 개입할 필요가 있습니다. 따라서 AI의 교육적 사용에 있어서 루프에 인간을 포함시키는 것이 핵심 기준이 되어야 합니다. AI 챗봇 사용에서 루프에 인간을 포함시키는 것의 사례는 다음과 같습니다.
1) 교사는 학생에게 안전한 AI 사용에 대해 교육하고, 사용을 모니터링하며, 문제가 발생했을 때 도움을 제공해야 합니다.
2) 교사는 AI 챗봇에서의 효과적인 프롬프트를 이해하고, AI가 생성한 것에 결함이 있는지 분석하는 방법을 알고, 인간 판단 대신 AI 시스템을 지나치게 신뢰하는 경향성을 피하기 위하여 동료 교사들과 함께 루프에 참여해야 합니다.
3) 교사는 AI 시스템을 교실에서 사용하기 전과 개선이 필요한 부분이 발견될 때 설계 및 평가에 참여해야 합니다.
2. 교육에 대한 공유된 비전에 AI 모델을 맞추기
AI 기술 모델은 필연적으로 어떤 면에서 불완전합니다. 모델의 유용성과 위험을 판단하는 것은 인간에 달려 있습니다. 우리는 교육적 요구를 우선시해야 합니다. 교육을 위한 AI 모델의 바람직한 특성은 다음과 같습니다.
1) 학습에 대한 교육자의 비전에 AI 모델을 맞추기
2) 데이터 프라이버시 보호
3) 알림과 설명을 통한 인간의 통제권 유지
4) 알고리즘 편향 최소화하기
5) 증거에 기반한 안전하고 효과적인 시스템
6) 루프에 인간을 참여시킴으로써 투명하고 책임 있는 AI 사용
3. 최신 학습 원리를 이용한 설계
지난 10년 간의 에듀테크는 결핍에 초점을 맞추고 이를 보완하기 위한 자원을 제공했지만, 이제는 학습자의 강점을 포착하고 지원하는 데 AI의 능력을 활용해야 합니다. 그리고 지금까지는 주로 개인에 초점을 맞추었지만 사회적 학습에도 관심을 기울여햐 합니다. 학생이 창의적인 방식으로 학습할 수 있는 능력을 기르고, 쓰고, 발표하고, 이끄는 능력을 확장시킬 수 있는 에듀테크를 개발해야 합니다.
교육에서의 AI 적용은 테크놀로지에 의해 결정되는 것이 아니라, 최신 학습 이론과 교육 실천가의 지혜에 기반해야 합니다.
4. 신뢰 강화에 우선순위 두기
교사, 학생, 보호자가 테크놀로지를 신뢰할 수 있기 위해서는 여러 이해관계자의 네트워크를 통해 토론에 참여할 수 있어야 합니다.
5. 교육자에게 정보를 제공하고 참여시키기
AI가 교육자에 대한 존중이나 가치를 절하시킬 가능성에 대한 우려가 큽니다. 이제는 에듀테크를 설계, 개발, 테스트, 개선, 채택 및 관리하는 프로세스의 모든 단계에 교육자를 참여시켜야 합니다.
6. 현장 맥락과 신뢰 및 안전 증진에 R&D 초점 맞추기
연구는 AI 시스템이 교육적 접근 방식과 교육 환경 전반에서 맥락(학습자의 변동성 포함)에 어떻게 부합할 수 있는지 초점을 맞추어야 합니다. 학생은 신경적으로 다양하며 장애가 있을 수 있습니다. 따라서 모든 상황에 맞는 단일한 솔루션은 없으며, 맥락에 주목해야 합니다.
7. 교육에 특화된 가이드라인 및 가드레일 개발하기
테크놀로지가 빠른 속도로 복잡해지면서 의사결정이 어려워지고 있고, 우수한 에듀테크 플랫폼을 평가하는 것도 어려워지고 있습니다. 개인정보보호법, 장애인 교육법 등 법률도 새로운 상황에 맞게 재고되어야 하며, 정부는 모든 수준에서 효과적으로 준비해야 합니다.