记者从教育部获悉,近日,教育部基础教育教学指导委员会正式发布了《中小学生成式人工智能使用指南(2025年版)》(以下简称《使用指南》),《使用指南》明确提出在中小学应用场景中,应以保障个人隐私和数据安全为前提,通过规范化使用充分发挥生成式人工智能的潜能,小学阶段禁止学生独自使用开放式内容生成功能,教师不得将生成式人工智能作为替代性教学主体。

生成式人工智能在中小学教育中有三大类核心应用场景

《使用指南》明确了生成式人工智能在中小学教育中的三大类核心应用场景。

第一类应用场景是促进学生成长。围绕不同教育阶段、不同类型的学生学习成长的多样化需求,面向特定场景应用生成式人工智能,提供个性化的支持和指导,促进学生的全面发展和健康成长。支持学生的个性化学习,提供学生互动式探究,强化学生的深度阅读体验,提升学生心理健康水平,另外特殊需求学生可以借助生成式人工智能应用技术突破生理或文化障碍,获得平等学习机会。

第二类应用场景是辅助教师教学。生成式人工智能可为教师提供教学准备、课堂实施、课后辅导及教学研究的全面支持。依托其精准分析与内容生成能力,教师可优化资源配置,提升教学效能,助力构建人机协同的高效教学体系。

第三类应用场景是支撑教育管理。教育行政部门、学校和教师可利用生成式人工智能管理文本生成和智能分析数据,优化日常办公、教育监管与评价决策,提升管理的精准性与科学性。

要避免学生的过度技术依赖

《使用指南》强调,在中小学应用场景中,应以保障个人隐私和数据安全为前提,通过规范化使用充分发挥生成式人工智能的潜能。小学阶段禁止学生独自使用开放式内容生成功能,教师可在课内适当使用辅助教学;初中阶段可适度探索生成内容的逻辑性分析;高中阶段允许结合技术原理开展探究性学习。学生、教师和教育管理者等不同使用主体可根据实际需求,综合考虑技术成熟度、任务复杂度以及本地资源特点,选择最适合的实施模式,有序推进相关应用场景的落地实施。

“这一设计旨在平衡技术应用潜力与学生年龄适配性,避免低龄学生因认知不足导致技术滥用或过度依赖。”教育部基础教育教学指导委员会负责人说。

为防范学生因过度依赖生成式人工智能而弱化独立思考能力,《使用指南》从制度规范、教学引导与角色定位等维度建立系统性防范机制。

对于教育行政部门,《使用指南》提出教育行政部门在统筹推进生成式人工智能教育应用过程中,应当秉持“因地制宜、分类施策、规范管理”的基本原则。充分考量区域发展不平衡性、城乡资源差异性及地方特色多样性等客观要素,科学制定本辖区应用推进路径。制订相关生成式人工智能应用政策法规,制定数据安全保护管理办法,明确伦理审查机制,建立动态调整的“白名单”制度,明确可入校使用的生成式人工智能工具清单。

对于中小学校,《使用指南》提出学校应针对不同学龄阶段学生,基于差异化的教育场景目标,制定差异化、递进式的人工智能应用策略。避免采取“一刀切”的简单化管理模式,警惕对AI工具的过分依赖,加强数据安全与隐私保护治理。兼顾提升师生实操技能与满足情感需求的双重目标,确保技术赋能与人文关怀相融合。对于教师,《使用指南》提出教师须根据学生发展情况和教学环境特征,科学决策技术使用方式与程度,并确保教学内容的适宜性和准确性,实现技术与教育教学目标的有机融合。

《使用指南》同时强调,教师不得将生成式人工智能作为替代性教学主体,禁止直接使用AI回答学生问题或提供咨询,要避免直接使用AI生成内容评价学生,严禁将个人信息、考试试题等敏感数据输入AI工具,防止数据泄露与隐私侵害。对于学生,《使用指南》提出学生应避免在作业中简单复制生成式人工智能工具生成的内容;避免使用生成式人工智能参加考试与测验,不得利用生成式人工智能作弊;避免在展现创造性或个性化表达的学习任务中轻易滥用生成式人工智能,丧失个人思考与观点;避免在未查阅高质量教材或权威资料前贸然使用生成式人工智能获取信息;避免将个人信息输入生成式人工智能工具,泄露数据和隐私;避免在未经授权的情况下利用生成式人工智能复制或传播作品,侵犯著作权。《使用指南》还提出家长在生成式人工智能技术应用中扮演着重要的监督与支持角色。家长应积极提升自身对新兴技术的认知,合理利用生成式人工智能支持家庭教育,尤其重视引导低龄子女安全、健康地使用。同时,家长应避免在生成式人工智能工具中输入任何可能泄露个人或家庭敏感信息的内容,家长不能忽略孩子的情感需求和心理健康,防范因技术过度依赖导致心灵培育缺失。