当前,生成式AI凭借强大的内容生成能力、智能交互特性与个性化学习支持,为思政教育突破从传统“大水漫灌”迈向“精准滴灌”模式提供了全新的技术路径与想象空间,成为推动高校思政教育的重要工具。
然而,科技是发展的利器,也可能成为风险的源头。一方面,生成式AI能够赋能资源供给、创新教学场景、实现精准思政;另一方面,其技术逻辑本身及不当应用,可能潜藏着消解教育主体性、扭曲价值传递等风险。如何构建一个多层次、立体化的防控机制来有效驾驭技术、防范风险,确保思政教育在数智化转型中始终坚持正确的政治方向和价值导向?这一议题的研究,对高校思政教育改革创新与高质量发展具有重要理论价值与现实意义。
一、生成式AI赋能高校思政教育的积极作用
实现个性化学习体验,增强思政教育针对性。生成式AI能够智能生成基于学生学习历史、互动反馈和认知程度的定制化学习内容和路径。例如,针对同一思政主题可为不同专业背景、兴趣取向的学生提供差异化解读和拓展阅读材料。这种“千人千面”的个性化教学,有助于打破传统思政课“大锅饭”的局限,使教育内容更贴合学生个体实际,充分调动学生学习主观能动性,实现思政教育由“大水漫灌”到“精准滴灌”的转变。
创新教学内容与形式,提升思政教育吸引力。AIGC工具可高效生成文字、图像、音视频以及模拟对话场景,极大丰富了思政课程素材库。教师可快速创建沉浸式历史情境、模拟对话,将理论知识与现实问题相结合即时生成分析材料,这种多元化、动态化资源呈现形式,契合了当代大学生的信息接收习惯,有效降低理论理解门槛,增强思政教学的形象性、互动性与时代感,从而提升课程吸引力和感染力。
拓展深度互动与即时反馈,强化思政教育引导力。基于大语言模型的聊天机器人或虚拟助教能够随时为学生答疑解惑、探讨观点和提供情感陪伴,在课堂外,可以继续就困惑的理论问题或社会现象等与AI进行深入交流并得到及时客观的反馈与多视角的分析,这不仅延展了教学时空,更形成了一种低心理压力下的练习场域,让学生勇于提问大胆思考。教师则可以从AI生成的互动记录中掌握学生思想的共性疑点与认知偏差,在课堂上对学生进行更有针对性的引导,强化价值引领的实效。
辅助教学评估与研究,推动思政教育科学化。生成式AI可协助教师完成作业批改、论文初步分析、学习过程跟踪等程序性工作并通过情感分析、主题聚类等技术,对海量的学生文本反馈进行质性数据分析,识别学生群体情绪动向与思想关注焦点,为教学效果评估提供了超越传统分数之外的,更丰富的评价数据支撑,进一步推动科学治教。
二、生成式AI在高校思政教育中存在的风险
(一)内容生成层面:价值偏移与内容失真风险
价值导向偏差。生成式AI的内容生成依赖于海量训练数据,有的训练数据中可能包含错误信息和消极观点。同时,生成式AI有时会根据用户历史交互数据推测偏好,主动推送贴合用户既有认知的内容,导致学生陷入“信息茧房”。
内容真实性缺失。生成式AI在生成内容时可能出现“幻觉现象”,即编造虚假信息、伪造数据来源、曲解理论知识。思政教育内容具有严格的科学性与严肃性,若AI生成的教案素材、案例解析、理论解读存在虚假成分,将直接损害思政教育的权威性与实效性。
(二)交互过程层面:主体性消解与思维惰性风险
学生主体性弱化。在生成式AI与思政教育融合的“师—机—生”三元互动模式下,AI凭借强大的信息整合与快速回应能力,逐渐成为信息传递的核心枢纽,使得部分学生过度依赖AI获取知识、解决思想困惑,并将AI提供的结果视为“标准答案”,久而久之造成学生独立思考能力和批判性思维能力减弱,导致思政教育难以实现价值内化,最终消解学生在思政教育中的主体性地位。
教师主导权边缘化。生成式AI能够协助教师完成教案设计等大量基础性工作,但若过度依赖技术,教师可能逐渐丧失对教学内容的主导权。部分教师缺乏对AI生成内容的甄别与批判能力,直接将AI输出的内容用于教学,难以发挥自身的价值引导作用。同时, AI对学生思想动态的精准分析,可能使教师忽视与学生的情感沟通,导致思政教育陷入“技术至上”的误区,弱化教师在育人过程中的核心引领作用。
(三)数据治理层面:隐私泄露与安全风险
学生隐私泄露风险。生成式AI在应用过程中会收集大量学生个人数据,包括学习行为数据、思想动态数据、情感态度数据、个人身份信息等。这些数据包含学生的思想倾向、价值偏好等敏感信息,若缺乏完善的数据治理机制,可能出现数据泄露、滥用等问题,甚至被别有用心之人利用。
(四)内容审核层面:人工审核效率的局限性难以匹配AI生成内容的几何级扩容
首先内容审核重点从静态、确定的已知内容转向应对动态、不确定的AI生成内容,使审核的复杂性和必要性显著增加;其次传统依赖人工经验的审核模式已难以应对海量、实时的AI生成内容,审核的范畴不再局限于内容的最终呈现,除了政治性、科学性等传统维度外,算法本身的公正性、训练数据来源的合规性、生成逻辑的可解释性成为必须纳入考量的新标准;最后学生的数据安全和隐私保护的合规性审查,不再是事后保障措施,而已成为允许在思政教育中使用任何AI工具的强制性前提条件,这些都成为内容审核的现实挑战。
三、生成式AI在高校思政教育中的风险成因探析
算法黑箱与数据质量缺陷。生成式AI的核心算法具有高度复杂性与隐蔽性,算法的决策过程、数据处理逻辑都很难被我们完全理解和监控,导致对AI生成内容的价值导向难以精准预判,并且生成式AI的训练数据主要来自于包含大量良莠不齐信息的互联网,算法在优化过程中可能自主学习训练数据中的一些错误信息和观点,且难以通过外部干预及时修正,导致生成式AI在思政内容生成的精准性、科学性上存在不足,容易出现内容失真、价值偏差等问题。
教育主体数字素养不足与学生辨别能力欠缺。一方面是思政教师数字素养薄弱,部分思政教师缺乏系统的人工智能技术培训,对生成式AI的技术原理、应用边界、风险隐患认识不足,缺乏对AI生成内容的甄别、批判与优化能力,导致将错误内容引入课堂;另一方面,学生媒介素养与辨别能力不足,面对生成式AI生成的海量内容,学生难以辨别信息的真实性、权威性,容易被表面化、娱乐化的内容吸引,对错误信息的警惕性不足。
网络舆论复杂。目前网络空间的信息质量参差不齐,生成式AI的应用进一步加剧了信息传播的复杂性,AI生成的虚假信息和错误观点能够迅速传播,进而形成舆论热点。大学生处于价值观形成的关键时期,容易受到网络负面舆论的影响,给思政教育带来挑战。
四、生成式AI在高校思政教育中的风险防控机制构建
加强顶层设计,完善制度保障。高校应积极推动国家《生成式人工智能服务管理暂行办法》等法规制度的贯彻落实,制定完善高校相关管理制度文件,建立生成式AI教学应用负面清单,明确禁止使用场景和内容边界。
优化算法架构,筑牢安全防线。持续强化学习算法,提高AI内容生成过程中主动规避错误信息的能力。依托马克思主义学院、党史研究机构、红色教育基地等资源,整合优质思政教育数据,构建专属思政资源库,建立资源库动态更新与审核机制,定期筛选、清洗数据,剔除有害信息,及时更新思政教育资源与时政热点,为生成式AI的精准应用提供高质量数据支撑。建立信息安全应急处置机制,强化数据安全防护技术,实行信息数据分级分类管理。
提升数字素养,强化协同能力。加强师生数字素养培训,建立常态化培训机制,将生成式AI技术应用风险识别与防控作为思政教师培训内容,明确教师在人机协同育人中的主导地位,引导教师树立正确技术应用观念,合理运用技术提升教学质量。培养学生批判性思维与数字素养,引导学生正确认识生成式AI的技术特性与局限性。鼓励学生主动参与思政内容的创作与传播,提升学生主体性与价值建构能力。
强化舆论引导,构建协同治理格局。加强高校校园网络阵地建设,完善网络信息发布审核制度,实时监测网络舆情,及时回应学生关切,引导网络舆论朝着正确方向发展。开展校园网络文明建设活动,倡导学生自觉抵制错误虚假信息,营造积极向上、风清气正的校园网络环境。充分发挥生成式AI创新优势,通过构建沉浸式场景、互动式文本、多模态视频等形式,传承弘扬中华优秀传统文化、革命文化、社会主义先进文化。加强对时政热点的引导,帮助学生正确认识社会现象,增强辨别是非的能力。推动高校、政府、社会、家庭形成协同治理合力,共享防控经验与技术资源,形成全方位风险治理网络。
生成式AI带给高校思政教育的并非是单一的机遇或挑战,而是一个机遇与风险并存、亟待审慎驾驭的复杂变革。应对这些风险,必须超越对技术“用或不用”的简单争论,应转而寻求“何以善用”的智慧之道。高校思政教育在人工智能时代的使命,不仅是利用新技术提高教学效率,更是要在这场技术革命中,坚守立德树人初心,着力培养能够清醒认知技术本质、自主驾驭技术工具、在数字洪流中依然坚定信仰、具有深厚人文情怀的社会主义建设者和接班人。
(作者及单位:曹晓,西南财经大学西部商学院;逯畅,西南财经大学党委宣传部)