新闻聚焦
发布时间:2025-06-17 资料来源: 《思想政治工作研究》 点击次数:66
当前,生成式人工智能(生成式AI)日新月异,从ChatGPT到我国自主研发的DeepSeek,模型精细化程度越来越高,迭代速度越来越快,在高校思政工作领域的应用已从工具性辅助层面迈向系统性变革新阶段。生成式AI的应用推广给高校思政工作带来了机遇挑战:一方面,生成式AI为高校思政工作注入新的活力;另一方面,其潜在的数据风险与价值偏差可能误导学生的价值观。高校必须坚持底线思维,在防范风险的同时充分挖掘和发挥生成式AI的技术优势,建立完善的风险防控与伦理治理体系。
生成式人工智能激发高校思政工作活力
数字化浪潮下,生成式AI打破了传统思政教育的诸多局限,在资源供给、过程管理、场景拓展方面推动着高校思政工作的系统性变革,深刻重塑着高校思政工作格局。
重构教育资源供给模式。生成式AI依赖海量数据进行模型训练和内容生成,可快速产出贴合需求的智慧教育内容,加大了教育资源供给的速度、广度和深度。如北方工业大学开发的“计算思政智能体”,可以自动生成与课程知识点关联的思政元素,提升“课程思政”的时效性。能够进行跨文化叙事,将“人类命运共同体”理念转化为契合不同文化语境的表达,提升国际传播效能。跨文化叙事的模拟还能为学生展现同一概念体系在不同文化、社会环境下产生的社会反响。
优化精准思政实现路径。生成式AI可以通过分析数据、对话为学生“画像”,精准识别学生需求、精准供给教育内容、精准评估育人效果,优化思政工作开展路径。建立学习诊断引擎,通过对话分析识别学生的认知偏差,假设学生对马克思主义基本原理相关知识点有误解,就可以根据其认知偏差实时推送有针对性、趣味性的学习资源,及时纠偏,甚至可以识别潜在的价值观偏差并实时推送干预内容,进行预警。深化情感计算应用,动态监测学生心理状态,对焦虑、抑郁倾向等进行预警,根据学生的实际情况实施符合其自身特点的干预。构建自适应的教学路径,根据学生专业、年级、兴趣、能力差异,为不同班级设计个性化的思政课教学方案,也可以帮助不同学生制订差异化的学习计划。
拓展思政教育时空边界。生成式AI与虚拟现实(VR)、增强现实(AR)技术的融合,突破了传统课堂的时空局限,拓展了教育场景的边界。建立跨时空对话系统,如今基于人物传记数据构建的“历史人物数字人”,可实现与学生的智能交互,让学生在对话、握手等富有真实感的互动中加深对人物、事件的理解。建立红色教育元宇宙,打造“重走长征路”等数字场景,激活学生在虚拟现实中的情感体验,强化理想信念。进行社会思潮模拟实验,构建虚拟的网络环境和舆情事件,设定事件背景、人物角色、初始舆论观点分布等,让学生在模拟挑战中提升应对能力。
生成式人工智能对高校思政工作的挑战
生成式AI的深度融入为高校思政工作带来机遇,也对传统思政工作模式提出信息安全、价值导向、人机关系层面的风险挑战,亟待高校思政工作者深入研究。
形成信息安全隐患。生成式AI在信息采集和处理时,可能会在不经意间突破边界采集到敏感信息,形成信息安全隐患。一方面,高校思政工作涉及大量的敏感个人信息和思想动态等数据,若数据采集、存储或使用不当,或集中存储在云端的学生信息遭遇黑客攻击,极有可能引发隐私泄露风险。另一方面,学生普遍对数据风险认知不足,缺乏对个人隐私信息的保护意识,为获得更精准的AI反馈,他们可能在对话中透露家庭背景、心理健康状况、个人身份、住址等敏感信息,进行过度自我披露。
存在价值导向风险。生成式AI本身是一种不具备价值判断的语言模型,各类意识形态的信息都有可能成为数据库海量参数和训练数据的一部分,高校思政工作也要警惕生成式AI介入后可能引发的意识形态风险。国际主流生成式AI模型(如ChatGPT)的训练数据以英文为主,在回答政治类问题时倾向于采用西方话语体系,其生成的文本有可能与社会主义核心价值观形成隐性冲突;若基础数据中掺杂着历史虚无主义等错误导向信息,生成式AI在处理和生成新信息时就会传递不良价值导向,干扰学生对历史事实、社会发展规律的正确认知。
加剧人机关系异化。人机关系异化就是在人与机器的互动中,技术逐渐脱离人的控制、反客为主,导致人类在认知、情感、社会关系等方面出现疏离或扭曲的现象。生成式AI融入高校思政重构了传统的人机关系,正在改变教育主体的认知习惯与互动模式,可能会削弱师生的主体地位。师生如果过度依赖AI生成内容,放弃对复杂问题的辩证思考,便会逐渐丧失独立思考能力,影响自身专业创新能力的提升。人机关系异化还表现为师生情感联结弱化,虚拟化身、数字教师等技术的普及,可能会削弱传统课堂中的眼神交流、肢体语言等情感传递;学生也许可以拥有24小时在线的“AI辅导员”,但少了真实可感的表情、动作的反馈,程式化的回应也会让学生产生“被敷衍”感。
风险防控与伦理治理体系的构建
面对生成式AI带来的机遇和挑战,为实现趋利避害,在有效防范风险的同时充分释放技术潜能推动工作创新,需要以底线思维建立风险防控与伦理治理体系。
建立“红蓝对抗”审核机制。“红蓝对抗”机制是通过模拟真实攻击与防御场景,评估和提升组织安全能力的一种系统性方法。在防范意识形态和价值导向偏差风险过程中,高校可将生成式AI的风险抵御能力从被动响应升级为主动防御,在技术应用中筑牢意识形态安全底线。要做好内容安全审核,使用党的创新理论训练判别模型,对AI生成内容进行意识形态审查,并由人工协同纠偏,对高风险内容设置人工复审机制,建立“AI初筛+专家终审”的混合审核流程。还要实现算法透明化,要求模型展示推理逻辑,检验其决策是否符合主流价值观;着眼于本土化模型的开发与应用设计“思政逻辑层”,将思想政治教育的相关理念、目标等,通过一定的逻辑架构和算法设计融入AI系统中,促进AI在与人的交互中主动进行价值引领。
完善数据治理制度。如果说“红蓝对抗”机制是战略上的考量,那数据治理就是战术上的应对,要构建“技术可控、风险可溯、责任可究”的数据治理体系。一方面,强化数据分级管理,建立智能数据中台,根据数据敏感度与使用场景,针对公开数据、内部数据、敏感数据等分级制定管理标准,并结合舆情动态调整分级标签;从采集、存储各个环节进行数据的全生命周期管控,必要情况下要设定自动删除规则。另一方面,组建跨学科伦理委员会,包括法学领域的资深专家、数据安全保障的工程师、深耕思政教育一线的教师、来自不同年级和专业的学生代表以及伦理学领域的权威学者,共同对智能推荐系统的算法逻辑进行审查,明确数据使用的边界与责任。
提升教育主体的数字素养。风险防范最终要依靠人,依靠教育主体,要双管齐下促进师生数字素养的提升。促进教师从AI工具应用能力到价值引领能力的提升,教师通过实操工作坊掌握智能备课、课堂互动设计及学情分析的方法,推动教学模式创新,避免陷入技术依赖;强化教师的技术伦理意识,以案例教学训练教师辨识生成内容的意识形态风险,明确工具使用边界。培养学生批判性思维,开设相关通识课揭示AI生成内容的随机性与偏见来源,帮助学生技术祛魅;在思政课堂引入“人机辩论”模式,引导学生在对抗性思辨中强化自主思考的意识。
发布日期:2025.06.17 浏览次数:
当前,生成式人工智能(生成式AI)日新月异,从ChatGPT到我国自主研发的DeepSeek,模型精细化程度越来越高,迭代速度越来越快,在高校思政工作领域的应用已从工具性辅助层面迈向系统性变革新阶段。生成式AI的应用推广给高校思政工作带来了机遇挑战:一方面,生成式AI为高校思政工作注入新的活力;另一方面,其潜在的数据风险与价值偏差可能误导学生的价值观。高校必须坚持底线思维,在防范风险的同时充分挖掘和发挥生成式AI的技术优势,建立完善的风险防控与伦理治理体系。
生成式人工智能激发高校思政工作活力
数字化浪潮下,生成式AI打破了传统思政教育的诸多局限,在资源供给、过程管理、场景拓展方面推动着高校思政工作的系统性变革,深刻重塑着高校思政工作格局。
重构教育资源供给模式。生成式AI依赖海量数据进行模型训练和内容生成,可快速产出贴合需求的智慧教育内容,加大了教育资源供给的速度、广度和深度。如北方工业大学开发的“计算思政智能体”,可以自动生成与课程知识点关联的思政元素,提升“课程思政”的时效性。能够进行跨文化叙事,将“人类命运共同体”理念转化为契合不同文化语境的表达,提升国际传播效能。跨文化叙事的模拟还能为学生展现同一概念体系在不同文化、社会环境下产生的社会反响。
优化精准思政实现路径。生成式AI可以通过分析数据、对话为学生“画像”,精准识别学生需求、精准供给教育内容、精准评估育人效果,优化思政工作开展路径。建立学习诊断引擎,通过对话分析识别学生的认知偏差,假设学生对马克思主义基本原理相关知识点有误解,就可以根据其认知偏差实时推送有针对性、趣味性的学习资源,及时纠偏,甚至可以识别潜在的价值观偏差并实时推送干预内容,进行预警。深化情感计算应用,动态监测学生心理状态,对焦虑、抑郁倾向等进行预警,根据学生的实际情况实施符合其自身特点的干预。构建自适应的教学路径,根据学生专业、年级、兴趣、能力差异,为不同班级设计个性化的思政课教学方案,也可以帮助不同学生制订差异化的学习计划。
拓展思政教育时空边界。生成式AI与虚拟现实(VR)、增强现实(AR)技术的融合,突破了传统课堂的时空局限,拓展了教育场景的边界。建立跨时空对话系统,如今基于人物传记数据构建的“历史人物数字人”,可实现与学生的智能交互,让学生在对话、握手等富有真实感的互动中加深对人物、事件的理解。建立红色教育元宇宙,打造“重走长征路”等数字场景,激活学生在虚拟现实中的情感体验,强化理想信念。进行社会思潮模拟实验,构建虚拟的网络环境和舆情事件,设定事件背景、人物角色、初始舆论观点分布等,让学生在模拟挑战中提升应对能力。
生成式人工智能对高校思政工作的挑战
生成式AI的深度融入为高校思政工作带来机遇,也对传统思政工作模式提出信息安全、价值导向、人机关系层面的风险挑战,亟待高校思政工作者深入研究。
形成信息安全隐患。生成式AI在信息采集和处理时,可能会在不经意间突破边界采集到敏感信息,形成信息安全隐患。一方面,高校思政工作涉及大量的敏感个人信息和思想动态等数据,若数据采集、存储或使用不当,或集中存储在云端的学生信息遭遇黑客攻击,极有可能引发隐私泄露风险。另一方面,学生普遍对数据风险认知不足,缺乏对个人隐私信息的保护意识,为获得更精准的AI反馈,他们可能在对话中透露家庭背景、心理健康状况、个人身份、住址等敏感信息,进行过度自我披露。
存在价值导向风险。生成式AI本身是一种不具备价值判断的语言模型,各类意识形态的信息都有可能成为数据库海量参数和训练数据的一部分,高校思政工作也要警惕生成式AI介入后可能引发的意识形态风险。国际主流生成式AI模型(如ChatGPT)的训练数据以英文为主,在回答政治类问题时倾向于采用西方话语体系,其生成的文本有可能与社会主义核心价值观形成隐性冲突;若基础数据中掺杂着历史虚无主义等错误导向信息,生成式AI在处理和生成新信息时就会传递不良价值导向,干扰学生对历史事实、社会发展规律的正确认知。
加剧人机关系异化。人机关系异化就是在人与机器的互动中,技术逐渐脱离人的控制、反客为主,导致人类在认知、情感、社会关系等方面出现疏离或扭曲的现象。生成式AI融入高校思政重构了传统的人机关系,正在改变教育主体的认知习惯与互动模式,可能会削弱师生的主体地位。师生如果过度依赖AI生成内容,放弃对复杂问题的辩证思考,便会逐渐丧失独立思考能力,影响自身专业创新能力的提升。人机关系异化还表现为师生情感联结弱化,虚拟化身、数字教师等技术的普及,可能会削弱传统课堂中的眼神交流、肢体语言等情感传递;学生也许可以拥有24小时在线的“AI辅导员”,但少了真实可感的表情、动作的反馈,程式化的回应也会让学生产生“被敷衍”感。
风险防控与伦理治理体系的构建
面对生成式AI带来的机遇和挑战,为实现趋利避害,在有效防范风险的同时充分释放技术潜能推动工作创新,需要以底线思维建立风险防控与伦理治理体系。
建立“红蓝对抗”审核机制。“红蓝对抗”机制是通过模拟真实攻击与防御场景,评估和提升组织安全能力的一种系统性方法。在防范意识形态和价值导向偏差风险过程中,高校可将生成式AI的风险抵御能力从被动响应升级为主动防御,在技术应用中筑牢意识形态安全底线。要做好内容安全审核,使用党的创新理论训练判别模型,对AI生成内容进行意识形态审查,并由人工协同纠偏,对高风险内容设置人工复审机制,建立“AI初筛+专家终审”的混合审核流程。还要实现算法透明化,要求模型展示推理逻辑,检验其决策是否符合主流价值观;着眼于本土化模型的开发与应用设计“思政逻辑层”,将思想政治教育的相关理念、目标等,通过一定的逻辑架构和算法设计融入AI系统中,促进AI在与人的交互中主动进行价值引领。
完善数据治理制度。如果说“红蓝对抗”机制是战略上的考量,那数据治理就是战术上的应对,要构建“技术可控、风险可溯、责任可究”的数据治理体系。一方面,强化数据分级管理,建立智能数据中台,根据数据敏感度与使用场景,针对公开数据、内部数据、敏感数据等分级制定管理标准,并结合舆情动态调整分级标签;从采集、存储各个环节进行数据的全生命周期管控,必要情况下要设定自动删除规则。另一方面,组建跨学科伦理委员会,包括法学领域的资深专家、数据安全保障的工程师、深耕思政教育一线的教师、来自不同年级和专业的学生代表以及伦理学领域的权威学者,共同对智能推荐系统的算法逻辑进行审查,明确数据使用的边界与责任。
提升教育主体的数字素养。风险防范最终要依靠人,依靠教育主体,要双管齐下促进师生数字素养的提升。促进教师从AI工具应用能力到价值引领能力的提升,教师通过实操工作坊掌握智能备课、课堂互动设计及学情分析的方法,推动教学模式创新,避免陷入技术依赖;强化教师的技术伦理意识,以案例教学训练教师辨识生成内容的意识形态风险,明确工具使用边界。培养学生批判性思维,开设相关通识课揭示AI生成内容的随机性与偏见来源,帮助学生技术祛魅;在思政课堂引入“人机辩论”模式,引导学生在对抗性思辨中强化自主思考的意识。