英国HEPI报告 学生使用生成式AI呈爆炸式增长 (全文译)

返回

时间 2025/03/19 12:00:00 访问量 6429

DEVELOPMENT TREND

全中文版本预览

编者导语

        生成式人工智能(GenAI)正以颠覆性姿态重构高等教育的实践逻辑。HEPI政策简报第61号《学生生成式AI使用调查报告2025》基于对千余名本科生的深度调研,揭示了三大核心趋势:技术普及的不可逆性、教育公平的复杂性、政策适配的紧迫性。数据显示,92%的学生将AI工具融入学习流程,88%直接用于评价任务,AI从“辅助手段”跃升为“基础设施”已成定局。然而,技术红利背后潜藏深层矛盾——18%的学生冒险使用未经任何修改的AI文本,53%因担忧学术不端而自我设限,折射出高校政策在“鼓励创新”与“防控风险”间的失衡。 

        研究进一步暴露结构性挑战:数字鸿沟因性别、学科与社会经济地位持续扩大。STEM学生与高收入群体占据技术使用前沿,而人文艺术学科与低收入学生面临“技能断层”;男生更热衷AI技能探索,女生则因风险感知更高而趋于保守。此类差异若未被系统性干预,或将加剧教育资源的阶层固化。与此同时,59%的学生承认评价体系因AI发生变革,但高校在“AI技能培训”(仅36%支持率)与“评价方式创新”上的滞后,凸显传统教育模式与技术迭代的脱节。 

        本报告的深远意义在于,它跳脱对AI“工具性价值”的简单讨论,直指高等教育转型的核心命题:如何在技术狂潮中守护学术伦理?如何将效率红利转化为普惠性创新?其提出的动态评价审查、教师素养强化、跨机构协作等建议,不仅为政策制定者提供行动框架,更警示教育者——AI时代的教育使命,绝非培养“工具依赖者”,而是塑造“技术驾驭者”。这份报告既是一面镜子,映照现状;更是一张蓝图,指向未来。

前言 / Foreword

简妮丝·凯 CBE 教授

Higher Futures 机构负责人

        很高兴向大家介绍这份 2025 年的研究报告,这是对 2024 年关于全日制本科生当前使用人工智能工具情况调查的又一次有益的重复。报告显示,过去一年中,人工智能工具的使用量大幅上升,这表明人工智能工具在学习和评价中被以多种方式使用。

        总体而言这是一个积极的信号:许多学生已经学会了更有效地、更合乎道德地使用工具,而且几乎没有证据表明有人滥用人工智能工具来作弊或钻空子。学生们看到了使用人工智能工具的一系列好处,从节省时间到以他们认为个性化的方式提高作业质量,尤其是在学习时间之外。

        然而,还是有很多迹象表明,这将给学习者、教师和高校带来严峻挑战,随着高等教育的变革,这些问题需要得到解决。关于在评价中使用人工智能的政策总体上是明确的,但与此同时,学生们对于可接受的人工智能使用方式并不确定,不到三分之一的学生表示其所在高校鼓励他们使用人工智能,近三分之一的学生则称所在高校禁止使用。一些学生反映,“(学校)在警告我们人工智能的潜在风险,但(教师)却在一些课程中积极将其作为创意工具加以运用”。

        学生们更想要后者。他们希望在课程中获得更多支持,以提升使用和管理人工智能工具的技能,而且他们也认为,虽然能为他们提供支持的教职员工比以前多了,但这种状况仍需大幅改善。研究中随处可见明显的数字鸿沟,无论是女生使用人工智能工具的频率更低且信心不足,还是经济条件更优越的人能够更轻松地获取优质产品。

        高等教育机构在以下方面仍存在不足:如何有效利用人工智能工具来支持学生的学习和参与,如何让学生更好地掌握技能,如何培训教职员工更深入地了解人工智能工具,以及如何避免人工智能使用方面的差距不断扩大和持续存在。我不仅希望您仔细研究此处提供的数据,还希望您花时间思考结论和政策建议。我期待着 2026 年报告中呈现的内容。

执行摘要 / Executive summary

        基于我们 2024 年的人工智能调查,我们通过 Savanta 对 1041 名全日制本科生进行了调查,了解他们对生成式人工智能(GenAI)工具的使用情况。

        2025 年,我们发现学生使用人工智能的情况在过去一年里大幅增加,如今几乎所有学生(92%)都在以某种形式使用人工智能,(而 2024 年这一比例为 66%),约 88%的学生曾使用生成式人工智能进行评估,(而 2024 年这一比例为 53%)。通用人工智能的主要用途是解释概念、总结文章和提出研究想法,但有相当一部分学生(18%)直接将人工智能生成的文本纳入了自己的作业中。

        当被问及为何使用人工智能时,学生们最常提到的是它能节省时间并提高作业质量。让他们不愿使用人工智能的主要因素是担心被指控学术不端以及害怕得到错误或有偏见的结果。女生比男生更担心这些因素,而男生在整个调查中对人工智能表现出更大的热情,经济条件较好的学生和理工科专业的学生也是如此。我们在 2024 年发现的数字鸿沟似乎进一步扩大了。

        各院校在维护评估公正性方面保持着良好的记录,80%的院校表示其有明确的人工智能政策,76%的院校称能够发现评价作业中使用了人工智能,这两个比例均较 2024 年的调查有所上升。然而,尽管绝大多数学生认为掌握良好的人工智能技能至关重要,但仅有 36%的学生表示所在院校为其提供了相关支持。希望院校提供人工智能工具的学生比例与认为院校已提供此类工具的学生比例之间的差距有所扩大。不过,教职工的素养有所提升,42%的学生认为教职工“有能力”帮助他们使用人工智能,而 2024 年这一比例仅为 18%。

        在 2025 年的新问题中,我们发现,不到一半(45%)的学生在校期间使用过人工智能,认为人工智能生成的内容能在其学科中获得好成绩的学生(40%)多于持反对意见的学生(34%)。但对于人工智能评估考试的可能性,学生们态度冷淡:34%的学生会更努力,29%的学生会更不努力,27%的学生努力程度不变。

        基于这些发现,我们建议各高校持续审查其评价实践,尤其是在人工智能变得更加强大且学生对人工智能工具的使用更加熟练的情况下,需要支持教职员工提高其人工智能素养。然而,各高校不应主要采取惩罚性的措施;相反,其人工智能政策应反映出学生使用人工智能是不可避免的,而且往往是有益的。各高校应分享最佳实践,并共同努力设计有效的教学和学习策略。

介绍 / Introduction

        这是高等教育政策研究所(HEPI)与 Kortext 联合开展的第二次人工智能学生使用情况调查。首次调查于 2024 年 2 月发布,是首次系统性地就学生使用人工智能(AI)工具辅助学习的情况进行的调查1。

        一年之后,这份政策简报旨在探究变化究竟有多大。英国政府近期公布了其《人工智能机遇行动计划》,旨在利用人工智能促进经济增长2。在教育领域,预计节省下来的时间将帮助教师“找回周日晚上的闲暇时光”3。高等教育工作者广泛采用人工智能,但担心学生过度依赖人工智能工具,从而削弱了批判性思维能力4。同时,与人工智能相关的学术不端行为案例大幅增加5。

        人工智能(AI)常被用来指代采用机器学习技术的软件,机器学习是计算机在没有明确编程的情况下进行学习的过程。我们关注学生使用的所有人工智能工具,但重点在于生成式人工智能(GenAI),它能够生成文本、图像、音频或视频内容。2022 年 11 月推出的 ChatGPT 是最知名的工具,如今已形成了一个丰富的生成式人工智能工具生态系统,其用途涵盖编程、获取教科书、创作音乐、语言翻译以及对书面作业提供反馈等。

        本政策说明旨在回答以下三个问题:

        1. 学生们是如何使用人工智能工具,尤其是生成式人工智能工具的?

        2. 他们对这些工具持什么态度?

        3. 他们如何评价其所在机构对这些工具更广泛可用性的应对措施?

方法 / Methodology

        为收集此次调查的数据,我们在 2024 年 12 月通过 Savanta 对 1041 名全日制本科生进行了问卷调查。为确保调查结果能代表更广泛的大学生群体,并与之前的调查具有可比性,我们根据性别、院校类型和年级等人口统计学特征对回复进行了加权处理。此次调查的误差幅度约为 3%。

        由于四舍五入,百分比之和可能不等于 100%。对部分自由文本回答进行了细微的语法修改,但未改变其原意。此处呈现的问题顺序与最初向学生提出的问题顺序不同。完整结果可在高等教育政策研究所(HEPI)网站上查看。

01

学生如何使用人工智能

        我们首先询问学生是否使用过人工智能工具以及如何使用。结果显示,各个领域报告使用人工智能的比例都有所上升。最引人注目的是,至少使用过一种人工智能工具的学生比例从 66% 跃升至 92%。使用诸如 ChatGPT 等工具生成文本的学生比例从不到三分之一(30%)猛增到近三分之二(64%),这已成为目前最受欢迎的人工智能用途。用于编辑作业的 Grammarly 工具和用于处理大学教材的 Kortext 工具则分别位居第二和第三受欢迎的用途。

        那些提到“其他东西”的人提到了微软的 Copilot(一款具有多种功能的通用人工智能工具),用人工智能为论文编纂参考文献,以及仅仅与之聊天——人工智能聊天机器人被吹捧为解决年轻人中普遍存在的孤独感的一种潜在方案。6

        在接下来的问题中,我们对生成式人工智能(“生成式人工智能工具根据提示生成文本、图像和其他内容。例如 ChatGPT、谷歌 Gemini 和微软 Copilot”)进行了定义,并询问学生是否在评价中使用过它。

        所有领域都出现了显著的增长。使用生成式人工智能进行评价的比例从 53% 跃升至 88%,几乎涵盖了所有学生。用于“解释概念”仍然是最受欢迎的功能,有 58% 的学生将其用于此目的,而 2024 年这一比例为 36%。使用人工智能总结文章的增幅最大,如今已成为生成式人工智能的第二大用途,而 2024 年时仅排在第三位。约有四分之一的学生使用人工智能生成的文本帮助他们起草评价报告,近五分之一(18%)的学生在评价报告中使用了人工智能生成和编辑的文本。总体而言,约 88% 的学生在某种程度上使用了生成式人工智能来帮助他们完成评价。

        使用人工智能仍存在基于社会经济阶层的数字鸿沟。来自较高社会经济阶层(A、B 和 C1)的学生更多地使用某些功能,包括总结文章、组织思路以及在评价中使用 AI 编辑的文本。相比之下,来自较低社会经济阶层(C2、D 和 E)的学生更有可能表示他们使用 AI 是并非出于以上原因。

        尽管生成式人工智能(GenAI)的使用有所增加,但人们对它的态度却更为复杂。在某些领域,学生对于使用人工智能的态度比 2024 年的调查时更为谨慎。认为经过编辑后在作业中使用人工智能生成的文本是可以接受的比例大幅上升,从 17% 增至 25%。

        我们可以将每种方式下承认使用通用人工智能的学生比例与认为这样做可以接受的学生比例进行比较。令人惊讶的是,在评价中直接使用人工智能生成文本的学生比例高于认为这样做可以接受的学生比例——这表明有一小部分学生在使用时并不确信自己在做正确的事。

        这些人工智能的用途中没有一项获得超过三分之二的支持率,这表明对于可接受的人工智能使用方式,人们仍存在重大质疑和不确定性。

        我们还就学生对人工智能的使用情况以及总体态度提出了其他几个问题。认为自己在学校有使用人工智能经验的学生略多于持相反意见的学生(分别为 45% 和 41%)。同样,认为人工智能生成的内容在自己所学的科目中能获得高分的学生也多于持相反意见的学生(分别为 40% 和 34%)。但仅有 29% 的学生表示所在学校鼓励他们使用人工智能,而持相反意见的学生占 40%。

        健康与科学、科技、工程和数学(STEM)是学生认为人工智能表现最佳的学科领域。而那些学习定量分析较少的学科,尤其是艺术和人文学科的学生,则对人工智能能否表现出色持怀疑态度。同样,有过在学校使用人工智能经历的学生主要是 STEM 学科(科学、技术、工程和数学)专业的学生,其次是健康相关课程的学生。与 2024 年的调查结果一致,使用人工智能方面也存在明显的性别差异,男生在学校使用过人工智能的可能性比女生高出约 14 个百分点。另外,我们还研究了哪些类型的院校“鼓励”学生使用人工智能。尽管罗素大学集团于 2023 年发布了广受关注的关于在教育中使用生成式人工智能工具的原则,但在罗素大学集团的大学就读的学生中,感觉受到“鼓励”使用人工智能的比例略低于 1992 年及以后成为大学的院校(“后 92 大学”)的学生。7

02

对生成式人工智能的态度

        在 2025 年的调查中新增的两个问题中,我们询问了学生使用生成式人工智能工具的促进因素和阻碍因素。调查结果证实了我们在 2024 年高等教育政策研究所(HEPI)/英国高等教育学会(Advance HE)学生学术体验调查中的发现,即许多学生使用人工智能是为了节省时间。8 有相似数量的学生使用人工智能来提高作业质量,尤其是年轻学生。

        男生使用人工智能往往是为了提升自己的人工智能技能或帮助自己学习更多知识。女生则更倾向于利用人工智能在传统学习时间之外获取支持。这种差异部分是由男生和女生在课程选择上的不同造成的:男生更有可能学习计算机等 STEM 学科,在这些学科中人工智能将发挥更大的作用。

        将学生拒用人工智能的因素(每个因素都有超过半数的学生选择)归纳如下:担心被指控作弊、得到错误结果或“幻觉”(虚构的事实、统计数据和引用)。近三分之一(31%)的学生表示,他们的学校禁止使用人工智能或不鼓励使用。很少有学生因生成式人工智能的高环境影响或未经作者同意使用数据的问题而却步。9

        女生对使用人工智能的担忧往往比男性更甚。女生明显更担心被指控作弊以及人工智能的“幻觉”,年轻学生也是如此。女生还更有可能表示其所在机构禁止或不鼓励使用人工智能,这也可能反映出她们所选课程的不同。

        与 2024 年的调查一样,我们对幻觉进行了定义,并询问了学生们的相关经历。和以往一样,大多数学生回答得比较谨慎,39% 的学生表示“很少”,30% 的学生表示“经常”。但这里最显著的变化是回答“不知道”的比例从 35% 降至 2025 年版的 12%。这表明学生们现在对所使用的 AI 工具以及这些工具生成内容的可靠性有了更深入的了解。

03

评价

        在 2024 年的调查中,我们询问学生,人工智能工具的更广泛使用是否导致其所在院校的评价方式发生变化。仅有三分之一(32%)的学生表示有变化,其中 23% 的学生认为变化“不大”。同样,在今年的调查中,我们询问学生是否认同评价方式发生了很大变化。约 59%,即五分之三的学生表示认同,这表明在短短 12 个月内,评价方式发生了很大的转变。

        2024 年,我们惊讶地发现,在 ChatGPT 推出仅一年后,大多数学生认为他们所在的高校对生成式人工智能和评价有“明确”的政策。各高校一直在完善其政策,如今绝大多数(80%)的高校都认同其政策清晰明了。

        我们在 2024 年的调查中指出,用于检测评价中是否使用了人工智能的工具不可靠,且常常出现误报。尽管如此,学生们比去年更加确信其所在高校能够判断出评价中是否使用了人工智能,有四分之三(76%)的学生认为其所在高校能够发现,而认为高校无法发现的比例仅为 20%。去年,认为所在高校能够发现的比例为 65%,认为无法发现的比例为 22%。

        有人提出,人工智能可以参与评价打分,要么作为唯一的评分者,要么辅助人类考官10。我们询问了学生,如果这种情况发生,是否会影响他们学习的投入程度。这个问题的答案分歧很大。略多于三分之一(34%)的学生表示他们会更努力,但也有相当多的学生表示会投入更少(29%)或与现在相同(27%)的努力。罗素大学集团院校的学生最有可能表示,对于人工智能评分者,他们会付出更少的努力。

03

人工智能技能

        除了人工智能对评价的影响之外,还存在关于高等教育机构在多大程度上能够且应当支持学生培养人工智能技能的争论。

        图 15 显示,绝大多数学生认为人工智能技能,即管理及使用人工智能工具所需的知识和能力,至关重要。约三分之二的学生(67%)认为,在当今世界,理解并有效使用人工智能是必不可少的,各学科领域的多数学生也持此观点。然而,仅有 36% 的学生认为他们所在院校为其提供了人工智能技能方面的支持。

        高校可以通过提供人工智能工具(例如 GitHub Copilot 的专业版,这是一款用于编程的人工智能工具,或者 Kortext study+)来帮助学生提升人工智能技能。在 2024 年的调查中,我曾指出,提供此类工具或许有助于缩小那些能够负担得起(或负担得起付费版)的学生与那些负担不起的学生之间的数字鸿沟。如今,约有 53%的学生认为高校应当提供人工智能工具,这一比例较去年的 30%有所上升。仅有四分之一(26%)的学生表示其所在高校目前提供了此类工具,而去年这一比例仅为 9%。

        当被问及所在机构提供的工具时,排在首位的回答无疑是 ChatGPT。目前尚不清楚学生们指的是机构付费购买了其高级版,还是指免费版,抑或是把这个问题与是否允许使用搞混了。排在第二位的是微软的 Copilot 工具,该工具现在将随许多机构订阅的微软 Office 一同提供。此外,还有人提到了 Grammarly(一款语法和拼写检查工具)以及 Turnitin(它有一个检测 AI 使用的工具,不过 AI 检测器一直存在“误报”的问题,即把人类撰写的内容误判为 AI 生成的),许多学生会用 Turnitin 提交作业11。其他被提及的工具还有谷歌 Gemini、Adobe AI 助手以及一些高等教育机构自行开发的大语言模型。

        在过去的一年里,员工的数字素养也有所提高。在 2024 年的调查中,仅有 18%的学生认为员工有能力支持他们使用生成式人工智能。而在 2025 年,这一比例已跃升至 42%。

03

书面回答

        在最后一道题中,我们询问学生总体而言是否对所在院校在人工智能方面的做法感到满意。我们以开放式文本的形式收集了这些回答。学生们倾向于讨论所在院校的政策,或者人工智能工具的优缺点。当他们对院校持积极态度时,他们往往会说政策清晰,并且他们已学会如何有效地使用人工智能工具。

        我们已经被告知了人工智能使用的界限。

        我喜欢这所大学给予我的支持,尤其是教我如何合乎道德地使用人工智能。

        他们不仅在提醒我们人工智能可能带来的风险,而且还积极地将人工智能作为一种创意工具融入到他们的一些模块中。

        我觉得他们明白人工智能的影响有多大,对它也足够支持,但又不至于让我们完全依赖它来工作。我们仍然得努力工作。

        学生们对所在高校提出批评时,往往指责高校对人工智能缺乏支持或存在抵制态度。

        我们所被告知的只是不要使用它。

        我还没真正学会如何有效地使用人工智能,以免被人指责。我主要是害怕使用它。

        只是禁止使用而不了解大多数学生如何使用它,也不提供有关人工智能素养的资源,这更有可能导致在评估情境中对人工智能的不当和低效使用。

        目前对于它何时能投入使用以及为何使用,一切都还很模糊,悬而未决。似乎在没有认识到它将成为我们工作生活不可或缺的一部分的情况下,就对其持否定态度。

        关于高校在人工智能方面的立场,没有太多的教育宣传/明确阐述,尤其是考虑到我在技术部门工作。

        他们对这个话题避而不谈。这种做法虽未被明令禁止,但也不被提倡,如果学生使用会被视为学术不端,但老师们却告诉我们他们自己也会用。这真是让人困惑不已。

        他们没有充分考虑到人工智能在不同学科中的应用差异,导致了一刀切的政策,限制了我们的学习。

        我的学校对于使用人工智能还没有明确的政策,但他们说这属于学术不端行为,但校园里也有鼓励使用人工智能的海报,所以这让我很困惑——我搞不清楚到底能不能用。

        其他人则心情复杂:

        我对员工在使用某些类型的 AI 方面提供的支持感到满意。但我认为大学应该为这些服务提供订阅服务,以便让所有人都能更方便地使用。

        我喜欢用人工智能来完成作业,因为它让生活变得更轻松,不过我确实害怕被发现。

        其他回应则着重强调了他们所认为的人工智能在更广泛层面上的好处:

        人工智能的一个好处是输出速度更快,这对我这个学生帮助很大。我现在能更快地产生想法,用更少的时间完成工作。

        它有助于我更快地分解文章,提取相关信息,使我的研究更高效。

        因为此后的工作效率简直高得惊人。太出色了。

        其他人对人工智能的使用提出了质疑:

        这会彻底毁掉实际工作应有的样子。

        对于在教育中使用人工智能仍犹豫不决。感觉像是在作弊。

        我觉得人工智能挺好的,但就是直接给我答案。

结论与政策建议

Conclusion and policy recommendations

        这份政策简报证实了许多讲师和教师早已心知肚明的事实:在高等教育领域广泛使用生成式人工智能的时代不仅不可避免,而且已经到来。短短两年间,生成式人工智能工具已得到广泛应用。学生们对人工智能有了更深入的了解,也更清楚其可信度的边界。教学人员对生成式人工智能及其处理方式也有了更深入的认识,同时各院校也在采用更清晰、更公平的流程来管理它。我提出以下四点进一步的结论:

        1. 总体而言,高等教育机构对人工智能在教学中的应用仍持怀疑态度,而非积极支持。至少目前来看,各高校似乎更担心作弊问题,而非支持学生培养人工智能技能。因此,保障评价安全的努力要领先于提升学生人工智能素养的努力。学生们希望获得更多的工具以及更多使用这些工具的帮助,而目前他们得到的还远远不够。

        2. 学生们喜欢人工智能,因为它能为他们节省时间,而且他们觉得这能提高自己的作业质量,但很多人却因担心被指责为作弊而却步。

        3. 在人工智能能力方面存在着持续的数字鸿沟,这不仅体现在性别差异上(男生使用频率更高)和社会经济群体差异上(更有利于富裕家庭的学生),还体现在学科差异上:艺术和人文专业的学生对人工智能工具的熟悉程度和使用意愿远低于理工科学生。

        4. 人工智能使用的伦理规范仍在不断变化之中。学生们对于人工智能的合法用途存在很大分歧,尤其是在评价中使用人工智能生成的文本这一问题上。

        因此,我建议如下:

        1. 每所院校都应持续审视其所有评价及相关程序,以跟上人工智能工具日益强大的步伐以及学生使用这些工具的能力。每项评价都应使用最强大的公开可用人工智能工具(如付费版的 ChatGPT)进行压力测试。对于那些只要具备良好的人工智能技能就能轻松取得高分,但无需深入学习课程内容的考试,应立即重新编写。对于那些问题可预测(因而能提前用人工智能工具准备)的闭卷考试也不能例外。

        2. 上述观点要求参与考试设置的每位工作人员都应深入理解人工智能工具。机构应提供有关人工智能工具和稳健评估设计的持续培训。工作人员应熟悉人工智能工具并经常使用。

        3. 高校应采取细致入微的政策,承认学生使用人工智能是不可避免的,而且往往是有益的。如果高校的评价体系足够严谨,就不必担心向学生传授负责任地使用人工智能的知识,因为这确实有助于学习和提高效率。如果高校不积极教授人工智能,可能会加剧那些愿意尝试人工智能工具的学生与那些过于胆怯或缺乏数字技能而不敢尝试的学生之间的数字鸿沟。此外,这还可能导致学生无法深入理解与人工智能工具相关的偏见、幻觉、环境影响以及学生个人数据使用等问题。

        4. 随着人工智能技术能力的不断发展,机构应当持续审查其人工智能政策。

        5. 为实现上述目标,各高校应寻求合作机会。单靠任何一家高校都无法迈出适应人工智能所需的巨大步伐。使命团体和英国大学协会应当分享最佳实践,并为各高校搭建合作平台,共同解决相互面临的问题。

尾注

        1 Josh Freeman, Provide or punish? Students’ views on generative AI in higher education, HEPI Policy Note 51, February 2024 https://www.hepi.

        ac.uk/2024/02/01/provide-or-punish-students-views-on-generative-ai-in-higher-education/

        2 Department for Science, Innovation and Technology, AI Opportunities Action Plan: government response, Gov.uk, 13 January 2025 https://

        www.gov.uk/government/publications/ai-opportunities-action-plan-government-response/ai-opportunities-action-plan-government

        response

        3 Liv McMahon et al, ‘PM plans to ‘unleash AI’ across UK to boost growth’, BBC News, 12 January 2025 https://www.bbc.co.uk/news/articles/

        crr05jykzkxo

        4 Juliette Rowsell, “Academics ‘fear students becoming too reliant on AI tools’”, Times Higher Education, 17 January 2025 https://www.

        timeshighereducation.com/news/academics-fear-students-becoming-too-reliant-ai-tools

        5 Jack Grove, ‘Student AI cheating cases soar at UK universities’, Times Higher Education, 1 November 2024 https://www.timeshighereducation.

        com/news/student-ai-cheating-cases-soar-uk-universities

        6 The University of Law, Lonely millennials choose AI over a loved one to share their problems, 2 November 2023 https://www.law.ac.uk/about/

        press-releases/millennials-share-problems-with-ai/

        7 Russell Group, New principles on use of AI in education, July 2023 https://russellgroup.ac.uk/news/new-principles-on-use-of-ai-in-education/

        8 Jonathan Neves et al, HEPI / Advance HE Student Academic Experience Survey 2024, June 2024 https://www.hepi.ac.uk/2024/06/13/student  academic-experience-survey-2024/

        9 Pranshu Verma and Shelly Tan, ‘A bottle of water per email: the hidden environmental costs of using AI chatbots’, Washington Post, 18

        September 2024 https://www.washingtonpost.com/technology/2024/09/18/energy-ai-use-electricity-water-data-centers/

        Gil Appel et al, ‘Generative AI Has an Intellectual Property Problem’, Harvard Business Review, 7 April 2023 https://hbr.org/2023/04/

        generative-ai-has-an-intellectual-property-problem

        10 Rohim Mohammed, ‘Will AI revolutionise marking?’, Times Higher Education, 13 January 2025 

        https://www.timeshighereducation.com/  campus/will-ai-revolutionise-marking

        11 Debora Weber-Wulff et al, ‘Testing of detection tools for AI-generated text’, International Journal for Educational Integrity, Volume 19, Issue 1, June 2023 https://arxiv.org/abs/2306.15666

        免责声明:文章翻译初稿由机器翻译获得,人工进行核对校正,仅供用于交流学习,禁止商用

原文获取:HEPI-Policy-Note-61-2.pdf

翻译 编辑  |  王芷涵

一审  |  邓鹏兵

二审  |  聂晓霞

三审  |  金一粟