新的大学指南称学生可以使用人工智能

新的大学指南称学生可以使用人工智能

新的指导方针在很大程度上反映了该大学之前对人工智能的立场,此前负责教育的副校长在 2023 年告诉 Varsity,ChatGPT 不应被禁止Ryan Teh 代表大学

剑桥大学为学生和教职员工发布了关于使用生成式人工智能(GenAI)的新指南,其中规定学生可以在个人工作中使用人工智能。

虽然指出人工智能可能“提供有用的回应”,但该指南概述了一套使用生成式人工智能的一般原则,以最好地减轻与其使用相关的“合法道德问题”。

此外,它承认大学的研究种类繁多,这意味着“适当的使用由院系、学院或学院根据具体情况更好地定义”。

新发布的指南指出:“学生可以适当使用 GenAI 工具来支持他们的个人学习、研究和形成性工作。”然而,它建议学生在人工智能对工作的大部分未改变的部分做出贡献时应该承认人工智能的使用。

个人应“始终与工作人员核实”或“与大学相关领域核实具体使用指南”。对于员工来说,它的内容类似:“员工可以适当使用 GenAI 工具来支持自己的工作”。

负责教育的副校长表示,新的指导方针在很大程度上反映了该大学之前对人工智能的立场 校队 到 2023 年,ChatGPT 不应被禁止,因为“我们必须认识到这是一个可用的新工具”。

在概述的使用原则中,大学强调 GenAI 使用的数据和信息没有得到充分引用,因此可能导致“不准确”和“难以引用有效证据”。

人工智能可能会利用包含“社会偏见和刻板印象”的数据,而且使用人工智能还存在潜在的隐私危险,因为这些工具可能会利用或存储个人自己的信息。它建议个人“不要分享任何个人或敏感内容”。

该指南还指出了 GenAI 的“严重环境影响”,指出其大量用电和用水,并建议学生谨慎长期使用该工具。学生应仅“在必要时使用该工具,并尽可能有效地减轻这些影响”。

更详细的指导意见提醒学生注意 2023 年发布的抄袭和学术不端行为指南中的声明,即“在总结性评估中使用人工智能生成的任何未确认的内容,就好像这是他们自己的作品一样,构成学术不端行为”,除非评估简报另有明确说明。

与此同时,审查员可以使用人工智能“处理和制定他们自己的评论和反馈”,例如用它来巩固他们的笔记和改写评论。但是,他们在任何情况下都不得向 GenAI 提交学生作业,也不得使用这些工具分析学生作业或提供反馈。

作为对新指南的回应,剑桥气候协会告诉 校队”,“我们担心大学正在做出类似的尝试,将环境行动的责任转移给学生和教职员工,同时忽视自己在开发和资助对环境和社会有害的技术方面的作用”。

他们补充道:“我们赞赏大学管理部门意识到人工智能的广泛使用可能产生的严重环境和社会影响,我们广泛支持纳入旨在阻止低效使用实践的建议。也就是说,当前的框架延续了可持续发展是个人负担的说法,这是碳专业人士用来取代其责任的说法。”

今年早些时候,一 校队 调查发现,超过 60% 的学生在工作中使用了 ChatGPT,比 2023 年增加了 14%。

在此之前,2023/24 年首次引入了学术不端行为的“人工智能”类别,审查员报告了三起与人工智能相关的学术不端行为案件。

此前,该大学于今年早些时候推出了“人工智能诊所”,以帮助学者和学生有效利用人工智能进行研究,并声称这些工具可以帮助实现“新一波科学发现”。

Měilíng Lǐ
关于