大学在案件中增加了学术不当行为的“ AI”类别

大学在案件中增加了学术不当行为的“ AI”类别

根据修订的规则,所有学术不当行为案件必须报告给OSCCA,包括在部门内解决的不当行为Louis Ashworth/Graph+SAS/Wikimedia Commons https://creativecommons.org/licenses/by-sa/4.0/deed.en

信息自由请求揭示,剑桥记录了其第一个涉及人工智能(AI)的学术不当行为案件。

在2023年11月25日至2024年11月24日之间,考官将49例考试作弊案件转交给了该大学中央纪律机构的学生行为,投诉和上诉办公室(OSCCA)。其中,三个与AI相关 – 第一次将这种情况正式记录在正式中。

数据还显示了近年来总体学术不当行为案件的增加。在2019年至2023年之间,维持案件的数量每年为四到19个。但是,在2023年10月对学生学科程序进行了更改之后,该数字在2024年跃升至33。

根据修订后的规则,必须将所有学术不当行为案件报告给OSCCA,包括在部门内解决的情况。以前,只有需要进行正式调查的案件被集中报告,导致记录事件的增加。

在评估中,这些与AI相关作弊的新案例引起了人们对使用诸如Chatgpt之类的生成AI模型的越来越担忧。去年,人类,社会和政治科学(HSP)宣布手写考试将取代对第一年和二年级社会学和人类学学生的在线评估,理由是AI在考试中的使用量增加。

HSPS Tripos管理委员会主席安德鲁·桑切斯(Andrew Sanchez)博士评论说:“这一决定回应了对在线考试中使用AI的担忧,并在上一学年的HSPS教师和Tripos管理委员会中进行了讨论。在此过程中,一直在寻求三倍体管理委员会的学生的反馈,这些成员已被简要介绍任何更改。”

2023年 大学 调查发现,近一半的剑桥学生已将AI用于大学工作,将近五分之一使用它来评估课程工作。该大学禁止使用AI在评估工作中,将其归类为学术不当行为,但针对非评估工作的指导因部门而异。

2024年3月,HSPS教职员工发出了一封公开信,敦促学生不要使用生成AI,警告它可以“抢走您的学习机会”。他们强调,将AI生成的文本作为一个人构成学术不当行为。

英国学生在2023年在四旬期被告知,AI可以协助完成诸如“素描书目”或“研究过程的早期阶段”之类的任务,前提是在主管指导下完成。还建议一些一年级工程专业的学生可以使用Chatgpt来构建课程工作,只要他们披露其使用并包括使用的提示即可。

20023年2月,剑桥的亲副校长教育校长Bhaskar Vira告诉大学对AI的政策,Bhaskar Vira告诉 大学 CHATGPT禁令不是“明智的”,因为“我们必须认识到这是可用的新工具。”

同年,教育学院的沃恩·康诺利(Vaughan Connolly)博士和史蒂夫·沃森(Steve Watson)博士在剑桥网站上主持了名为“ chatgpt(我们需要谈论)”的问答环节。沃森警告说,尽管“大学和学校必须保护学术诚信”,但过度监管的风险使机构“无反应改变”,因为AI被广泛采用。

大学发言人说:“大学有关于学生行为和学术诚信的严格指南。这些强调学生必须是自己工作的作者。

他们补充说:“ AI平台生产的内容并不代表学生自己的原始作品,因此将被认为是根据大学的纪律程序处理的一种学术不当行为形式。”

想分享您对本文的想法吗?向我们发送一封信给[email protected]或使用此信件 形式

Měilíng Lǐ
关于