迈克尔·戈夫正在起草将剑桥打造成“欧洲硅谷”的提案,最近几个月,升级、住房和社区部制定的计划“形成了蓝图”,以释放生命科学和技术领域的增长。在此之际,剑桥大学紧随其后,成为世界第二好的高等教育机构,并且最近在人工智能研究领域取得了成功。然而,剑桥社区对人工智能的前景反应不一:我们应该乐观还是恐惧?
突破性的医疗应用:剑桥首先利用人工智能缩短 NHS 的等待时间
剑桥大学和阿登布鲁克医院的研究首先在 NHS 中发现,人工智能正在减少癌症患者等待放射治疗的时间。人工智能驱动的技术使专家能够比单独工作的速度快 2.5 倍。卫生和社会保健部长史蒂夫·巴克利 (Steve Barclay) 评论了这一技术先行:“尖端技术可以帮助我们减少癌症患者的等待时间,为工作人员腾出时间,以便他们能够专注于患者护理,并最终挽救生命——而人工智能是发挥着越来越重要的作用。”
“尖端技术可以帮助我们减少癌症患者的等待时间,为工作人员腾出时间,以便他们能够专注于患者护理,并最终挽救生命——人工智能正在发挥着越来越重要的作用。”
剑桥医学人工智能中心主任 Mihaela van der Schaar 最近在 卫报 人工智能的前景“专为现实世界的医学设计——具有组织、科学和经济的复杂性”,是我们应该追求的“以现实为中心”的人工智能方法。 “人工智能驱动的个性化医疗可以更有效地治疗心脏病和癌症等常见疾病,或囊性纤维化等罕见疾病。它可以让临床医生优化个体患者的用药时间和剂量,或者使用患者的个人健康状况来筛查患者,而不是当前的年龄和性别标准,”她继续说道。
剑桥大学人工智能研究的范围是深远的。剑桥 ALTA 研究所利用人工智能和机器学习,通过为用户提供“详细的诊断反馈”来帮助第二语言学习者更有效地提高英语能力——尽管他们热衷于指出,他们“不认为自动化评估应该取代班级教师”和审查员很快”。在其他与人工智能相关的成功中,工程系 Fumiya Iida 教授的仿生机器人实验室的 Grzegorz Sochacki 希望“看看我们是否可以训练机器人厨师以与人类相同的渐进方式学习——通过识别成分以及它们如何在菜肴中搭配”使用计算机视觉。
对人工智能安全的担忧:CompSci 教授呼吁加强人工智能监管
上个月,DeepMind 计算机科学系机器学习教授 Neil Lawrence 在《 泰晤士报 依靠 BigTech 告诉我们人工智能技术的未来应该是什么样子“就像火鸡问农民圣诞晚餐应该吃什么一样”。他说:“在很多方面,机器都优于我们。”他对 BigTech 加入当前对人工智能安全的兴趣浪潮持批评态度,这一浪潮是由他的同事 Geoff Hinton 拜访 Rishi Sunak 的 No 10 高级顾问,讨论人工智能如何构成严重威胁而发起的。
“依靠 BigTech 来告诉我们人工智能技术的未来应该是什么样子,‘就像火鸡问农民圣诞晚餐应该吃什么一样’”
劳伦斯表示,越来越多的公司纷纷加入人工智能安全潮流,并希望“鼓励建立监管壁垒,阻止任何新的市场进入者,希望利用人工智能来确保分得一杯羹”。
虽然他的同事辛顿担心我们最终会“被机器操纵”,但劳伦斯建议我们真的应该更加害怕公司机器。和许多其他剑桥研究人员一样,他热衷于开发一套安全协议,以确保在人工智能技术快速垄断的情况下确保人工智能技术的安全治理。 ChatGPT 背后的公司 OpenAI 在今年早些时候发布了一个名为 GPT-4 的“更大更好的模型”,但正如 麻省理工学院技术评论 称,这是“该公司有史以来发布的最秘密的版本,标志着其从非营利性研究实验室全面转变为营利性科技公司”。剑桥明德鲁技术与民主中心的研究人员上个月加入了一个耗资 3100 万英镑的财团,旨在创建一个全英国的生态系统,以创建负责任且值得信赖的人工智能。 “我们将努力连接英国世界领先的负责任的人工智能生态系统,并领导围绕人工智能的全国对话,以确保负责任和值得信赖的人工智能能够为每个人带来利益,”执行董事 Gina Neff 表示。
语言学负责人表示,人工智能与人类的行为方式仍然有很大不同。
该大学正在开始适应人工智能的更广泛采用—— 校队 今年早些时候的调查显示,47.3%的学生使用人工智能聊天机器人来协助他们的监督工作。正如剑桥大学负责教育事务的副校长巴斯卡·维拉 (Bhaskar Vira) 所说 校队 米哈埃拉·范德沙尔(Mihaela van der Schaar)认为,在高等教育和大学评估中禁止人工智能软件并不“明智”,她呼吁制定她所谓的“人类人工智能赋权议程”,其中我们不应致力于“构建能够模仿和评估的自主代理”。取代人类,而是开发机器学习,使人类能够提高认知和内省能力,使他们成为更好的学习者和决策者。”
然而,声称大型语言模型可以以某种方式模仿或取代人类认知能力(通过以国王学院校友艾伦·图灵命名的图灵测试)的说法引起了很多怀疑,在某些情况下还引起了认知科学家和语言学家的强烈反对。理论与应用语言学系主任伊恩·罗伯茨(Ian Roberts)在《 纽约时报 与著名语言学家和逆向者诺姆·乔姆斯基(Noam Chomsky)合着的《ChatGPT》——尽管他最近饱受争议,包括与杰弗里·爱泼斯坦(Jeffrey Epstein)的财务交易,但诺姆·乔姆斯基仍然是语言学领域的一位有影响力的人物——“鉴于这些系统的受欢迎程度让我们只能笑或哭。”
您对错误信息的敏感程度如何?
“大型语言模型”的兴起意味着互联网上越来越多的文本将由人工智能生成,而不是由人类编写——甚至是由人类编写的 校队 文章可以由 ChatGPT 编写,正如我今年早些时候演示的那样!
剑桥心理学家开发了一项测试,可以在这里尝试,它可以“可靠地表明一个人是多么容易被网络空间中充斥的捏造新闻所欺骗”。两分钟的测试为您提供 20 个标题和弹性排名。剑桥社会决策实验室负责人桑德·范德林登教授表示:“错误信息是数字时代民主国家面临的最大挑战之一。”他们发现,表现最差的是 30 岁以下的人,他们上网的时间最多。至少现在,你可能应该坚持从某个网站获取新闻 校队 文章是人写的!
总体而言,剑桥技术生态系统在很多方面都是整个社会的一个缩影,它正在掌握和创新新技术,正如人工智能在医疗保健领域日益广泛的应用所表明的那样,新技术既可能非常有用,也同样有害。剑桥学者才刚刚开始积极调查并与行业合作伙伴和政策制定者合作,以解决人工智能日益引发的新网络安全和错误信息危机。