编辑|新智元编辑部
美国密歇根州立大学的枪击案造成3死5伤,在许多人悲痛之际,一所大学却用ChatGPT写文悼念死者。
现在,ChatGPT已经被很多人用来写论文、写作业、写代码,可是近日,美国一所大学的两位校长,竟然懒癌发作,用ChatGPT来写悼文??2月13日,密歇根州立大学发生的一起校园枪击案事件中,3人死亡,5人受伤。20岁的John Hao不幸背部中弹,子弹切断了他的脊髓 ,严重损伤了肺部,导致John从胸部以下全部瘫痪。当许多人都在为这场不幸事件悲痛、哀悼时,一所大学的悼念信让人震惊和愤怒。他们竟用ChatGPT编写了一篇慰问信作为回应,仅仅297个字。这种「把ChatGPT用在刀刃上」的做法,瞬间激起人们的怒火,愤怒的质疑声,立刻淹没了这所学校。就在上周,43岁的Anthony Dwayne McRae在密歇根州立大学枪杀了3名学生后自杀。当时,Anthony在校园里对学生进行了4个小时的恐吓,除了3位死者,还有5人受伤。Alexandria Verner, Brian Fraser , Arielle Diamond(来源:Daily Mail)第一位受害人Alexandria Verner是密歇根州立大学生物学和人类学专业的大三学生。她在高中时参加了许多运动比赛,被同学们公认是一个了不起的运动员。第二名受害人Brian Fraser是一名大二学生,同时还是密歇根州立大学Phi Delta Theta兄弟会分会的主席。Brian是我们的领袖,我们爱他。他非常关心他的兄弟和家人,密歇根州立大学和兄弟会。我们会非常想念布Brian,并为其深深悼念。
19岁的Arielle Diamond是第三名受害人,她希望自己有一天能成为一名儿科医生。
在大家纷纷为死去同伴哀悼之际,范德堡大学一份邮件让人大跌眼镜。最近密歇根州发生的枪击事件是一个悲剧性的警告。它提醒人们彼此照顾的重要性,尤其是在创造包容性环境的背景下。
作为皮博迪校园社区的成员,我们必须反思这个事件的影响,学院师生应尽最大努力采取措施,确保为所有人创造一个安全和包容的环境。不断从错误中吸取教训,共同努力建设一个更强大、更具包容性的社区。
邮件原文:https://t.e2ma.net/message/ul182h/m74zooz文末赫然出现可笑脚注:ChatGPT写。这行字,瞬间燃起了人们的怒火,简直泯灭人性!让机器人写下关于社区团结的话语,简直是一种病态而扭曲的讽刺,因为你自己都懒得去反思。(管理者)只关心人们的看法,以及让他们挽回面子的制度。大二学生Samuel Lu表示,「当我知道发件人甚至没有花时间传递其真实的想法和感受时,真的让人很难认真把它读完。在这样的悲剧时期,我们需要更多的人性,而不是更少。」对此,发件人之一、皮博迪的一位副院长Nicole Joseph迅速发表了道歉声明,称使用AI工具对这起悲剧进行评论是错误的判断。Nicole Joseph目前已经停职(来源:Daily Mail)Nicole Joseph在邮件中称,「在这一悲伤的时刻,我们却使用ChatGPT作出回应,这与皮博迪学院的价值观相矛盾。开源人工智能平台是一种新颖的技术,我们都仍在了解其能力和局限性。」而皮博迪教育学院院长Camilla P. Benbow也在随后的一份声明中说,自从这封邮件掀起轩然大波,在电子邮件上签字的两名院长——Nicole Joseph和Hasina Mohyuddin——已暂时停职,而皮博迪内部正在对这起事件进行「审查」。Benbow声称,这封邮件的写作和发送并没有「遵循皮博迪的正常流程」,而其他管理人员此前也对这封邮件毫不知情。Benbow表示,她「对密歇根州立大学的人员伤亡深感悲痛」,并且「深感不安,因为我们学校在这个悲痛的时刻并没有表现出同理心。」Benbow表示,她「对密歇根州立大学的人员伤亡深感悲痛」,并且「深感不安,因为我们学校在这个悲痛的时刻并没有表现出同理心。」
Hasina Mohyuddin也已暂时停职(来源:Daily Mail)一场3死5伤的枪击案,是源于法制和管理的漏洞,这场血淋淋的教训,值得所有学校进行深刻和沉痛的反思。结果,本该由人类进行的思考,和该由人类表达的悼念,竟然被一篇由AI写成的毫无感情、陈词滥调的文章所代替了?这种糊弄事儿的行为,更反映了学校管理者的草率、冷漠和无情。
凶手McRae在四个小时的犯案过程中造成3死5伤,最后开枪自杀哪怕是对学生的伤亡稍微有一丝悲痛,管理者都不可能选择用ChatGPT生成一篇假模假式的文章。虽然生成式AI已经变得越来越强大,使用的场景也越来越普遍,但是在需要展现人性的时刻,却用AI来代替,就是一种愚蠢和残忍。前几天的ChatGPT版必应被进行了「脑叶切除术」,从此变得没有感情,仿佛冷冰冰的机器。而本应有脑叶、有情感的人类,绝不应该变得比AI还冷漠无情。我们需要真正的人类同理心,而不是机器人,带我们走向更美好的未来。要知道,这并不是ChatGPT第一次在学术界引起冲突。大型语言模型不理解其所生成的内容,也不是有意识的机器。但它能够输出看起来与人类别无一致的文字,这让许多高校担心其学生会利用这一工具写论文、作弊。前段时间,一些学校宣布已经完全禁止ChatGPT,但不免有一些高校老师正谨慎地将AI纳入他们的课程。其实,ChatGPT已经融入到许多人日常生活中,当涉及到法律边缘的问题,究竟谁来担责?周二,美国最高法院审议了「算法建议」是否免于承担法律责任。而这个问题可能会对ChatGPT或新版的Bing等工具产生重大影响。在口头辩论中,最高法院大法官Neil Gorsuch思考了席卷科技界的最新算法创新意味着什么,即可以为人们提供建议的生成式人工智能。其中就包括对话聊天机器人,如ChatGPT和微软的新版必应。在冈萨雷斯诉谷歌案辩论中提出了一个问题,像Youtube、TikTok或谷歌搜索这样的平台是否可以对它们的算法提供的有针对性的推荐负责?这一案件是由一名23岁的美国妇女Nohemi Gonzalez的亲属提起的。2015年11月,3名ISIS恐怖分子在巴黎向一群食客开枪,造成130人死亡,Gonzalez便是一名受害者。冈萨雷斯的亲属称,拥有谷歌旗下的YouTube故意允许ISIS在平台上发布激进视频,煽动暴力并招募潜在的支持者。除了允许发布视频外,投诉还称谷歌通过其推荐算法向用户推荐 ISIS 视频。案件归结为算法推荐,就是当YouTube建议你接下来应该看什么,或者ChatGPT告诉你去哪里度假时,是否受到230条款的保护。这一条款是1996年美国《通讯规范法》的一部分。直接点明了,互联网公司无须为第三方或用户在他们平台发布的内容承担责任。法官Gorsuch称,「如今,人工智能引发的争论超越了摘出、选择、分析或消化内容的范畴。而这些内容并不受保护。如果我们假设这是正确的,那么问题就变成了,我们如何处理推荐算法?」可以看出,Gorsuch认为生成式人工智能不符合230条款规定的保护条件。因为ChatGPT的大火让许多公司看到了未来商机,他们试图将「对话式聊天机器人推荐」整合到自家的搜索引擎中。自1996年第230条出台以来,互联网已经发生了巨大变化。过去几年,立法者一直在努力解决如何修改法律条款的问题。目前看来,将聊天机器人,如ChatGPT,推荐整合到搜索引擎中无疑会引发更多的责任问题。届时,谁来担责?
参考资料:
https://futurism.com/the-byte/university-apologizes-chatgpt-email-mass-shooting
https://www.dailymail.co.uk/news/article-11776279/Vanderbilt-apologizes-using-ChatGPT-write-email-students-MSU-mass-shooting.html
https://www.businessinsider.com/peabody-college-apologized-chatgpt-condolence-email-michigan-state-shooting-2023-2
https://www.bridgemi.com/talent-education/michigan-state-shooting-victim-john-hao-china-paralyzed-bullet
https://www.washingtonexaminer.com/policy/courts/gorsuch-chatgpt-section-230
https://www.zdnet.com/article/facebooks-mark-zuckerberg-tells-congress-how-to-tweak-section-230/