一键脱衣!AI泄密及虚假讯息… 多国考虑禁用
随着ChatGPT带起人工智能(AI)的热潮,与AI相关的泄密和假讯息等问题也逐渐浮现。这让不少科技先驱者呼吁监管机构管制AI。意大利政府因ChatGPT泄密和年龄管制问题,目前暂时禁止该AI。
3月底,意大利政府的数字保护、隐私监管机构正式暂停ChatGPT在意大利使用。其新闻稿表示,“政府暂时停止使用ChatGPT并对其进行调查,同时限制执行担保人在20天内提出相应的弥补方案,否则处以2000万欧元(约2180万美元),或最高4%的全球年度营业额作为罚款。”
新闻稿提到,这次停止使用和调查的原因主要有两个:第一,3月20日发生ChatGPT用户的对话与付费服务订阅者付款(信用卡)等信息丢失(数据泄露)。因为OpenAI在资料泄漏后警告受影响的用户,他们的姓名、账单地址、信用卡种类、到期日期和卡号的后四位数皆暴露。
第二,OpenAI称他们的服务对象是13岁以上的人,但并未设置任何过滤器去验证用户的真实年龄。对此,监管机构认为,这些未成年人的心智尚未成熟,无法判别ChatGPT答案是否合适,而这些答案可能严重影响他们的价值观。
多国政府和企业正在考虑禁止ChatGPT
4月4日意大利监管机构再度发稿表示,目前正与OpenAI代表进行会谈和处理后续问题,直到它符合意大利和欧洲相关隐私法规为止。
除了意大利政府外,德国政府也在考虑采取禁止ChatGPT的行动。目前,法国、爱尔兰的监管机构已联系意大利监管单位,希望了解禁止AI的相关法律依据。
4月初,韩媒报导,韩国三星电子(Samsung Electronics)的机密资料因开放员工使用ChatGPT,导致外泄事件出现。这些外泄资料原封不动传输到美国公司。对此,三星表示会考虑禁用ChatGPT。
早在2月和3月份,亚马逊和沃尔玛分别警告员工,不要使用ChatGPT共享敏感信息,而威讯无线(Verizon)、摩根大通(JP Morgan Chase)、花旗集团(Citi group)和高盛(Goldman Sachs Block)等其他公司,则要求员工屏蔽该AI。
AI恐沦为虚假讯息和犯罪温床
企业和多国政府对AI的担忧,不仅限于AI泄密和影响未成年人,它还牵动整个世界的经济和生活。而犯罪者们可能利用AI能够快速生产论文、绘图、声音及编写程式等能力,让其成为他们的犯罪利器。
对此,欧洲刑警组织(Europol)在3月底发出警告,犯罪分子恐利用ChatGPT等AI来提升其犯罪手段。原因是ChatGPT生成的文字能够模仿人的说话风格,而这些文字能够在假电邮、网路钓鱼攻击和散布不实讯息时奏效。
3月底马斯克等诸多科技巨擘一同在非营利组织生命未来研究所(Future of Life Institute)共同发布了一封呼吁暂停高阶AI(ChatGPT)研发6个月的公开信。信中特别提到,“我们是否应该让机器(AI)被用于宣传和谎言(虚假讯息)上,让这些东西充斥在人类的生活当中?”
另外,OpenAI的CEO山姆·阿尔特曼(Sam Altman)也亲口承认,“特别担心这些模型(ChatGPT)可能会被用于大规模的虚假讯息,而它在编写程式代码方面也做得越来越好,这可能被用于网络攻击。”
科技巨擘和政府担心的传播虚假讯息问题,已经发生在现实中。澳大利亚墨尔本赫本郡(Hepburn Shire)市长布赖恩·胡德(Brian Hood)在4月警告OpenAI公司,若ChatGPT不能在28天内更正关于他“犯罪”的虚假讯息,届时将提告。这可能成为首宗针对该AI的诽谤诉讼。
原因是ChatGPT将他列为2000年代初期澳洲储备银行(Reserve Bank of Australia)子公司一桩外国贿赂丑闻的犯案者。实际上,胡德曾任职于该家子公司澳大利亚印钞公司(Note Printing Australia),当时他向政府检举印钞公司为赢得印钞合约向国外官员行贿,而非犯罪者。
另外,英国《卫报》在4月发现一则与该报风格相似,但未发表过的文章。这让该报不停搜索和确认该文章的来源,最终发现,该文章由ChatGPT杜撰。他们表示,此次事件让他们深感不安,认为AI可能破坏媒体辛苦建立起的信誉。
对于虚假讯息问题,日本电子工程师李济心在4月初表示,“AI带给人类方便的同时,同样也提供犯罪分子新的利器,就像网络的出现一样。目前最好的方法,先提高人类的道德水准,再来加强AI的监管措施。”
AI可能带来的混乱远超人们的想像
AI除了可能沦为虚假讯息和犯罪温床之外,还有许多先进的技术,若被人们错用或滥用,将会给社会带来更多的混乱,影响程度甚至远超网络的出现。
人道技术中心的联合创始人特里斯坦·哈里斯(Tristan Harris)在3月表示,虽然目前不知道AI最终会带来什么结果,但它的出现就像中世纪印刷机的出现,彻底改变当时人们的生活。
他还警告,“当今人类社会以语言为基础,若一台机器(AI)不停运散播有毒的信息,那么社会很快的就会陷入谎言和混乱当中。”
3月18日,美国前总统唐纳德·川普在社交平台真相社会(Truth Social)上表示,自己在3月21日会被纽约亲民主党的法官和检察官传唤至纽约的曼哈顿下城刑事法院受审。
尽管当时的传唤事件尚未发生(4月初他正式被传唤),但21日当天,网上广泛出现川普“试图逃跑”和“被警察逮捕”的逼真照片,而这些AI生成的“照片”让不少反对和支持者信以为真,同时带给社会舆论一定的混乱。
合成假新闻照片
由AI图片带来的社会问题远不止这一件。先前一名中国的网红被发现她的日常生活照沦为中国AI“一键脱衣”的范例,并被传至网上引发热议。
另外,今年1月,微软研究人员成功开发出一款文本到语音合成的AI模型“VALL-E”。只需给该AI长达3秒的音频样本,它就能准确模拟任何人的声音,当VALL-E学会一种特定的声音,就能保持一种情绪和基调合成某人的说话音频,达到以假乱真的状况。
研究人员表示,该AI不仅可以编辑一个人的录音,还能以文本来更改说话内容,既使有些话是人们最初没有说过的。
该AI还能以ChatGPT的GPT-3模组和其它AI模型进行结合,创建从未有的音频,令不少人担心该AI会带来混乱。
对此,日本工作的电脑工程师清原仁(Kiyohara Hitoshi)在4月9日表示,“现在发展中的AI肯定有许多优点和不足,而它可能被滥用给人类社会带来混乱和灾难。如果人们不讲道德,再好的工具也会危害社会。”
微信扫码关注该文公众号作者