Redian新闻
>
AI“既帮助好人也帮助坏人”,变革浪潮下大模型有这些阴暗面

AI“既帮助好人也帮助坏人”,变革浪潮下大模型有这些阴暗面

财经

2023.07.01

本文字数:2582,阅读时长大约4分钟



导读:在火热的AIGC浪潮下,技术带来变革的同时,其阴暗面也越来越多被关注。


作者 | 第一财经 吕倩 刘晓洁

近日,一批匿名人士向OpenAI及其投资方微软公司发起集体诉讼,指责被告方从互联网上窃取和挪用了大量个人数据和信息来训练AI工具。起诉书声称“OpenAI在用户不知情的情况下,使用这些‘窃取’来的信息”。
再倒回前两个月,“AI换脸”诈骗曾引起很大讨论,据包头警方消息,骗子通过智能AI换脸和拟声技术,佯装好友对福州某科技公司法人代表实施了诈骗,10分钟内其被骗430万元。
在火热的AIGC浪潮下,技术带来变革的同时,其阴暗面也越来越多被关注。
“人工智能就如同双面人,既帮助好人,也帮助坏人。善用AI可以创造很好的功能,但如果不能做好安全管理,AI可以带来危险。”在C3安全大会上,英普华亚太及日本区技术副总裁周达伟表示,在过去很注重的是远程安全和应用安全,但在大模型的产业互联网的时代,会更注重数据安全。

大模型背后的网络安全

“去年年底到今年年初,生成式AI带来了灯塔式的指引,从国家到所有的企业都在拥抱这次变革。”亚信安全首席研发官吴湘宁在大会上表示,大家都希望通过人工智能、大数据、区块链、物联网等技术来改变现状。
但AI系统越来越大,本身的安全就是一个关键。亚信安全首席安全官徐业礼在采访中表示,“这里面涉及到AI投毒,模型被篡改,包括AI系统本身有边界防护端点防护的能力。”AI可以做坏事,也可能生成一些误导的信息,此外大量使用AI,尤其是境外的AI可能导致数据的泄露,这都是非常大的风险和问题。
亚信安全终端安全产品总经理汪晨认为,一方面,AI技术可以帮助甄别出病毒软件的DNA,即使他们进行了伪装,也能识别出其是黑是白;但另一方面,因为AI需要通过大量数据训练才能获得能力,如果用黑客污染过的数据进行训练,训练出的模型就会存在漏洞。如何确保训练数据的准确率和精准度,是目前面临的新挑战。
对于最近兴起的AI换脸诈骗,徐业礼对第一财经表示,这属于较为特别的网络安全问题,绝大部分针对个人发生,换成高管的照片或者模拟高管的声音录制一段语音发给员工,要求汇款转账,这些情况防不胜防,且由于AIGC的出现,诈骗实施起来越来越简单,成本极低。
徐业礼认为,对于一个管理较好的公司,这类诈骗绝大部分情况下不会发生,而主要发生在安全意识不强、汇款等流程极不完善的小规模企业。对于亚信这样的网络安全公司来说,一般也能通过邮件和公司的系统监测到商业诈骗邮件,对诈骗网站和钓鱼网站进行识别检测。
AI一直在安全领域有所应用。徐业礼介绍,在ChatGPT出现前的AI 1.0时代,亚信更多用AI做判断,做分类和聚合,亚信早期产品很多引擎都大量使用AI技术,包括2018年开始的卷积神经网络都用得很频繁。
不过,如ChatGPT这样的大模型是一个革命性的改变。ChatGPT事实上已经可以理解为过了图灵测试的终极阶段,达到了一般人的智能,如今AI行业也从1.0时代到了2.0时代,AI的功能越来越丰富,生成式AI能够模仿人、复制安全专家的能力,加速系统的自动化运营。
吴湘宁介绍,在过去安全行业已经可以通过自然语言的识别,通过报警、日志发现关键的威胁点,形成威胁图谱,但做威胁图谱的解读、写威胁分析报告,还需要专门的运维人员或安全专家,但今天随着大模型技术的发现,可以更容易把专家的知识和大模型进行结合,从而自动生成报告。

AI训练面临信息风险

在训练大模型中,作为必备要素的数据还面临着信息安全、来源确权等方面的挑战。
除了OpenAI被起诉使用用户数据进行用户画像或广告推广等商业用途,此前三星员工在与ChatGPT聊天过程中也发生过信息泄漏事故。
三星有员工要求聊天机器人检查敏感数据库源代码是否有错误,此外还有员工要求ChatGPT帮助其优化代码,以及将会议记录输入ChatGPT并要求它生成会议记录。
腾讯安全天御研发工程师周维聪对第一财经记者表示,在三星的案例中信息已存在风险,大模型提供方理应在该环节具备审核拦截能力,提示用户该环节中存在严重的泄露隐私风险。
周维聪表示,对于企业方,首先在技术层面可以对用户隐私信息进行相应的提取。另外,如果用户输入的内容涉及隐私相关信息,技术侧也可以鉴别出来,不会将这部分数据用于模型训练或商业产品的能力打造上。

另外,周维聪表示,腾讯安全会提示合作方使用数据时,合法获得经过用户确权的数据,未经确权的数据不会被保存下来,“这是一个需要严格遵守的点。”
实际在现实生活中,除了经过确权的信息数据,更多的是广泛分布于互联网的分散的用户数据信息,对于这部分信息的使用,周维聪对记者表示,平台一般会以严格的技术规范数据合规流程,每一家厂商理应都在遵循这样的流程。因为除了要确保数据经过用户授权,也是因为数据一旦用于开发其他能力,有可能涉及人脸、声纹等敏感信息,这类信息在合规流程上都会被严加控制与监管。“行业内部都会有这样一个标准,只是目前还没有达到通用化的程度。”周维聪表示。
腾讯安全内容风控产品经理李镐泽对第一财经表示,AIGC的内容安全是一个全链路的问题,从模型训练、标注、应用到应用之后的舆情监控各个环节都可能引入内容安全的风险,因此在应用AIGC大模型时,也应从全链路进行内容风控。其次从审校方面,也需要从连贯性、逻辑性等方面来保证数据质量,去除高风险内容。第三是版权方面的风险也需要警惕。
全链路也包括了事后阶段。李镐泽表示,事后阶段是指在大模型产品上线、用户使用之后,企业也应注重平台舆情监测,相应减少或避免相关风险。
至于全链路中哪个环节目前遭遇的AI安全风险最为密集,李镐泽对第一财经记者表示,问题的爆发主要伴随业务的分布情况而发生,从AIGC场景来看,厂商目前主要集中于先训练模型、再逐步投入应用的阶段,因此爆发的问题主要在训练与内容生成这两个环节。
以OpenAI为警示,在具体政策法规尚未明确的情况下,企业在获取数据进行大模型训练时,也需走在严格的审核流程中。今年4月,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》。《意见稿》指出,用于生成式人工智能产品的预训练、优化训练数据不含有侵犯知识产权的内容;数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形。
李镐泽对记者表示,《意见稿》的出台比较及时地响应了当下火热的AIGC发展趋势,也给各个企业、包括想做AIGC大模型的企业提供了一些指引和机会,这是一个比较好的趋势。
微信编辑 | 高莉珊



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
电动化浪潮下的IGBT:中国产业机会何在?“好人”李斌VS“狂人”李想中国团队自动驾驶大模型斩获CVPR最佳论文;Stability AI推出新文生图模型;京东大模型即将发布丨AIGC大事日报传OpenA正测试DALL·E 3模型;华为语音助手支持AI大模型;亚马逊组建AI大模型新团队丨AIGC大事日报浪潮信息:发布大模型智算软件栈OGAI,为大模型创新打造高效生产力坏人不能露脸!好人却被“人肉”…女性谴责虐宠遭可怕威胁大模型浪潮下,顶会论文投稿策略外派故事 (29) 放荡不羁小六郎不说话就是好人了吗?没直接做过什么坏事就不是坏人了吗? | 二湘空间17位设计师共议:生成式AI浪潮下的设计未来十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型大模型变“小”:黑马天启开创AI模型“重度垂直”新思路,入选北京大模型行业应用典型案例《一首桃花》&《云水难记》@高中、初中毕业生,两封信带你看国家资助好政策尺度大开,全程无码!网飞深扒美国阴暗面,这片有点东西…中小企业,离大模型有多远?5061 血壮山河之武汉会战 鏖战幕府山 30[干货] 电影“既叫好又叫座”,英语咋说?​AI大模型浪潮下,三巨头开启新混战国粹 AI 飙脏话,ChatGPT 们的「阴暗面」把大厂吓坏了艺术跨界浪潮下,选对专业者为俊杰!当我们需要一些缺德笑话,一些哭笑不得,一些阴阳怪气……英伟达,在大模型浪潮下躺赢|最前线“DevOps 的阴暗面”:左移的代价和降低成本的方式AIGC浪潮下,如何推动企业应用及落地?|直播预约从感知到推理,物联网端侧向下一个智能变革浪潮跃迁|创业邦发布《端侧智能研究报告》开源大模型有望迎接“安卓时刻”,创业公司如何抓住机遇? | 榕汇实战分享坚持做行业大模型,竹间智能给大模型造了一座「模型工厂」百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl《艰难岁月》新书推荐讲演稿只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型好人有好报,“老好人”没有第一百一十章 恢复好人坏人不是关键,赛道才是关键
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。