专家提示:警惕GPT技术引发工业安全风险
生成式人工智能技术惊人的发展速度加剧了人们对网络安全的担忧。近来,ChatGPT引发的风波不断。意大利因数据安全问题成为首个宣布禁用ChatGPT的国家。紧接着,德国表示可能会追随意大利的脚步。加拿大也在对OpenAI展开调查。苹果、三星、SK海力士等越来越多的企业也开始禁用ChatGPT。7月6日,在2023工业安全大会上,多位专家表示,要警惕GPT技术在工业领域带来的安全风险。
工业控制网络是事关国计民生的关键信息基础设施。随着工业基础设施逐渐走向数字化、网络化、智能化,工控安全面临前所未有的挑战。中国工程院院士邬江兴表示,以ChatGPT为代表的AI算法模型存在不可解释性、不可判识性和不可推论性,这让AI应用系统内生安全共性问题浮出水面。现阶段,人类科技能力尚不能彻查复杂系统漏洞后门问题,AI应用系统算法模型安全与网络安全问题相互交织且难以分而治之。因此,AI应用系统以及相关数字基础设施极易成为网络攻击的高价值目标,造成社会性灾难。
随着技术的发展,网络攻击手段也在不断演变和更新。机械工业仪器仪表综合技术经济研究所所长欧阳劲松表示,人工智能技术的深度应用会让危险源、威胁变得更加难以辨识,网络物理攻击路径愈发难以预测,功能安全措施与信息安全措施也会越来越难协调。
北京天地和兴科技有限公司副总裁伍泽广也指出,随着新技术的迅猛发展,安全范围越来越广,安全边界逐步“上浮”和“下沉”。以GPT为代表的生成式人工智能技术将大幅降低黑客攻击工控专有协议的技术门槛。OT(运营)环节的漏洞将会持续增加,工业企业数据资产面临的安全风险也会越来越大。
“GPT类大模型技术在各行业的应用生态快速形成,这对工业安全而言是一把‘双刃剑’。”和利时信息安全研究院有限公司战略规划总监李季表示,GPT技术将带来包括隐私保护、资源消耗等问题,也会进一步加剧对抗性攻击、自动化攻击、恶意利用等安全隐患。但同时这项新兴技术也将为网络安全产业带来更多产业机遇。比如,网安大模型的应用,就有助于安全从业者更好地理解和预测网络安全威胁,开发出更加高效的安全工具和方案,提升网络安全的智能化水平。
实际上,任何一项新技术的出现都将带来安全风险,工业安全建设还是应该从基础设施出发。烽台科技(北京)有限公司副总经理、灯塔实验室技术负责人王启蒙指出,工业场景基础设施数字化能力整体偏弱,数字化改造有待改善。CT(通信)与OT(运营)需求对接不足,导致工业应用端到端可靠性难以保障,芯片、模组、终端产品工业特性有待增强。
工业数据价值越高,安全风险往往越大。北京交通大学信息安全系主任、教授王伟指出,工业数据普遍存在访问控制权属关系不清晰,易产生非法盗用、非法篡改等问题,借助Web3.0,工业物联网时代的工业数据可以变成可确权、可支配、可流通的内容,并最终形成可靠、安全、合规的工业数据安全保障平台。
王启蒙建议,复杂环境下,应针对工业网络控制设备、业务服务器、工业主机、网络设备、安全设备产生的标识数、状态数据、事件数据、运维数据、实时数据等,根据内置的工业分级分类知识库对采集的数据进行分级分类,并根据数据等级进行对应安全策略处理。
值得一提的是,网络分析公司Similarweb统计的最新数据显示,2023年前5个月,ChatGPT全球访问量环比增幅分别为131.6%、62.5%、55.8%、12.6%、2.8%,增长幅度明显下降;6月份ChatGPT的访问量环比下滑9.7%,为其推出以来首次。作为这轮生成式人工智能风暴的中心点,ChatGPT的访问量持续下滑引发了人们对于人工智能泡沫的担忧。
据不完全统计,国内10亿级参数规模以上的AI大模型已超80个。多位专家指出,国内通用人工智能产业已出现过热端倪,一旦技术无法有效落地、市场期待无法实现,“泡沫”就可能破裂。
微信扫码关注该文公众号作者