ChatGPT因数据安全问题遭多国监管调查,网安企业能否助其跳出“潘多拉魔盒”?
图片来源:图虫创意
不过两个月的时间,ChatGPT作为全球爆火的科技概念,在掀起一阵阵科技浪潮后,因可能引发的数据安全问题而被海外多个国家的监管机构调查。这背后,再次凸显出人们对与新科技伴生的网络安全的担忧。
(相关资料图)
据外媒报道,近日,德国联邦数据保护专员乌尔里希·凯尔伯表示,德国可能会追随意大利的脚步,因数据安全问题“封杀”ChatGPT。此前,意大利个人数据保护局宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息,同时开始立案调查。
在国外,GPT-4的发展速度加重了公众对个人信息安全的担忧;而在国内,百度文心一言、阿里通义千问、华为盘古等大模型陆续浮出水面,如何更安全地追赶ChatGPT掀起的热潮成为各互联网企业不得不正视的问题。
信息安全领域专家张威向记者指出,对网络安全企业来说,AI引发了新安全领域,主要涉及数据安全,内容安全和算法安全等方面,网络安全企业在某些领域将成为重要支撑,但要求网络安全企业具备更强的安全技术整合和服务能力。
GPT被曝可能引发黑客攻击、隐私泄露等安全问题
AI模型大致可以分为决策式AI和生成式AI两种。决策式AI指学习数据中的条件概率分布,根据已有数据进行分析、判断、预测,主要应用模型有用于推荐系统和风控系统的辅助决策、用于自动驾驶和机器人的决策智能体。
生成式AI指学习数据中的联合概率分布,并非简单分析已有数据而是学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成了全新的内容,也能解决判别问题。
目前,作为生成式AI代表的ChatGPT已迭代到4.0版本,回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字输入限制也提升至2.5万字,且对于英语以外的语种支持有更多优化。
相较于GPT3.5,GPT-4最大的进化在于“多模态”和长内容生成,最大的突破是拥有了“读图能力”。有专家预测,未来会出现文字、图像、音频和视频等所有数据统一处理的新变革。
相关资料显示,初代GPT模型的参数是1.17亿个,GPT-2是15亿个,GPT-3模型参数量达到1750亿,是GPT-2的100倍;而GPT-4的真实参数在1750亿-2800亿之间,重点在数据处理优化上。
越来越强的算力意味着更大的数据和隐私风险,与初代GPT带来的惊喜不同,GPT-4的发展已让多国感受到威胁。
据外媒报道,三星在引入ChatGPT不到20天里,就已经发生了三起半导体机密资料外泄事故,涉及测量资料、产品良品率等内容,传闻已被存入到ChatGPT学习资料库中。对此,三星透过公告叮嘱职员注意ChatGPT的使用方式。
与此同时,意大利、德国、英国、加拿大、日本等多个国家的相关企业都开始发出警告,限制在业务运营中使用ChatGPT等交互式人工智能服务。
张威认为,人工智能技术本质上是一种工具,带来的网络安全危害主要是由于被坏人使用或钻了空子,目前,很多“坏人”在寻求钻这样的空子,所以GPT的安全威胁就展现了。
他把GPT带来的威胁分为五个方面,其一是支持诈骗,不论是智能换脸,智能聊天,智能文案等功能首先都会被诈骗分子用来支持他们的诈骗犯罪;其二是支持网络攻击,GPT的海量知识库可以让黑客更快速地搜集被攻击对象的内外部情况,同时黑客也会基于相同算法开发智能化自动攻击程序;其三是隐私泄露问题,如果人们长期和GPT交互,GPT会保留对话者的隐私或用户画像,这部分数据一旦被滥用,其危害比现有的隐私泄露大的多。
其四是算法本身存在漏洞,可以被恶意者污染或引导,产生有利于恶意者的结果;最后是使用GPT可能引发新伦理安全问题,就如同电车难题一样,GPT的智能化会使很多普通人错把它认为有人性,这会引发很多伦理安全的新问题。
在头豹研究院行业分析师常乔雨看来,鉴于很多人对GPT的工作原理缺乏详细的了解,且对语言本身所蕴含的能量信息缺乏妥善的认知,恶意攻击者可以通过GPT快速产出诱导性内容,然后以批量式重复性的信息淹没战术攻击受害者,从而达成不法目的。例如,GPT可以模拟可信任来源,自动化发送网络钓鱼邮件或信息,诱使用户点击恶意链接或输入敏感信息。
如何跳出“潘多拉魔盒”?
据报道,在意大利个人数据保护局就ChatGPT涉嫌违反数据收集规则展开调查后,OpenAI发表博客称:“我们认为,强大的人工智能系统应该接受严格的安全评估。需要有监管来确保这种做法被采纳,我们积极与政府接触,探讨这种监管可能采取的最佳形式。”
OpenAI还表示,解决人工智能安全问题的一个切实可行的方法是投入更多时间和资源来研究有效的缓解和校准技术,并在现实世界的滥用情况下测试它们。
与此同时,微软推出一款新的人工智能对话工具Security Copilot(安全副驾),使用了OpenAI公司研发的GPT-4语言模型,以及网络安全领域的专业数据。据悉,能够帮助网络安全团队防止黑客攻击,并且在遭遇攻击后进行处置。
反观国内类GPT的发展,目前已有百度、阿里、360、华为等多家企业入局,但国内企业推出的语言大模型,从文本数据质量、创造性和灵活性等方面看,都要逊于ChatGPT。
真正能够区分这类大模型能力的,是它们背后多年的积累沉淀,也就是常说的“工程力”。常乔雨指出,工程力在AIGC中是一个很宏观但又很难具体量化解释的概念,它涉及对模型框架的设计思路、对参数变化的持续微调,以及对机器学习方法应用的灵活度。
对于国内企业来说,要发展类GPT技术需要借鉴国外的经验和教训,在拥抱GPT的同时安全先行,避免引发“潘多拉式”的魔盒危机。
常乔雨建议企业在发展此类技术时,需要建立完善的安全管理体系,加强对GPT等新技术的安全评估、审计和监管,及时发现并应对存在的安全隐患。企业还应该对员工进行安全培训和教育,提高员工安全意识和技能。至于用户个人,应该加强密码保护、防范网络钓鱼、避免泄露个人隐私等行为,在使用GPT等新技术时,不轻信来路不明的信息,不随意泄露个人隐私。
从社会层面看,张威认为,目前GPT还属于行业早期探索阶段,适合强调一些底限,比如限制违法内容的输出、个保法、网安法的执行等,但不宜设置上限限制技术创新。
网络安全企业机遇与挑战并存
360日前宣布,4月16日,基于360GPT大模型开发的人工智能产品矩阵“360智脑”率先落地搜索场景,将面向企业用户开放内测。
作为网络安全的龙头企业,360成为较早发布类GPT产品的代表。周鸿祎曾表示:“我自己就是做安全的,但我坚定地认为,不发展才是最大的不安全”。
因为在周鸿祎看来,“不管你愿不愿意,GPT都将引领一场新的工业革命,意义超越互联网和iPhone的发明,它将带来生产力的大幅提升,进而提升国家竞争力”。在这个过程中,网络安全企业无疑要承担更多的责任和任务,这对它们来说既是机遇也是挑战。
近日,在投资者互动平台,绿盟科技透露,将在今年第三季度发布基于类ChatGPT技术的智能安全服务机器人。奇安信则指出,公司正在基于ChatGPT相关技术和自身积累的海量安全知识和数据,训练奇安信专有的类ChatGPT安全大模型。
对此,绿盟科技方面向记者表示,绿盟研发了ChatGPT文本生成检测的专用工具,对比分析ChatGPT模型生成虚假信息与真实信息,可以用于监控电子邮件、消息和新闻等,以检测信息的置信度,并警示用户注意避免钓鱼攻击,提示用户不要输入任何敏感信息,更好保护用户的信息和隐私。
今年1月份,工信部等十六部门联合印发《关于促进数据安全产业发展的指导意见》提出,到2025年,我国数据安全产业规模超过1500亿元,年复合增长率超过30%,将建成5个省部级及以上数据安全重点实验室。
网络安全企业在把握住下一个红利期之前,需要不断适应人工智能新形态带来的底层技术逻辑、业务逻辑的变化,增强产品研发能力和竞争实力。
常乔雨指出,网络安全企业需要增强监测和防范GPT产出的模仿他人口吻编造的虚假信息等,通过识别文字是AI自动产出的可能性大小发出警告提示。同时,利用GPT进行网络的攻防模拟、通过GPT攻击模拟发现可能存在的网络安全漏洞、和使用GPT进行安全咨询对话增强等功能。
目前中国相关技术水平距离GPT-4还有差距,现有的硬件基础设施能力对支持更大规模的此类技术广泛应用还存在瓶颈。对于GPT可能带来的潜在风险既不可忽视,也不必过度担忧,毕竟永远不会被AI淘汰的是使用或研究AI的人。
正如常乔雨所言,理性地以工具角度看待GPT,认可它成为第四次科技革命潜力的同时不过度神化GPT和传播恐惧,通过持续地实践和思考,让GPT为每个人在它自身擅长的领域最大化发挥价值。
关键词: