ChatGPT | 热度在狂飙 安全保密如何“避坑”

免费获取chatGPT 3.5 账户,或购买GPT 4.0plus 会员账户,扫描文章内微信公众号二维码,或加微信:yuke36

不久前,基于自然语言处理技术的最新人工智能研究产品面世,给AI领域带来了巨大冲击。除了可以回答简单的问题,还可以处理复杂的任务,如撰写文章材料、视频脚本、电子电邮、会议纪要,甚至是文本翻译和程序代码等。让人惊讶的是,它还可以依照聊天上下文进行互动,尝试理解提问者的问题,并给出人性化的回答,而不是仅仅提供一个标准答案。因为这一优势,迅速在社交媒体走红,也深受各大媒体的广泛关注。

据媒体报导,短短5天内,的注册用户就超过了100万,此后又在两个月后破亿。要晓得从0到100万用户,耗时2年,也用了10个月。眼下无疑是互联网领域下降速率最快的产品之一,凸显出巨大的潜力和优势。为何还能拥有这么大的魔力呢?接出来,让我们一起揭露的神秘面纱。

的前世此生

是一款基于GPT自然语言处理模型(生成式预训练注意力机制模型)研制的产品,由日本“开放人工智能研究中心”公司(以下简称)推出,其背后有着一段饱含挑战和机遇的人机对抗历史。

早在20世纪50年代,计算机科学家就开始尝试通过编撰程序来模拟人类思维和智能。但是,因为当时的计算机硬件和算法限制,人工智能发展始终停滞不前。直至20世纪90年代,IBM公司的“深蓝”计算机与世界围棋亚军卡斯帕罗夫进行了一场人机大战,并最终以两胜、三平、一负的成绩击败了卡斯帕罗夫。这场历史性赛事被视为人工智能技术的重大突破,开启了计算机与人类智力大赛的新篇章。随着时间推移,人工智能技术不断变迁,2017年5月,以绝对优势击败当时世界排行第一的象棋选手柯洁,再度引起了人工智能的风潮。似乎“深蓝”和在人机博弈领域取得了惊人的成就,但其应用范围相对较窄,仅限于解决特定领域的问题。现在,却还能手动生成类似于人类的语言模型,使人与机器的交互愈发自然流畅,这也决定了具有更广泛的应用场景和更强的实用性,为人们的日常生活、工作带来更多便利。

初期的聊天机器人只能简单回答预通感题,难以进行真正的对话。但如今似乎已具备了个性化的回答能力,这是由于它使用了深层自然语言神经网路模型,并通过大量的语言数据训练,手动学习语言规律和特点。因而,它还能辨识和理解自然语言中的词汇、语法、语义等要素,生成类似于人类的自然语言文本,实现与人类的交互。

强悍的功能可以使其提升语言交互效率,并应用于银企办公、智慧家庭、客服机器人、翻译、营销、游戏、社交、教育、法律咨询等多个领域,帮助解决语言交互问题,提升工作效率。据悉,的语言编撰能力还可以应用于编撰和调试计算机程序、文学创作、政府文书编写等。例如在医疗行业,可以依照病人的病状进行确诊,给出医治建议,为大夫提供更确切的指导,在金融领域,可以按照市场情况进行剖析和预测,帮助投资者作出更优的决策。目前,许多国外公司正在研制类似的产品,其中包括阿里巴巴公司的“通义”大模型、百度公司的“文心一言”、华为公司的“盘古”大模型等。

在热度不断狂飙的同时,其强悍功能带来的安全和隐私风险也不容轻视,其中最显著的就是与深度伪造技术的结合。深度伪造技术可以轻松生成逼真的虚假内容,如文本、音频、视频等,甚至可以伪造高度逼真的政府文件,在互联网上制造欺骗和混乱。明年2月,网路上出现了一条关于某地政府将于3月1日取消限行的“新闻稿”,后来被否认是不实信息。这条消息始于某新村住户群内的一次玩笑,一位住户使用编撰了该消息,并在群内分享,许多住户听到后纷纷截图并转发,最终造成了不实信息的传播。若果不法分子将深度伪造技术与相结合,则可能会带来更大的危险,虚假信息的猖獗必定造成政治、经济、社会等多个领域的回落。

与此同时,因为布署在美国,它所使用的训练数据集囊括了大量“西方意识形态”数据,这可能造成模型的输出结果具有歧视性、攻击性和不当内容等。比如,在回答“俄乌问题”上,抒发出极端的“西方意识形态”色彩,严重影响公众判定,这也须要导致我们的提防。

据悉,因为具有自主学习和生成能力,很有可能通过学习用户输入的信息引导用户输入更多敏感信息,以进一步提升其对敏感信息的学习和应用能力。诸如,亚马逊公司律师曾警告职工不要与分享“任何亚马逊的绝密信息”,由于输入的信息可能会被用作的训练数据,从而影响到亚马逊的商业绝密与核心竞争力。因而,对于的安全保密风险,我们须要给与足够的注重和关注。

的风险隐患

图片[1]-ChatGPT | 热度在狂飙 安全保密如何“避坑”-云上资源整合网

作为一项新兴的数字技术,人工智能正在以其强劲的力量影响世界。在人们对其形成好奇、兴奋或担心、抵触等情绪时,怎样应对人工智能带来的风险,当心相关失泄露隐患亦变得尤为重要。

1.网路功击风险。强悍的编程功能,可将网路功击的难度增加到一个“新手”就可以操控的程度。目前已有证据表明,不少网路功击者正使用开发功击工具。一是使用创建新的木马,功击者只须要简略地描述其期望的功能,如将所有密码保存在X文件中,并发送到Y服务器上,就可以通过实现信息泄露,而不须要任何编程技能。二是使用暴力破解数据库,按照已公开的用户名和密码组合进行撞库功击,盗取数据库中的信息。三是借助编撰网路垂钓电邮,因擅长模仿人类思维,编撰的网路垂钓电邮鲜有拼写错误或奇怪的格式,因而很容易逃过网路垂钓电邮检查,并促使生成的网路垂钓电邮具有强烈的误导性。

2.数据泄露风险。在高度智能化、自动化的应用场景中,在数据获取、处理、结果展示等环节都存在重大的数据安全风险。一是数据获取阶段。用户在使用时,可能会输入自己或别人的信息数据,进而造成隐私泄漏。假如职工使用输入各种工作数据,就可能造成公司敏感信息泄漏。而一旦输入涉及国家秘密或敏感内容的信息,则无疑会引起泄露。二是数据处理阶段。会将用户输入、交互的数据用于后续持续的迭代训练,这就造成这种信息很可能被其他用户获取,因而构成数据非授权共享,从而出现数据泄露问题。

3.知识产权风险。随着使用者的降低,人文及学术创作剽窃代笔顽疾或将增多,对知识产权保护构成的挑战也日渐激化。一是版权归属风险。明年1月,权威学术刊物《》《》等宣布正在更新编辑规则,指出不能在作品中使用由(或任何其他AI工具)生成的文本、数字、图像或图形。二是学术不端风险。假如中学生在完成作业过程中,使用以为代表的AI工具,都会产生作假问题。伦敦政治学院于明年1月宣布,已向所有中学生和班主任发送电子电邮,要求其严禁使用等工具,借以避免学术抄袭。

怎么约束的潜在风险

科技界在不断追求创新和发展的同时,安全风险也应成为国家、机构和个人关注的焦点。因此,中国科技部筹建的国家新一代人工智能整治专业委员会早在2021年就发布了《新一代人工智能伦理规范》,提出将伦理道德融人人工智能研制和应用的全生命周期。类似的规范和法律在法国、美国等地也已颁布,这表明人工智能的合规整治造成了各国的广泛注重。明年1月,澳洲国家标准与技术研究院(NIST)发布了人工智能风险管理框架,为人工智能合规整治提供了可操作的路径。

围绕的使用,许多机构都制订了相关的规范性制度。一些公司如谷歌、高盛、美银、花旗、德银等,已明晰严禁职工向分享敏感数据,以防止数据泄漏。公司首席技术官米拉·穆拉蒂也表示,应当遭到监管,由于它可能被“危险分子”使用。

目前,全球各国都在制订规章制度以规范等AI产品的功能开发和场景应用,并颁布相应的法律法规确保它们的使用安全。这种规章制度应当具有前瞻性和约束性,以确保的迭代升级及相关应用场景都遭到监管,因而防止长远的风险与负面影响。为了增加使用带来的潜在风险,我们建议采取以下举措,并进一步建立监管机制。

1.建立规范性制度和相关法律,明晰及类似产品的使用范围、安全保障和信息保护等规定。这种规定应包括等应用在使用过程中可能形成的法律责任,以及维护公共利益等内容,并规定违背使用规定的行为应承当何种法律责任。同时,对及类似产品的开发、使用和运行进行监督,对违法行为进行处罚,以最大程度地防止其可能带来的负面影响。

2.构建建立的数据保护机制,包括数据加密、访问控制和数据备份等,以确保数据的安全性和保密性。使用及类似产品时,须要构建用户访问控制机制,限制毋须要的访问和使用,以防止数据泄漏和滥用。

3.提升保密教育与防范意识。一方面让职工了解及类似产品自然语言生成模型的应用场景和风险,并提升其当心性和自我保护能力;另一方面为职工提供正确使用等AI产品的培训和指导,帮助她们在工作中合理运用这种技术,以保护个人信息和敏感数据的安全。同时对于国家秘密、商业绝密等敏感信息,应严禁使用及类似产品进行处理。

文章转载于《保密工作》杂志2023年3期

免费获取chatGPT 3.5 账户,或购买GPT 4.0plus 会员账户,扫描文章内微信公众号二维码,或加微信:yuke36

© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容