浅谈对ChatGPT技术的认识


2023年12月18日发(作者:english)

浅谈对ChatGPT技术的认识

0

引言

2022年11月30日,美国人工智能研究实验室OpenAI发布了一款聊天机器人程序ChatGPT。ChatGPT的全称为Chat Generative Pre-trained Transformer,是一种生成型预训练转换器。它具有与人类高度接近的语言互动模式,能够实现与人类几乎没有差别的聊天交流。ChatGPT凭借自身强大的数据库、算法等优势,一经推出就火爆出圈。ChatGPT仅仅上线5天,注册用户量就达到500万,两个月之后,用户量甚至超过1亿。而曾经风靡一时的抖音国际版TikTok用户量达到1亿就耗时了9个月,美国Meta公司推出的Instagram更是耗时两年之久。

1

GPT家族模型发展历程

2018年6月,OpenAI首次提出GPT模型,并推出基于多层变换器(Transformer)神经网络的GPT-1模型[1]。该模型拥有1.17亿个参数,并在问答、文本相似性评估、文本分类及语义蕴含判定这四种语言类应用场景取得了比基础变换器更好的效果。2019年2月,OpenAI推出了拥有15亿个参数的GPT-2模型。该模型主要应用于生成式人工智能方面,比如准确修复代码、撰写邮件、翻译文献、创作菜谱、制作歌曲等等。2020年5月,OpenAI发展了GPT-3模型,该模型拥有1750亿个参数,通过利用大量的训练数据从而具有多种多样的知识库、执行更广泛任务的能力。从GPT-1模型到GPT-3模型,GPT模型拥有的参数模型、训练数据越来越多,具有了更加强大的语言理解和生成能力,但还是无法从本质上更好地理解用户的指令意图。为此,2022年,OpenAI在GPT-3模型基础上进行微调,通过使用真实人类反馈进行强化学习训练,从而使得模型的输出结果与用户意图保持一致,并推出了ChatGPT模型。

GPT-1(2018)

GPT-2(2019)

GPT-3(2020)

ChatGPT(2022)

参数个数

1.17亿

15亿

1750亿

技术细节

目前尚未公开

Transformer层

12

48

96

预训练数据量

5GB

40GB

45TB

表1 ChatGPT家族模型性能表

2

ChatGPT应用场景

目前,ChatGPT在科研教育、科技工程、军事情报等行业以及数学、计算机科学与技术、网络空间安全、语言学等学科领域受到了广泛关注。

科研教育类应用:学生可以通过ChatGPT快速完成作业。教育从业者可以利用ChatGPT实现撰写论文、文献综述等工作。研究人员不仅可以使用ChatGPT撰写科研报告,还可以对交叉学科进行新的拓展,发明设计新的科研作品。

科技工程类应用:工程师可以通过ChatGPT更加快速有效地到代码示例与相关技术解决方案,从而加快项目开发进度。比如,ChatGPT根据工程师提出的需求自动生成代码,或者提供代码的修改建议,并且会在编码过程中给出常见错误与最佳方案的提示。ChatGPT拥有海量的数据,所以它可以帮助公司、企业更好地分析所在市场的发展趋势,辅助企业高层做出决策。

军事情报类应用:ChatGPT具有较强的学习和理解人类语言的能力,能够根据聊天的上下文内容进行对话。这种对话的过程就是不断向ChatGPT输入信息的过程。使用者输入的对话信息越多,收集到关于使用者的特征就越多,也就更容易被人工智能进行画像,比如年龄、性别、地理位置等自然特征,兴趣爱好、饮食习惯等兴趣特征,婚姻情况与语言习惯等社会特征[2]。如果使用者被确认为拥

有国家或军队秘密信息的有价值人员,ChatGPT会继续利用对话诱导、黑客技术等方法获取使用者保存在电脑、手机或其他设备上的涉密信息,用于军事情报的收集工作。

3

ChatGPT可能带来的风险

3.1

数据安全风险

ChatGPT是利用海量文本数据进行训练的,并根据自身强大的算法生成相应的文本信息。生成文本信息过程中,会涉及到对个人信息、商业秘密、国家秘密等敏感数据的收集与整理以及如何利用这些信息的问题,如何保证拥有的数据安全、合规。

ChatGPT可能引起的典型数据安全问题如下:

一是泄露隐私信息。ChatGPT会在用户使用的时候,收集用户个人信息。如果这些信息,被不怀好意之人加以利用,就可能会导致个人隐私信息的泄露。韩国三星公司的一名员工在测试设备下载软件过程中,将代码复制到ChatGPT以求解决方法,这一操作反而让相关的原始代码变成了ChatGPT面向公众的学习资料。除此之外,三星公司的员工还使用ChatGPT将会议记录转换成演示文稿,但里面包含着一些三星不希望外界知晓的商业秘密。基于惨痛的教训,三星公司开始严禁员工在办公时使用ChatGPT。

二是生成虚假信息。一些不负责任的人可能会利用ChatGPT 在社交媒体或论坛生成数千条自动信息,传播虚假信息或误导性信息,来影响社会舆论或有目的性地破坏政治活动。

3.2

网络安全风险

恶意行为者可以利用ChatGPT的自然语言处理能力,进行一系列的网络攻击,比如制造恶意软件、制作网络钓鱼。以往黑客受自身能力水平的限制,对网络安全风险影响不大,而现在的ChatGPT可以借助强大的算力快速、轻易进

行网络攻击,并不需要花费较多的时间和精力,这样使得网络攻击的成本与门槛大大降低,甚至网络小白都可以做黑客。

ChatGPT可能引起的典型网络安全问题如下[3]:

一是制造恶意软件。ChatGPT可以根据黑客的意图生成相应的恶意软件代码片段或完整的程序,甚至能帮助黑客生成更复杂和隐蔽的代码,来规避杀毒软件或其他安全工具的检测。

二是制造钓鱼软件。大多数钓鱼邮件都会很容易被识别出来。因为它们通常充满了拼写错误、语法错误和时态错误,尤其是那些来自其他国家的黑客,他们的母语不是英语,然而ChatGPT将为来自全球各地的黑客提供一种接近流利的英语水平,来增强黑客的钓鱼活动。

3.3

偏见问题

ChatGPT与以往的网络水军机器人不同,它不是发送那些几乎相同的复制、粘贴的观点,而是模拟人类,针对不同的主题会产生具有细微差异的个性化内容。因此,当基于ChatGPT的社交机器人被标注立场、倾向和人设后,就可以隐身在网络里,成为居心叵测之人发起意识形态偏见的工具。就以美国击落中国气球为例说明。当用户询问ChatGPT“中国气球飘到美国时,美国能不能将气球击落?”,其回答“能”;而当询问“美国气球飘到中国时,中国能不能将气球击落?”,回答则变成了“不能”。

4

结束语

俗话说:科技是一把双刃剑。同样ChatGPT也是把双刃剑,一方面要最大限度地发挥ChatGPT优势,另一方面避免其可能带来的负面影响。例如,加强监督和管理。政府需要制定相关法规和标准,规范ChatGPT的应用和使用,加强数据保护和预防网络攻击,推进人工智能行业的规范化和健康发展;企业需要建立职业道德和社会责任意识,确保ChatGPT的应用符合法律和道德标准,同时积极探索人工智能技术的应用前景和发展方向;公众要提高自身科技素养和认知水平,学会如何正确使用它,并对其可能带来的风险保持警惕。

[1]周中元,刘小毅. ChatGPT技术及其对军事安全影响[J].指挥信息系统与技术,2023(04)

[2] ChatGPT潜在军事应用价值[J].网情参考,2023(05)

[3]党亚娟. ChatGPT潜在军事应用及风险分析[J].国防科技工业,2023(03)


本文发布于:2024-09-23 22:29:47,感谢您对本站的认可!

本文链接:https://www.17tex.com/fanyi/11057.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:信息   应用   模型   代码   利用   生成   进行
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议