OpenAI潜入黑客群聊,盗用ChatGPT被换成“喵喵GPT”,网友:绝对的传奇
当ChatGPT被黑客“入侵”时,OpenAI将如何应对?
切断API并阻止他们使用它?不,不,不。
这些极客所采取的方法可以被描述为一把剑对剑——反手录制《无间道》。
故事是这样的。
尽管OpenAI在发布ChatGPT之前做了大量的安全测试,但在打开API后,它仍然无法阻止一些恶意黑客使用它来完成任务。
然后有一天,团队中的一名工程师突然发现,ChatGPT端点上的流量有些异常;经过一些调查,已经确定有人对API(盗版API)进行逆向工程的可能性很高。
不过OpenAI并没有选择立即阻止这些黑客,因为如果团队这样做了,黑客们就会马上发现异样,然后改变策略继续攻击。
这时,团队里一个“大聪明”就支了个妙招:
我们搞成“catGPT”,每个token都是“meow”……
“陷阱”布置成功后,黑客大兄弟再向ChatGPT提问时,画风就是这样婶儿的了:
没错,不管问啥,回答都是“喵言喵语”:
喵,我不知道。我是只猫,不是只鸟!
这位黑客大兄弟起初还不知道自己早已落入“陷阱”,还发帖描述了自己神奇的经历。
不过黑客团伙中很快有人察觉到了异样:
两个代理都出现了同样的情况;我觉得我们完了(暴露了)。
团伙中还有人在Discord社区中这样讨论:
兄弟,你觉得OpenAI是发现了我们在(拿盗版API)用模型,然后开始拿“猫语promt”来回答我们吗?
若真如此,那也太搞笑了吧!
殊不知,OpenAI的成员们早就潜入了Discord社区,观望着黑客们的对话……
黑客们最终还是发现了真相,后知后觉的他们,最终在Discord中给OpenAI的团队发话了:
我很失望。我知道OpenAI的某人正在读这段文字。
你们有千载难逢的机会给我们来个“Rick Astley”(发现被整蛊时用的桥段),你们竟然就搞个猫。
对此,OpenAI的成员表示:“收到,下次我们会的”。
上面这个有趣的故事,其实是一位OpenAI工程师Evan Morikawa在一场技术分享活动中自曝的。
不少网友在看完这个故事之后,纷纷感慨道:
绝对的传奇!
尽管这个故事令人兴奋和有趣,但说白了,它也间接反映了当前大模型时代存在的安全风险。
正如Evan在活动中所说:
随着模型越来越强大,它们在坏人手中可能造成的伤害也越来越大,我们确实需要提高警惕。
此外,Evan还在活动中分享了两个与OpenAI和ChatGPT相关的“隐藏故事”。
让我们继续往下看。
OpenAI:如果GPU足够,发布会很早
Evan首先回顾了ChatGPT最初的繁荣:
从内部决定发布,到意外走红,连马斯克都发微博讨论,等等。
随后,大量用户涌入,他们当时也非常担心,因为他们的GPU能力无法承受如此大的负载。
然后Evan在现场展示了他们为ChatGPT供电的计算机,其中包含8个NVIDIA A100 GPU:
每个GPU还附带一个特殊的HPM高带宽内存;至关重要的是,他们还需要所有GPU相互通信:
Evan表示,内部每个环节的性能将影响ChatGPT的最终体验。
接下来,Evan回顾并总结了OpenAI在这个时间点最初在GPU上遇到的瓶颈。
1.GPU内存不足
由于ChatGPT模型的大尺寸,它需要大量的GPU内存来存储模型权重。GPU上的高带宽内存非常昂贵且有限,不足以同时服务于大量用户请求。这成为第一个瓶颈。
2.计算效率低
在最初阶段,通过简单的指标监测GPU利用率存在问题,这些指标没有充分考虑Tensor操作的内存访问模式。导致GPU计算能力利用不足,浪费宝贵的计算资源。
3.难以扩展
ChatGPT流量飙升,但由于整个GPU供应链的限制,GPU服务器的数量在短期内无法扩大,用户访问必须受到限制。无法自动扩张已成为一大挑战。
4.负载特性多样化
随着用户使用模式的变化,不同的模型和请求类型需要不断调整GPU的计算方法和内存访问模式,这使得优化变得困难。
5.分散训练难度
GPU之间的通信和数据交换已成为训练架构中的新瓶颈。
可以看出,OpenAI在为大型模型服务部署GPU时,由于缺乏经验,确实遇到了一些系统级的困难。但通过不断调整策略和深入优化,ChatGPT得以稳定运行。
Evan还透露:
如果不是GPU短缺,去年产品和功能的发布速度会更快。
我们已经准备好了一切,但我们也知道我们无法应付负荷。
基于上述挑战,Evan分享了从OpenAI中学到的经验教训:
将问题视为系统工程的挑战,而不仅仅是研究项目;需要优化各种系统组件的协同工作,如缓存、网络、批量大小等。
深入了解硬件的底层细节及其对系统的影响,例如GPU内存带宽、操作数/字节等对性能的影响;不能停留在表面指示器处。
根据模型和场景变化不断调整系统;不同的模型结构和使用场景可能会对系统提出不同的要求。
考虑各种硬件限制,如内存和计算能力平衡、扩展限制等,这些限制可能会影响产品路线图;传统的云扩展体验不能简单应用。
将ChatGPT视为一家初创公司
至于球队,埃文也介绍了。
ChatGPT推出时,应用工程团队只有大约30人,发布后仅10个月就扩大到近100人。
OpenAI一直在寻求增加员工数量和保持高人才密度之间的平衡。最初,他们希望团队尽可能小,以保持高效的迭代文化。
然而,随着产品规模的增长,许多功能只得到少数人的支持,这带来了一定的风险。因此,决定在一定程度上扩大。
Evan关于团队建设的分享值得一提。
这就是他所相信的:
不要将ChatGPT视为OpenAI的一个部门。
三年前,他们尝试使用API来做像ChatGPT这样的事情,所以在Evan看来----
ChatGPT更像是一家10月份成立的初创公司,嵌套在三年前的一家初创公司中;这家成立三年的初创公司嵌套在一家成立八年的名为OpenAI的初创公司中。
接下来,如果公司继续推出新产品,Evan希望继续使用这种模式。
参考链接:
[1]https://www.youtube.com/watch?v=PeKMEXUrlq4
[2]https://twitter.com/random_walker/status/1719342958137233605?s=20
[3]https://twitter.com/nearcyan/status/1719225443788935372?s=20
本文来自微信公众号“量子位”(ID:QbitAI)
天河软件作为安全可信的工业软件及云应用提供商,深耕工业软件已近三十年,自主研发的工业软件产品和云服务覆盖CAD、CAPP、PLM、数字孪生工厂领域,拥有三大系列百余项自主知识产权产品。经过多年的发展,天河软件涵盖从设计到工艺,从工艺到研发管理,从研发管理到生产制造,再到质量管理的全系列数字化精益生产解决方案,已在航天航空、兵器军工、高铁机车、船舶制造、电站能源设备等高端装备制造领域拥有大量的标杆用户。
本文来源于互联网,天河软件本着传播知识、有益学习和研究的目的进行的转载,为网友免费提供,并已尽力标明作者与出处,如有著作权人或出版方提出异议,本站将立即删除。如果您对文章转载有任何疑问请告之我们,以便我们及时纠正。联系方式:thsoft@thsoft.com.cn