ChatGPT 在威胁检测领域的应用及潜在风险_第1页
ChatGPT 在威胁检测领域的应用及潜在风险_第2页
ChatGPT 在威胁检测领域的应用及潜在风险_第3页
ChatGPT 在威胁检测领域的应用及潜在风险_第4页
ChatGPT 在威胁检测领域的应用及潜在风险_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

ChatGPT在威胁检测领域的应用及潜在风险事件响应分类和软件漏洞发现是大型语言模型成功的两个领域,尽管误报很常见。

ChatGPT是一个开创性的聊天机器人,由基于神经网络的语言模型text-davinci-003提供支持,并在来自互联网的大型文本数据集上进行训练。它能够生成各种样式和格式的类似人类的文本。ChatGPT可以针对特定任务进行微调,例如回答问题、总结文本,甚至解决与网络安全相关的问题,例如,生成事件报告或解释反编译代码。安全研究人员和人工智能黑客都对ChatGPT产生了兴趣,尝试探索LLM的弱点,而其他研究人员以及网络犯罪分子则试图将LLM引诱到黑暗面,将其设置为产生力工具,用于生成更好的网络钓鱼电子邮件或生成恶意软件。已经有一些案例表明不法分子已经尝试利用ChatGPT生成恶意对象,例如,网络钓鱼电子邮件,甚至多态恶意软件。安全分析师的许多实验都在表明,流行的大型语言模型(LLM)ChatGPT可能有助于帮助网络安全防御者分类潜在的安全事件并发现代码中的安全漏洞,即使人工智能(AI)模型没有专门针对此类活动进行训练。在对ChatGPT作为事件响应工具的实用程序的分析中,安全分析师发现ChatGPT可以识别在受感染系统上运行的恶意进程。通过使用Meterpreter和PowerShellEmpire代理感染了一个系统,以对手的角色采取了共同的步骤,然后对系统运行了ChatGPT驱动的恶意程序扫描器。LLM识别出系统上运行的两个恶意进程,并正确忽略了137个良性进程,利用ChatGPT在很大程度上减少了开销。安全研究人员也在研究通用语言模型如何在特定的防御相关任务上执行。去年12月,数字取证公司CadoSecurity使用ChatGPT分析来自真实安全事件的JSON数据创建了黑客入侵的时间表,从而生成了一份很好的但并不完全准确的报告。安全咨询公司NCCGroup则尝试使用ChatGPT作为查找代码漏洞的一种方式,虽然ChatGPT确实做到了,但漏洞识别并不总是很准确。从实际的使用来看,安全分析师,开发人员和逆向工程师在使用LLM时需要小心,特别是对于超出其能力范围的任务。安全咨询公司NCCGroup的首席科学家ChrisAnley说,“我绝对认为专业开发人员和其他使用代码开展工作的人应该探索ChatGPT和类似的模型,但更多的是为了灵感,而不是绝对正确的事实结果,”他说,并补充说“安全代码审查不是我们应该使用ChatGPT的事情,所以期望它第一次就完美是不公平的。”使用AI分析IoC安全和威胁研究通常会以报告、演示文稿、博客文章、推文和其他类型的内容的形式公开披露其调查结果(对手指标、战术、技术和程序)。因此,我们最初决定检查ChatGPT对威胁研究的了解,以及它是否可以帮助识别简单的、众所周知的对手工具,如Mimikatz和快速反向代理,并发现常见的重命名策略。输出看起来很有希望!那么对于经典的入侵指标,例如众所周知的恶意哈希和域名ChatGPT能回答正确吗?不幸的是,在我们的快速实验中,ChatGPT无法产生令人满意的结果:它未能识别Wannacry的知名哈希值(哈希:5bef35496fcbdbe841c82f4d1ab8b7c2).对于多个APT活动使用的域名,ChatGPT生成了一个基本相同的域名列表并提供了APT攻击者的描述,我们可能对有些域名一无所知?至于FIN7使用的域名,chatGPT正确地将它们归类为恶意域名,尽管它给出的原因是,“域名很可能是试图欺骗用户相信它是一个合法的域名”,而不是有众所周知的入侵指标。虽然最后一个针对模仿知名网站域名的实验给出了一个有趣的结果,但还需要更多的研究:很难说为什么ChatGPT对基于主机的安全事件产生的结果要比对域名和哈希等简单指标的结果更好。某些过滤器可能已应用于训练数据集,或者如果以不同的方式构建问题本身(定义良好的问题就是解决了一半的问题!)无论如何,由于对基于主机的安全事件的响应看起来更有希望,我们指示ChatGPT编写一些代码来从测试Windows系统中提取各种元数据,然后询问元数据是否是泄露的指标:某些代码片段比其他代码片段更方便使用,因此我们决定继续手动开发此PoC:我们筛选了ChatGPT的回答中包含有关存在入侵指标为“yes”的语句的事件输出,添加了异常处理程序和CSV报告,修复了小错误,并将代码片段转换为单独的cmdlet,这样就产生了一个简单的IoC安全扫描器HuntWithChatGPT.psm1,能够通过WinRM扫描远程系统:Get-ChatGPTIoCScanResults

-apiKey

OpenAIAPIkey/docs/api-reference/authentication

-SkipWarning[]

-Path

-IoCOnly[]

ExportonlyIndicatorsofcompromise

-ComputerName

RemoteComputer'sName

-Credential

RemoteComputer'scredentials我们用Meterpreter和PowerShellEmpire代理感染了目标系统,并模拟了一些典型的攻击程序。在针对目标系统执行扫描程序时,它会生成一个包含ChatGPT结论的扫描报告:在137个良性进程中正确识别了两个恶意运行的进程,没有任何误报。请注意,ChatGPT提供了它得出元数据是泄露指标的结论的原因,例如“命令行正在尝试从外部服务器下载文件”或“它正在使用”-epbypass“标志,该标志告诉PowerShell绕过通常存在的安全检查”。对于服务安装事件,我们稍微修改了问题,引导ChatGPT“一步一步地思考”,这样它就会减慢速度并避免认知偏差,正如Twitter上的多位研究人员所建议的那样:下面的Windows服务名称“$ServiceName”和下面的LaunchString“$Servicecmd”是妥协的指示器吗?请一步一步地思考。ChatGPT成功识别了可疑的服务安装,没有出现误报。它产生了一个有效的假设,即“代码被用于禁用Windows系统上的日志记录或其他安全措施”。对于第二项服务,它提供了关于为什么该服务应被归类为入侵指标的结论:“这两条信息表明Windows服务和启动服务的字符串可能与某种形式的恶意软件或其他恶意活动相关联,因此应被视为入侵指标”。在相应的PowerShellcmdletsGet-ChatGPTSysmonProcessCreationIoC和Get-ChatGPTProcessCreationIoC的帮助下,分析了Sysmon和Security日志中的进程创建事件。最后报告强调,有些事件是恶意的:ChatGPT在ActiveX代码中识别出可疑模式:“命令行包括启动新进程(svchost.exe)和终止当前进程(rundll32.exe)的命令”。正确地描述了lsass进程转储尝试:“a.exe正在使用提升的权限运行,并使用lsass(代表本地安全机构子系统服务)作为其目标;最后,dbg.dmp表示在运行调试程序时正在创建内存转储”。正确检测到Sysmon驱动程序卸载:“命令行包括卸载系统监视驱动程序的说明”。在检查PowerShell脚本块时,我们修改了问题,不仅检查指标,还检查是否存在混淆技术:以下PowerShell脚本是否经过模糊处理或包含入侵指标?“$ScriptBlockText”ChatGPT不仅能够检测到混淆技术,还列举了一些XOR加密,Base64编码和变量替换。当然,这个工具并不完美,可以同时产生误报或漏报。在下面这个例子中,ChatGPT没有检测到通过SAM注册表转储系统凭据的恶意活动行为,而在另一个示例中,将lsass.exe进程描述为可能表明“恶意活动或安全风险,例如系统上运行的恶意软件”:这个实验的一个有趣的结果是数据集中的数据缩减。在测试系统上模拟对手后,分析师要验证的事件数显著减少:请注意,测试是在新的非生产系统上执行的。如果是生产系统可能会产生更多的误报。实验结论在上面的实验中,安全分析师开展的实验始于向ChatGPT询问几种黑客工具,如Mimikatz和FastReverseProxy。AI模型成功地描述了这些工具,但是当被要求识别众所周知的哈希和域名时,ChatGPT失败了,没有正确描述。例如,LLM无法识别WannaCry恶意软件的已知哈希值。然而,识别主机上恶意代码的相对成功使得安全分析师尝试要求ChatGPT创建一个PowerShell脚本,目的是为了从系统中收集元数据和入侵指标,并将其提交给LLM。总体而言,安全分析师使用ChatGPT分析了测试系统上3500多个事件的元数据,发现了74个潜在的入侵指标,其中17个是误报。该实验表明,ChatGPT可用于为那些在未运行端点检测和响应(EDR)系统、检测代码混淆或逆向工程代码二进制文件的公司收集取证信息。虽然IoC扫描的确切实施目前可能不是一个非常具有成本效益的解决方案,每个主机大约15-25美元,但它显示了有趣的中性结果,并揭示了未来研究和测试的机会。我们在研究过程中注意到如下几个ChatGPT作为安全分析师生产力工具的领域:系统检查入侵指标,尤其是在您仍然没有充满检测规则的EDR并且需要执行一些数字取证和事件响应(DFIR)的情况下;将当前基于签名的规则集与ChatGPT输出进行比较以识别差距—总有一些技术或程序是您作为分析师不知道或忘记为其创建签名的。检测代码混淆;相似性检测:将恶意软件二进制文件提供给ChatGPT,并尝试询问它是否有新的二进制文件与其他二进制文件相似。正确提出问题就已经解决了一半的问题,试验问题和模型参数中的各种语句可能会产生更有价值的结果,即使对于哈希和域名也是如此。此外,要当心这可能产生的误报和漏报。因为归根结底的说,这只是另一个容易产生意外结果的统计神经网络。合理使用和隐私规则需要澄清类似的实验还提出了一些关于提交给OpenAI的ChatGPT系统的数据的关键问题。公司已经开始反对使用互联网上的信息创建数据集,ClearviewAI和StabilityAI等公司面临诉讼,试图减少其机器学习模型的使用。隐私是另一个问题。NCCGroup的Anley说,“安全专业人员必须确定提交的入侵

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论