GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等平安畛域利用的常识。在这里,您能够找到对于 GPT/AIGC/LLM 最新的钻研论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的奉献内容,现总结如下。
Security Papers
1. 利用大语言模型进行破绽检测方面的停顿总结
简介:随着软件变得越来越简单且容易呈现破绽,自动化破绽检测变得至关重要,但也具备挑战性。随着大语言模型(LLMs)在各种工作中获得重大胜利,人们对它们在破绽检测中的效劳越来越期待。然而,对它们在破绽检测中的后劲不足定量的了解。为了补救这一差距,研究者引入了一个全面的破绽基准 VulBench。该基准会集了来自各种 CTF(夺旗)挑战和实在应用程序的高质量数据,为每个易受攻击的函数提供了具体的破绽类型和其根本原因的正文。通过对 16 个 LLMs 和 6 个最先进的基于深度学习的模型和动态分析器的试验,研究者发现一些 LLMs 在破绽检测方面优于传统的深度学习办法,揭示了 LLMs 在这一畛域尚未开发的后劲。这项工作有助于了解和利用 LLMs 来加强软件安全性。
链接:https://arxiv.org/pdf/2311.12420.pdf
2. 在软件浸透测试中应用大语言模型的初步钻研
简介:大语言模型(LLM)在软件浸透测试中具备后劲,可能与人类操作员进行交互,逐渐改良特定的平安工作。通过设计输出提醒来提供上下文和构造,能够使模型提供更精确的后果。利用 LLM 构建的 AI 智能体在软件浸透测试中展示了可行性,并且能够通过重复应用和提醒工程的工程办法来进一步改良。
链接:https://browse.arxiv.org/pdf/2401.17459.pdf
3.LLM4SecHW:利用特定畛域的大语言模型进行硬件调试
简介:这篇论文介绍了一种名为 LLM4SECHW 的新框架,利用畛域特定的大语言模型(LLM)进行硬件调试。该框架通过编译版本控制数据集,实现了对硬件设计中谬误的辨认和修改,并在多种开源硬件设计上展现了其有效性。这种办法为其余畛域中应用领域特定 LLM 的微调提供了参考工作流程,并为硬件设计中的自动化品质管制过程带来了新的视角。
链接:https://browse.arxiv.org/pdf/2401.16448.pdf
4.LLM 的平安代码审查:深入调查响应
简介:该钻研对三种最先进的大语言模型(Gemini Pro、GPT- 4 和 GPT-3.5)在 549 个蕴含实在代码审查的平安缺点的代码文件上的检测性能进行了比拟。结果显示,LLMs 生成的响应存在简短、含混和不残缺的问题,须要晋升其简洁性、可了解性和合乎平安缺点检测的能力。
链接:https://browse.arxiv.org/pdf/2401.16310.pdf
5. 基于笼罩疏导强化学习与以大语言模型为根底进行变异的 JavaScript 含糊测试引擎
简介:本文提出了一种名为 CovRL 的新技术,该技术将大语言模型与笼罩反馈的强化学习相结合,旨在进步含糊测试的成果。CovRL-Fuzz 含糊器通过构建加权笼罩图和计算含糊测试处分,能够生成更可能发现新笼罩区域的测试用例,从而进步破绽检测能力,同时最小化语法和语义谬误。评估结果显示,CovRL-Fuzz 在代码覆盖率和谬误发现能力方面超过了以后最先进的含糊器,发现了 48 个与平安相干的理论谬误,其中包含 39 个以前未知的破绽和 11 个 CVE。
链接:https://arxiv.org/pdf/2402.12222.pdf