做网站一定需要自己买主机吗,上海 网站工作室,企业网站建设的重要性,新乡市网架公司GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区#xff0c;集成了生成预训练Transformer#xff08;GPT#xff09;、人工智能生成内容#xff08;AIGC#xff09;以及大语言模型#xff08;LLM#xff09;等安全领域应用的知识。在这里#xff0c;您可以找… GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区集成了生成预训练TransformerGPT、人工智能生成内容AIGC以及大语言模型LLM等安全领域应用的知识。在这里您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令Prompts。现为了更好地知悉近一周的贡献内容现总结如下。 Security Papers 1. 解释型恶意软件中的战术、技术和程序 (TTPs)基于大语言模型的零样本生成
简介本文提出了将MITRE ATTCK的战术、技术和程序TTPs引入解释型恶意软件分析以表征攻击生命周期的不同阶段。研究者开发了GENTTP一种零样本生成方法通过大语言模型LLMs从恶意软件包中自动提取TTPs输出欺骗性战术和攻击向量的执行战术。实验验证了GENTTP的高效性和准确性。基于3,700多个PyPI恶意软件的TTPs研究者构建了一个基于LLM的聊天机器人并对大规模恶意软件TTPs进行了定量分析。主要发现包括许多OSS恶意包共享相对稳定的TTPTTP反映了攻击特征且攻击者的意图与TTP相关。
链接
https://arxiv.org/abs/2407.08532
2. eyeballvul一个面向未来的野外漏洞检测基准
简介最近的大语言模型LLM长上下文能力开启了一种新用例要求模型在整个代码库中查找安全漏洞。为了评估模型在此任务中的表现研究者引入了eyeballvul一个旨在大规模测试语言模型漏洞检测能力的基准该基准每周从开源代码库中发布的漏洞流中获取并更新。基准包含不同代码库中的修订列表每个修订都关联了已知漏洞列表。研究者使用基于LLM的评分器将模型返回的可能漏洞列表与每个修订的已知漏洞列表进行比较。截至2024年7月eyeballvul包含超过24,000个漏洞跨越6,000多个修订和5,000多个代码库总大小约为55GB。
链接
https://arxiv.org/abs/2407.08708
3. 使用大语言模型LLM反汇编混淆可执行文件
简介反汇编混淆可执行文件是一项挑战特别是当这些文件包含垃圾字节旨在引发反汇编错误时。现有解决方案依赖启发式方法或机器学习技术但效果有限。大语言模型LLMs的出现使得深入理解二进制可执行文件的语义成为可能。本文介绍了DisasLLM一种新型的基于LLM的反汇编器专为分析混淆可执行文件设计。DisasLLM包含两个主要组件一个基于LLM的分类器用于判断汇编代码片段中的指令是否正确解码以及一种利用该模型的端到端反汇编策略。研究者在一组高度混淆的可执行文件上对DisasLLM进行了评估结果显示其显著优于其他最先进的反汇编解决方案。
链接
https://arxiv.org/abs/2407.08924
4. 关于LLM应用商店的不安全性
简介LLM应用商店的快速增长引发了安全问题。在本研究中研究者提出了一个三层框架来识别LLM应用的潜在安全风险包括具有滥用潜力、恶意意图和可利用漏洞的应用。研究者在五个月内从六大应用商店GPT Store、FlowGPT、Poe、Coze、Cici和一个HTTP URL收集了786,036个LLM应用。通过静态和动态分析开发了包含31,783个条目的有害词典ToxicDict并使用自动监控工具识别和缓解威胁。研究发现15,146个应用存在误导性描述1,366个应用违规收集敏感信息15,996个应用生成仇恨言论、自残和极端主义等有害内容。此外有616个应用可用于生成恶意软件和网络钓鱼。研究结果强调了制定强有力监管框架和增强执行机制的紧迫性。
链接
https://arxiv.org/abs/2407.08422
5. TDML -- 一个值得信赖的分布式机器学习框架
简介近年来深度学习研究迅速发展推出了如OpenAI的SORA和GPT、Meta AI的LLAMA系列以及Google的FLAN、BART和Gemini等大型模型。然而这些模型的发展加剧了对计算资源特别是GPU的需求而供应链延误和大公司垄断进一步加剧了这一问题。分布式机器学习DML方法如联邦学习FL通过将数据和模型分布到多个服务器上来缓解这些挑战但实现复杂的优化仍然困难。区块链技术作为有前景的解决方案可以确保数据完整性、可扩展性和可信度但缺乏实际指导。本文提出了一个值得信赖的分布式机器学习TDML框架利用区块链协调远程训练者并验证工作负载实现隐私、透明和高效的模型训练。实验结果显示TDML在性能提升和恶意节点检测方面表现优异是可扩展、安全的分布式机器学习解决方案。
链接
https://arxiv.org/abs/2407.07339
6. 安全代码生成的提示技术一项系统性研究
简介大语言模型LLMs在软件开发中越来越受欢迎通过提示驱动编程使开发者能够从自然语言NL指令中生成代码。然而研究质疑其生成安全代码的能力影响了提示生成的软件质量。各种提示技术已经出现以优化LLMs的响应但这些策略与安全代码生成之间的关系仍未得到充分探索。本研究旨在探讨不同提示技术对LLMs生成代码安全性的影响。研究者首先进行系统文献综述确定现有的提示技术然后在GPT-3、GPT-3.5和GPT-4模型上评估部分技术的安全代码生成效果。使用包含150个与安全相关的代码生成提示的数据集结果显示特别是“递归批评和改进”RCI技术能显著减少安全弱点为LLM生成代码的安全性提供了宝贵见解。
链接
https://arxiv.org/abs/2407.07064
7. PEER通过多智能体框架和调整方法实现领域特定任务的专家化
简介在特定领域应用中尽管GPT-4通过精确提示或检索增强生成RAG展现出潜力但面临性能、成本和数据隐私的三难困境。高性能需要复杂处理技术而管理多个智能体的复杂流程往往昂贵且具挑战性。研究者引入了PEER计划、执行、表达、评审多智能体框架通过精确问题分解、信息检索、综合总结和自我评估来系统化领域特定任务。企业为平衡成本、安全和性能正在从GPT-4转向自定义模型。研究者开发了利用在线数据和用户反馈的高效模型调整方法。本研究为领域特定问题解决中的多智能体系统应用及有效调整策略提供了指南。实证研究表明特别是在金融问答领域研究者的方法在管理成本和确保数据隐私的同时达到了GPT-4性能的95.0%。
链接
https://arxiv.org/abs/2407.06985