当前位置: 首页 > news >正文

为wordpress移动端谷歌seo关键词优化

为wordpress移动端,谷歌seo关键词优化,网站虚假备案,做赌场网站犯法么计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23 本期#xff0c;我们对大语言模型在表情推荐, 软件安全和 自动化软件漏洞检测等方面如何应用#xff0c;提供几篇最新的参考文章。 1 Semantics Preserving Emoji Recommendation with Large Language Mod…计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23 本期我们对大语言模型在表情推荐, 软件安全和 自动化软件漏洞检测等方面如何应用提供几篇最新的参考文章。 1 Semantics Preserving Emoji Recommendation with Large Language Models Z Qiu, K Qiu, H Lyu, W Xiong, J Luo - arXiv preprint arXiv:2409.10760, 2024 使用大型语言模型进行语义保持的 Emoji 推荐 摘要 Emoji 已经成为数字通信中不可或缺的一部分通过传达情感、语气和意图来丰富文本。现有的 Emoji 推荐方法主要基于它们与用户原始文本中选择的确切 Emoji 匹配的能力进行评估。然而它们忽略了社交媒体上用户行为的本质即每段文本都可以对应多个合理的 Emoji。为了更好地评估模型与现实世界 Emoji 使用的一致性我们提出了一个新的语义保持评估框架用于 Emoji 推荐该框架衡量模型推荐与用户文本保持语义一致性的 Emoji 的能力。为了评估模型保持语义的能力我们评估预测的情感状态、人口统计特征和态度立场是否保持不变。如果这些属性得以保留我们认为推荐的 Emoji 保持了原始语义。大型语言模型LLMs在理解和生成细微、相关上下文输出方面的高级能力使它们非常适合处理语义保持 Emoji 推荐的复杂性。为此我们构建了一个全面的基准测试系统地评估了六种专有和开源 LLMs 使用不同提示技术在我们的任务上的性能。我们的实验表明GPT-4o 在其他 LLMs 中表现最佳达到了 79.23% 的语义保持分数。此外我们进行了案例研究分析了模型在下游分类任务中的偏见并评估了推荐的 Emoji 的多样性。 创新点 提出了一个新的语义保持评估框架用于评估 Emoji 推荐模型。利用大型语言模型LLMs进行 Emoji 推荐考虑了模型在理解和生成相关上下文输出方面的能力。开发了一套全面的基准测试评估了多种 LLMs 在 Emoji 推荐任务上的性能。 算法模型 使用了六种不同的专有和开源大型语言模型LLMs包括 GPT-4o。构建了基于不同提示技术zero-shot, few-shot, conditional generation的评估方法。利用五个下游分类任务情感分析、情绪分类、立场检测、年龄预测、性别预测来评估语义保持能力。 实验效果 GPT-4o 在所有模型中表现最佳达到了 79.23% 的语义保持分数。通过条件推荐方法考虑用户画像信息所有模型的推荐性能都有显著提升。案例研究显示模型在特定类别如性别分类中的“女性”类别中存在偏差。 推荐阅读指数 ★★★★☆ 推荐理由 这篇论文在自然语言处理和用户交互领域具有创新性特别是在利用大型语言模型进行 Emoji 推荐方面。它提出的语义保持评估框架对于评估和改进未来的 Emoji 推荐系统具有重要意义。此外论文中关于模型偏见的分析也为理解和改进 AI 模型的公平性和无偏见性提供了有价值的见解。对于研究 Emoji 使用、推荐系统或大型语言模型的学者和从业者来说这是一篇值得一读的论文。 2. Detection Made Easy: Potentials of Large Language Models for Solidity Vulnerabilities MT Alam, R Halder, A Maiti - arXiv preprint arXiv:2409.10574, 2024 简化检测大型语言模型在 Solidity 漏洞检测中的潜力 摘要 随着以太坊主网上 Solidity 智能合约的大规模部署近年来吸引了越来越多出于财务动机的攻击者。本文介绍了如何使用大型语言模型LLMs检测 Solidity 中的 OWASP 十大漏洞。作者提出了一个新颖的、类别平衡的、结构化且标记的数据集 VulSmart用于基准测试和比较多个开源和闭源 LLMs 的性能。通过自动化和手动评估使用 BLEU 和 ROUGE 指标评估漏洞检测的有效性。研究发现经过微调的闭源模型 GPT-3.5 Turbo 和 GPT-4o Mini 在漏洞检测、确定漏洞类型和严重性的准确性上达到了 99%、94% 和 98%。SmartVD 框架在“思维链”提示技术下表现最佳而微调后的闭源模型在“零样本”提示方法下表现优异。 创新点 提出了一个新的数据集 VulSmart用于智能合约漏洞检测。开发了 SmartVD 框架利用 LLMs 进行漏洞类型和严重性的多类分类及生成。对比了多种开源和闭源 LLMs 在漏洞检测任务上的性能。探索了不同的提示策略零样本、少样本、思维链对 LLMs 漏洞检测能力的影响。 算法模型 使用了包括 CodeLlama、Llama2、CodeT5、Falcon 等开源 LLMs以及 GPT-3.5 Turbo 和 GPT-4o Mini 等闭源模型。SmartVD 框架通过微调预训练的 Codelama 模型构建包括输入层、标记化层、嵌入层、注意力层、LoRA 单元、归一化层和输出层。采用了二元分类和多类分类及生成的方法来评估模型。 实验效果 GPT-3.5 在漏洞分类任务中表现最佳准确率达到 78%经过微调后准确率提升至 99%。SmartVD 框架在“思维链”提示技术下表现最佳而微调后的闭源模型在“零样本”提示方法下表现优异。在对抗性攻击测试中闭源 LLMs 显示出完全的抵抗力而开源 LLMs 的表现有所下降。 推荐阅读指数 ★★★★☆ 推荐理由 这篇论文针对智能合约安全领域特别是 Solidity 语言的漏洞检测问题提出了创新的数据集和基于 LLMs 的检测框架。研究不仅提供了深入的分析和实验验证还探讨了不同的提示策略对模型性能的影响这对于理解 LLMs 在代码分析任务中的应用具有重要意义。此外论文还考虑了对抗性攻击对模型鲁棒性的影响为未来在这一领域的研究提供了有价值的见解和方向。对于对智能合约安全、漏洞检测和 LLMs 应用感兴趣的研究人员和从业者来说这是一篇值得阅读的论文。 3. Prompt Obfuscation for Large Language Models D Pape, T Eisenhofer, L Schönherr - arXiv preprint arXiv:2409.11026, 2024 大型语言模型的提示模糊化 摘要 系统提示包括详细说明底层大型语言模型LLM执行的任务的指令可以轻松地将基础模型转变为工具和服务而开销极小。由于它们对实用性的重要影响通常被视为知识产权类似于软件产品的代码。然而通过使用提示注入可以轻易提取系统提示。迄今为止还没有有效的对策来防止系统提示的窃取所有保护努力都可能被精心制作的提示注入所绕过从而避开所有保护机制。在这项工作中我们提出了一种传统系统提示的替代方案。我们引入了提示模糊化以防止提取系统提示同时保持系统的实用性几乎没有开销。核心思想是找到原始系统提示的表示它具有相同的功能而模糊化的系统提示不包含任何允许对原始系统提示得出结论的信息。我们实现了一种基于优化的方法来找到模糊化的提示表示同时保持功能。为了评估我们的方法我们调查了八种不同的指标比较使用原始和模糊化系统提示的系统的性能我们表明模糊化版本始终与原始版本相当。我们进一步进行了三种不同的去模糊化攻击涵盖了不同攻击者知识包括黑盒和白盒攻击并表明即使在访问模糊化提示和LLM本身的情况下我们也无法始终如一地提取有意义的信息尽管模型有时可以从其自身输出中识别系统提示的含义。总体而言我们展示了提示模糊化可以是保护知识产权的有效方法同时保持与原始系统提示相同的实用性。 创新点 提出了一种新的系统提示模糊化方法以防止系统提示被提取同时保持系统本身的实用性。开发了一种基于优化的方法来找到模糊化的提示表示该方法在不牺牲功能的情况下保护了提示。对比了使用原始和模糊化系统提示的系统性能并展示了模糊化版本与原始版本相当。进行了包括黑盒和白盒在内的不同去模糊化攻击证明了模糊化提示的有效性。 算法模型 提出了在软提示空间中进行模糊化的优化方法通过梯度下降算法直接优化软提示。使用了Adam优化器并设置了学习率、迭代次数和令牌数量等参数。实现了一种基于贪心坐标梯度GCG技术的离散优化方法用于硬提示模糊化。 实验效果 在不同的数据集上评估了模糊化提示的有效性包括TruthfulQA、TriviaQA、CNN dailymail和samsum。使用了多种文本相似度指标来评估模糊化提示与原始提示之间的相似度。进行了黑盒和白盒攻击以评估攻击者从模糊化提示中提取原始提示信息的能力。实验结果表明模糊化提示在保持与原始提示相同功能的同时能够有效抵抗去模糊化攻击。 推荐阅读指数 ★★★★☆ 推荐理由 这篇论文针对大型语言模型中系统提示的安全性问题提出了创新的解决方案。通过引入提示模糊化技术有效地保护了模型的知识产权防止了提示注入攻击。论文中的实验设计严谨涵盖了多种评估指标和攻击场景为理解和防御LLMs中的安全威胁提供了有价值的见解。 4. Self-Evolutionary Large Language Models through Uncertainty-Enhanced Preference Optimization J Wang, Y Zhou, X Zhang, M Bao, P Yan - arXiv preprint arXiv:2409.11212, 2024 通过不确定性增强的偏好优化实现自我进化的大型语言模型 摘要 大型语言模型LLMs在以太坊主网上的广泛部署近年来吸引了越来越多的财务驱动攻击者。本文提出了一种新的不确定性增强偏好优化UPO框架以提高LLMs在Solidity漏洞检测中的性能。该框架通过执行成对不确定性估计和可靠反馈抽样来减少当前策略和奖励模型产生的噪声偏好数据。研究者引入了一个估计器模型该模型结合了贝叶斯神经网络BNN中的蒙特卡洛MCdropout技术以对LLM策略产生的偏好数据进行不确定性估计。与现有方法直接基于奖励分数过滤生成的响应不同估计器专注于成对的模型不确定性并有效绕过了奖励模型的确认偏差问题。此外研究者还提出了一种不确定性增强的自我进化算法以提高偏好优化的鲁棒性并鼓励LLM生成具有高奖励和高确定性的响应。在多个基准测试上的广泛实验表明该框架显著减轻了噪声问题并提高了迭代偏好优化的性能。 创新点 提出了不确定性增强偏好优化UPO框架用于提高LLMs在偏好优化中的性能。引入了估计器模型使用贝叶斯神经网络中的蒙特卡洛dropout技术来估计偏好数据的不确定性。提出了不确定性增强的自我进化算法以提高LLMs在迭代更新参数时的鲁棒性。 算法模型 不确定性增强偏好优化UPO框架该框架通过减少由当前策略和奖励模型产生的噪声偏好数据来提高LLMs的自我进化能力。估计器模型结合了贝叶斯神经网络中的蒙特卡洛dropout技术用于估计LLM策略产生的偏好数据的不确定性。不确定性增强的自我进化算法通过不确定性估计来选择可靠的偏好数据并将其用于LLM策略的迭代更新。 实验效果 在AlpacaEval 2.0和MT-Bench等通用NLP基准测试中UPO框架显著提高了LLMs的性能。在GSM8K和MATH等数学推理任务中UPO框架同样展现出了优越的性能提升。实验结果表明UPO框架在减少噪声和提高迭代偏好优化的性能方面具有显著效果。 推荐阅读指数 ★★★★☆ 推荐理由 这篇论文针对大型语言模型在偏好优化中的噪声问题提出了一种新颖的解决方案。UPO框架通过不确定性估计和自我进化算法有效地提高了LLMs在多种任务上的性能。论文的实验设计严谨涵盖了广泛的任务和数据集验证了方法的有效性。 5. VulnLLMEval: A Framework for Evaluating Large Language Models in Software Vulnerability Detection and Patching A Zibaeirad, M Vieira - arXiv preprint arXiv:2409.10756, 2024 VulnLLMEval一个评估大型语言模型在软件漏洞检测和修补中的性能的框架 摘要 大型语言模型LLMs在代码翻译等任务中展现出了潜力激发了人们对其在自动化软件漏洞检测SVD和修补SVP中应用的兴趣。为了推进这一领域的研究建立一个基准测试对于评估LLMs在这些任务中的优势和局限性至关重要。尽管LLMs具有能力但它们是否能够准确分析复杂漏洞并生成适当的补丁仍然存在疑问。本文介绍了VulnLLMEval这是一个旨在评估LLMs在识别和修补C代码漏洞中的性能的框架。我们的研究包括从Linux内核中提取的307个真实世界漏洞创建了一个包含漏洞和已修补代码的精选数据集。这个基于真实世界代码的数据集为评估LLM在SVD和SVP任务中的性能提供了多样化和代表性的测试平台为严格评估提供了坚实的基础。我们的结果揭示了LLMs在区分漏洞和已修补代码方面常常遇到困难。此外在SVP任务中这些模型倾向于过度简化代码产生的解决方案可能需要进一步改进才能直接使用。 创新点 提出了VulnLLMEval框架用于评估LLMs在软件漏洞检测和修补任务中的性能。创建了一个包含307个真实世界漏洞的精选数据集涵盖30种不同的CWEs这些漏洞来自Linux内核。开发了一种自动化的数据收集方法使用提交哈希来收集和标记漏洞和已修补的代码无需安全专家手动提供真实补丁简化了评估过程。设计了8种不同的提示模板用于引导LLMs完成漏洞检测和修补任务包括零样本和少样本学习场景。 算法模型 VulnLLMEval框架一个用于评估预训练LLMs在SVD和SVP任务中的性能的框架。数据集包含307个真实世界的C语言代码漏洞涵盖Linux内核中的多种CWEs。自动化数据收集方法利用公开的CVE记录和元数据如提交哈希、CVE和CWE系统地提取漏洞代码块及其相应的修补版本。评估指标包括Mean Reciprocal Rank (MRR)、Top-5准确率、Rouge分数、CodeBLEU分数和循环复杂度等。 算法伪码: 实验效果 在多个真实世界的漏洞检测和修补任务中LLMs表现出在区分漏洞和已修补代码方面的挑战。LLMs在生成补丁时倾向于简化代码可能需要进一步的改进才能直接使用。实验结果表明LLMs在SVD任务中的表现与在SVP任务中的表现存在差异需要进一步的研究和改进。 推荐阅读指数 ★★★★☆ 推荐理由 这篇论文提出了一个创新的框架VulnLLMEval用于评估大型语言模型在软件漏洞检测和修补任务中的性能。通过创建一个基于真实世界漏洞的数据集并开发自动化的数据收集方法该研究为LLMs在软件安全领域的应用提供了有价值的见解和评估工具。对于从事软件安全、漏洞检测和语言模型研究的学者和工程师来说这是一篇值得阅读的论文。
http://www.dnsts.com.cn/news/34630.html

相关文章:

  • 叫别人做网站需要注意什么建筑招聘平台
  • 火狐浏览器网站开发人员湖北立方建设工程有限公司网站
  • 企业邮箱 网站建设企业手机网站建设流程图
  • 网站建设集团展馆展示设计公司哪家好一点
  • 网站备案手机号码可以下载电影的网站怎么做
  • 制作返利网站wordpress rest 接口
  • 靖江有哪些做网站的江苏工程建设信息官方网站
  • 网站首页制作案例网站未备案wordpress链接
  • 至设计网站新遵义
  • 战地之王网站做任务广东省住房和城乡建设厅官网
  • 黄埔网站建设价格aspnet网站开发工具
  • 北京哪家网站建设公司比较好湘潭做网站 i磐石网络
  • 企业网站建设的常见流程绍兴市网站建设公司
  • 会议室效果图制作深圳网站推广优化
  • 建设个人网站的好处专业免费网站建设一般多少钱
  • 阿里云centos7做网站深圳网页制作与网站建设地址
  • 对接 网站后台杭州建网站哪家口碑好
  • 货代可以从哪些网站开发客户网页设计素材参考
  • 如何做谷歌网站优化网页制作教程 赵丰年 pdf
  • 怎么引导做淘宝的客户做官方网站刷赞网站空间
  • 手机网站做落地页微信个人商城网站模板
  • 上海网站建设公司招聘建立一个网站的技术解决方案
  • 网站开发项目成本分析之合理性广州冼村街道办
  • 台州网站排名优化费用wordpress google 慢
  • 手机触屏网站网站域名授权怎么做
  • 番禺哪里有做网站的公司wordpress的中文插件安装教程视频教程
  • 个人做网站模版是否有人买网络设计专业包括哪些
  • 重庆智慧团建网站登录平台企业品牌宣传型网站
  • 十大门户网站做网站的分工
  • 网站版面如何设计搜狗是哪个公司开发的