当前位置: 首页 > news >正文

网站托管解决方案杭州住房和城乡建设部网站

网站托管解决方案,杭州住房和城乡建设部网站,网站页面设计风格,企业网站建设一般考虑哪些因素今天为大家介绍的是来自上海交通大学的王延峰与谢伟迪团队的一篇论文。开源的多语言医学语言模型的发展可以惠及来自不同地区、语言多样化的广泛受众。 来源丨 DrugAI、 机器人的脑电波 论文#xff1a;https://www.nature.com/articles/s41467-024-52417-z MMedC#xff1…今天为大家介绍的是来自上海交通大学的王延峰与谢伟迪团队的一篇论文。开源的多语言医学语言模型的发展可以惠及来自不同地区、语言多样化的广泛受众。 来源丨 DrugAI、 机器人的脑电波 论文https://www.nature.com/articles/s41467-024-52417-z MMedChttps://huggingface.co/datasets/Henrychur/MMedC  MMedBenchhttps://huggingface.co/datasets/Henrychur/MMedBench  代码https://github.com/MAGIC-AI4Med/MMedLM  在近期研究中大型语言模型在医疗领域展现了巨大潜力。例如GPT-4和MedPalm-2等闭源模型表现优异通过了美国医学执照考试。同时像Llama 2这样的开源模型也促进了医学专用语言模型的发展如MEDITRON、PMC-LLaMA、MedAlpaca和ChatDoctors逐步缩小了与闭源模型的性能差距。然而这些模型主要面向英语应用限制了其在更广泛语言环境中的使用。在开源的多语言LLM领域尽管模型如BLOOM和InternLM已在多语言语料库上训练但在非英语医学问题上的表现仍不理想主要原因是医疗内容在通用数据集中占比不足。本文通过开发一个开源的多语言医疗语言模型旨在填补这一空白。 该研究的贡献包括三方面 构建了一个包含255亿tokens的多语言医学语料库MMedC用于自回归训练 提出了一个多语言医学多项选择问答基准MMedBench用于评估模型在零样本和微调设置下的问答和推理能力 测试了多种现有模型及在MMedC上进一步训练的模型。通过这些全面评估作者希望更好地理解模型在多语言医学问题处理中的能力。 方 法 为了实现自回归训练开发了一个大规模多语言医疗语料库MMedC汇集了超过255亿个涵盖主要六种语言的医疗相关标记英语、中文、日语、法语、俄语和西班牙语。这一多样化的数据集由四个不同的来源编制而成 (i) 设计了一个自动化管道从大众多语言语料库中过滤医疗相关内容确保数据集的聚焦和相关性 (ii) 策划并收集了多种语言的医学教科书并通过精心设计的预处理如光学字符识别OCR、启发式数据过滤等转换为文本 (iii) 为保证医疗知识的广泛涵盖从一些开源医疗网站中加入文本丰富了语料库的权威和综合性信息 (iv) 整合了一些现有的小规模医疗语料数据集进一步增强了广度和深度。 据了解MMedC代表了第一个多语言医疗领域的专用语料库。 对于基准评估的设定开始于汇聚现有的跨六种语言的医疗多选问答数据集如同于MMedC。进一步通过使用GPT-4增强它们的推理内容丰富数据集以支持正确答案的解释。因此增强的数据集涵盖53,566对问答其中每种语言都提供独特的多选问答及随附的推理推断。这个广泛的收集囊括了从内科、生物化学、药理学到精神病学等多个医学领域。 实 验 在评估阶段我们对十一种现有支持多国语言的LLMs进行全面基准测试包括GPT-3.5、GPT-4、Gemini-1.0、BLOOM、InternLM、InternLM 2, MedAlpaca、ChatDoctor、PMC-LLaMA、Mistral、BioMistral、MEDITRON、Llama 2 和 Llama 3以及那些在MMedC上进一步训练的LLM。模型在三种不同设置下进行评估零样本、参数高效微调PEFT和完整微调。考虑到评估推理质量的复杂性在运用主流自动化指标之外我们还结合了人类评级分数在我们的分析中。这种双重方法不仅提供了对每个模型性能的全面度量还使我们能够深入探究自动化指标与人工评分之间的相关性从而丰富了用于评估大型语言模型推理能力的方法。 在实验中那些进一步在MMedC上进行自回归训练的模型一致展示出提升的性能从而强调了我们编制的多语言语料库的重要性和有效性。最终模型MMed-Llama 3在多语言和仅英语基准上均表现最佳。我们将公开我们的数据集除去有许可证限制的书籍我们将提供一个书名列表、代码库和训练模型以促进未来的研究。此外我们深知稳健评估指标准确性的重要性尤其是在涉及复杂长句的医学文本生成时。为此详细的人类评级结果也将针对个别案例公开发布。 数据统计 作者统计了两个数据集的详细情况即目前最广泛的多语言医学语料库MMedC和新的多语言医学基准MMedBench。 如图2所示MMedC是一个包含超过255亿tokens的多语言医学语料库主要来自四个来源从大型多语言语料库中过滤的医学内容、医学教科书、医学网站以及现有的小规模语料库。语料库涵盖六种语言英语占比42%俄语最少仅占7%但即使最小份额也相当于约20亿tokens。 为了更好地评估多语言医学模型作者还提出了MMedBench一个多语言医学问答基准。该基准包含训练和测试用例的数量、答案选项分布以及问答对的平均长度。如图3a所示MMedBench包含许多带有多选答案的问题答案部分平均有200个标记用于训练模型生成和理解复杂的推理内容。 作者利用GPT-4将每个问题分类为21个医学主题如内科、生物化学、药理学、精神病学、微生物学等并由至少两位临床医生验证其准确性确保涵盖医学领域的广度。图3b展示了MMedBench从基础临床医学到药理学和公共卫生等专业领域的医学问题尤其侧重于内科和生物化学。这表明该基准在评估模型处理广泛医学问题的能力方面非常有效。 MMedBench评估 作者使用MMedBench对主要的LLMs进行了全面评估包括零样本、参数高效微调PEFT和全量微调。评估侧重于多项选择题的准确性和生成推理的能力。模型分为四类闭源LLMs、流行的开源LLMs、医学专用开源LLMs以及在MMedC上进一步训练的模型。 首先作者评估了GPT-3.5、GPT-4和Gemini-1.0 pro等闭源模型它们仅在零样本设置下测试。由于训练数据不公开难以判断其是否真正“零样本”。接着作者评估了开源模型如Mistral、InternLM 2和Llama 3发现它们在零样本设置下表现较差故在微调设置下进行对比。最后作者测试了在MMedC上进一步训练的模型包括MMedLM、MMedLM 2和MMed-Llama 3这些模型通过自回归训练提升了医学领域的知识。 在多语言多项选择问答任务中医学专用LLMs在英语中表现较好但在其他语言中的表现显著下降。微调后的开源模型逐步缩小了与GPT系列的差距如Mistral、InternLM 2和Llama 3在MMedBench上的平均准确率分别为60.73、58.59和62.79。进一步在MMedC上训练后MMed-Llama 3表现出显著提升如在全量微调中MMed-Llama 3的准确率达到67.75高于未训练版本的62.79。 除了多项选择问答任务作者还评估了各模型的推理能力使用BLEU、ROUGE等自动化指标以及BERT-score进行评价并结合人工评分。作者随机选取测试集中的50个样本由5位医学研究生对生成结果进行评分评价标准包括准确性、推理能力和专业知识同时使用GPT-4作为辅助评估者。图4a显示MMed-Llama 3在人工评分4.10和GPT-4评分4.73中均得分最高。 作者还分析了自动化指标与人工评分的相关性结果表明GPT-4的评分与人工评分的相关性最高但不易推广到新模型评估。在自动化指标中BERT-score表现最为可靠因此建议在未来研究中使用BERT-score作为推理能力评估的基准。 英文基准评估 作者在MMed-Llama 3的微调中加入了额外的英文指令并与其他LLMs在英文基准上进行了对比。评估基准包括MedQA、MedMCQA、PubMedQA和MMLU-Medical。MedQA和MedMCQA主要测试诊断和治疗能力PubMedQA侧重于生物医学学术问答MMLU-Medical则评估基本医学知识。 如表所示MMed-Llama 3在这些基准上表现出色在MedQA、MedMCQA和PubMedQA上分别提升了4.5%、4.3%和2.2%。在MMLU上该模型的表现也优于大部分开源LLMs显著超越GPT-3.5得分72.59对比67.69。 数据组成的消融研究 作者对MMedLM、MMedLM 2和MMed-Llama 3在全量微调下的数据组成进行了分析使用InternLM等模型作为基础。总体结果一致以下讨论重点在MMed-Llama 3。 作者区分了高质量数据HQ-Data和未指定来源数据US-Data。HQ-Data来自经过人工验证的书籍和网站内容US-Data则是从通用语料库中筛选的医学内容。结果表明添加全面的推理数据使模型多选题的准确率平均提高了4.06个百分点从58.72上升到62.79。然而仅在英语数据上进行自回归训练没有显著提升可能是因为英语过拟合导致其他语言表现下降。扩展到整个多语言医学语料库后模型表现显著改善准确率提升到64.40推理能力在BLEU-1和ROUGE-1上分别提高0.48和0.54。此外加入自动收集的US-Data后准确率进一步提升到67.75推理能力也有所提升。 讨 论 作者的研究表明基于MMedC的自回归训练能显著提升模型性能尤其在多语言医学背景下。高质量、多样化的数据源能提高模型表现而在MMedBench上结合推理数据微调也提高了问答准确率。此外强大的LLM基础模型可提升最终结果说明未来应更注重构建医学开源数据集。该研究推动了多语言医学LLM的发展有助于实现更广泛的医学人工智能应用、提升跨语言检索生成能力并在临床上缓解语言障碍、文化差异等问题。然而数据偏见、解释性不足及语言覆盖有限仍是面临的挑战未来需要进一步改进。 参考链接 Qiu P, Wu C, Zhang X, et al. Towards building multilingual language model for medicine[J]. Nature Communications, 2024, 15(1): 8384.
http://www.dnsts.com.cn/news/87081.html

相关文章:

  • 家居公司网站建设方案pptseo网络公司
  • 建立有效的()东莞seo服务商
  • 企业网站整理优化国内做的比较好的数据网站
  • 主任说到学校新网站的建设工作济南市莱芜区网站
  • 西餐厅网站源码网站开发 经常要清理缓存
  • 宁德商城网站开发设计wordpress 维护模式
  • 昆明学网站建设注册城乡规划师含金量
  • wordpress的网站是php的代码谷歌网页版登录入口
  • 潍坊网站优化培训重庆网站建设网搜科技
  • 推广网站可以做跳转吗wordpress 后台管理插件
  • 邯郸住房城乡建设厅网站网站建设推进情况
  • 网站的二级页面怎么做代码山西做网站的
  • 卖网站模板建立名词
  • 户外运动网站建设策划如何自己做一个网页
  • 那样的网站网站建设方案目录
  • 做网站从设计到上线流程体育网站建设的分析
  • 怎么通过做网站来赚钱吗网站建设有那些软件
  • 大学教学应用网站开发现状上海模板建站源码
  • 网和网站的区别济南网站制作公司哪家好
  • 盐城市亭湖区建设局网站北京网站设计师培训
  • 茂名网站建设优化seowordpress怎么切换中文字体
  • 国外网站建设软件排行榜深圳市注册公司需要什么资料
  • 关于插画的网站网上建平台怎么建
  • 恢复最近删除的网站php采集wordpress文章
  • 小学校园网站建设专业营销型网站建设费用
  • 玉溪市城乡建设局网站网站架构制作
  • 互联网网站样式互联网公司有哪些部门
  • 云南建设厅查证网站wordpress编辑我
  • 上饶网站建设企业全能浏览器app下载
  • 织梦音乐网站程序腾讯云域名查询