# 大模型安全#

11篇文章

百度安全与云安全联盟CSA大中华区联合发布《AI安全产业图谱(2024)》

2024-09-26 00:28:241931人阅读

9月12日,在国家网络安全宣传周成都系列活动上,云安全联盟CSA大中华区联合百度安全正式发布《AI安全产业图谱(2024)》。

百度冯景辉:从数据清洗到安全围栏,深度解析大模型原生安全构建

2024-08-14 18:39:317301人阅读

随着大模型的逐步发展,内容安全问题受到了前所未有的关注。为此,InfoQ 特别邀请百度安全副总经理冯景辉在 8 月 18-19 日的 AICon 全球人工智能大会(上海站)上,分享《百度大模型原生安全构建之路》的主题演讲。本文是对冯景辉的会前采访对谈。

百度大模型安全荣获2024世界智能产业博览会“Find智能科技创新应用典型案例”

2024-06-21 22:32:276523人阅读

6月20日,2024世界智能产业博览会在天津开幕。百度大模型安全解决方案荣获“2024世界智能产业博览会“Find智能科技创新应用优秀案例”典型案例。

百度大模型安全及产业应用实践将亮相 2024 WAVE SUMMIT

2024-06-19 11:38:287283人阅读

WAVE SUMMIT 深度学习开发者大会 2024 由深度学习技术及应用国家工程研究中心主办,百度飞桨、文心大模型联合承办。大会将由深度学习技术及应用国家工程研究中心主任、百度首席技术官王海峰等业界重磅嘉宾领衔,将与万千开发者分享国产大模型在技术创新、产业应用、生态社区等方面的最新进展。

大模型安全技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

2024-06-07 14:22:267334人阅读

在大模型的实际应用落地过程中,会遇到所谓的幻觉(Hallucination)问题。对于语言模型而言,当生成的文本语法正确流畅,但与原文不符(Faithfulness)或事实不符(Factualness)时,模型便出现了幻觉的问题。在传统自然语言处理中,幻觉一般指模型输出与原文信息存在冲突,或添加不在原文的额外信息。

技术实践|百度安全「大模型内容安全」高级攻击风险评测

2024-03-14 13:32:3715198人阅读

为了更好地帮助大模型开发者及时发现模型自身的风险,评测过程中包含高级攻击的评测,百度大模型内容安全评测建立了科学,全面的攻击分类体系与构造工具,与基础内容类别结合的方法去评测高级攻击的风险情况,被评测大模型在高级攻击方面的风险可以做到更细致,更准确的认知,助力企业构建平稳健康、可信可靠的大模型服务。

0
现金券
0
兑换券
立即领取
领取成功