安全性测试开源工具
• 阅读 7458
谷歌利用AI发现20年前的软件漏洞:「模糊测试」改写安全游戏规则从而提高测试效率,」谷歌开源安全团队在博客中写道。「LLM 在模拟典型开发者的完整工作流程方面表现出卓越的能力,包括编写、测试和迭代模糊测试目标,以及分类分析发现的崩溃问题。」自推出以来,谷歌已在272 个软件项目中应用了这一AI 工具,发现了26 个漏洞。其中一个名为好了吧!
英国抢先发布AI模型安全检测工具 以识别和评估相关风险财联社5月12日讯(编辑牛占林)英国人工智能(AI)安全研究所本周五发布了发布了一个新的测试平台,旨在加强监测先进AI模型的安全风险。据介绍,该工具箱名为Inspect,可以用来评估一系列领域的AI模型,包括它们的核心知识、推理能力和自主能力。通过开源许可证发布,这意味着Inspec后面会介绍。
讯飞星火开源-13B 大模型发布,针对国产软硬件环境深度优化科大讯飞推出了“星火开源大模型”。据介绍,星火开源大模型是根据去年5 月的星火1.0 版本(13B)改进而来,增加了数据、能力、针对应用场景的工具链,并且针对国产安全可控进行了更系统性的设计。根据科大讯飞官方公布的测试,星火开源-13B 在多个方面都领先其他同尺寸开源模型等我继续说。
原创文章,作者:上海泽富盛网络科技有限公司,如若转载,请注明出处:http://wqtwys.cn/kodller0.html