2024-05-18 www.dnxtw.com
电脑系统网 5 月 3 日新闻,微软公司最近发布了一份新的透明度报告,总结了它 2023 每年制定并部署各种措施,负责发布各种生成产品。
微软于 2023 年 7 每月签署自愿协议,承诺每年定期发布人工智能透明度报告,建立负责任的人工智能系统,使其健康安全发展。
在《负责任的人工智能透明度报告》中,微软介绍了人工智能产品安全部署的成果,共同创建 30 一个负责任的人工智能工具扩大了负责任的人工智能团队,并要求开发生成人工智能应用程序的团队在整个开发周期中衡量和绘制风险。
该公司指出,它在图像生成平台上添加了内容凭证,并在照片上添加了水印,并将其标记为人工智能模型。
该公司表示,Azure AI 客户可以使用检测仇恨言论、性内容和自残的工具,以及评估安全风险的工具。
它还在扩大其红队(渗透测试团队)的工作,包括在发布新模型之前故意绕过其人工智能模型安全功能的内部红队和红队应用程序进行第三方测试。
附在计算机系统网上的参考地址
Responsible AI Transparency Report
广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。计算机系统网络上的所有文章都包含了本声明。