Skip to main content
最新研究:当电路消解时 →8 vindexes on Hugging Face
申请演示
OFFICIAL DOCUMENT

AI 安全、信任与伦理声明

Divinci AI 对负责任、可信赖 AI 的承诺

Standards Compliant · NIST Framework Aligned · ISO/IEC Informed

AI 安全、信任与伦理声明

在 Divinci AI,我们优先考虑安全、合乎伦理且透明的 AI 解决方案。我们的产品(包括网络和移动应用)服务于医疗保健和其他敏感领域的多种用例。本文件详述了我们仅使用授权数据、确保严格安全措施、并在我们的检索增强生成 (RAG) 和微调语言模型中实施稳健的人机界面的承诺。

授权数据与负责任的 AI 开发

我们承诺仅使用经授权且来源符合伦理的数据来训练 AI 模型。我们的数据治理实践确保每个数据集都经过合法性、许可合规性和相关性的核查。这种方法符合 ANSI 等机构对可信赖 AI 的指引,强调透明度和符合伦理的来源。

以人为本的安全与审核

Divinci AI 在所有定制 AI 解决方案中集成了人工审核界面,以促进负责任的使用并防止滥用。这些界面支持:

  • 内容管理: 我们提供工具来审核、编辑和控制 AI 模型生成的信息,帮助使响应符合伦理标准。
  • 测试与验证: 每个模型都经过严格测试,以最大限度地减少偏见、虚构和错误信息。
  • 发布管理: 我们的模型通过受控的发布流程,确保只有满足我们高标准的安全性和可靠性后才会被部署。

面向消费者和患者的模型中的安全功能

对于涉及消费者或患者的应用,Divinci AI 集成了稳健的安全功能,包括:

  • 透明度与可解释性: 我们追求 AI 响应的清晰性,帮助用户了解决策是如何做出的以及为什么会出现特定的推荐。这一承诺减少了过度依赖,并确保了用户的信任。
  • 对有害内容的审核: 我们积极审核有害输出,包括任何可能存在偏见、不当或具有误导性的内容。我们的系统实施保障措施,以监控和限制可能对用户产生负面影响的输出。

信任、透明与用户问责

Divinci AI 通过创建透明的 AI 解决方案培养信任。我们提供清晰的用户指南,概述系统能力、限制和伦理约束。对于医疗应用,我们遵循 ANSI 标准,使我们的系统与有关数据隐私、偏见缓解以及与相关监管标准合规性的可信赖指南保持一致。

AI 治理与合规

我们对 AI 治理框架的遵循符合 NIST 和 IEEE 等标准,聚焦于问责制、透明度和稳健的性能指标。对系统的定期审计确保我们的 AI 模型在其生命周期内始终与 Divinci AI 的伦理标准保持一致。

致谢

我们要感谢 The Alan Turing Institute’s AI Standards Hub 提供了宝贵的 AI 标准资源,这些资源启发并塑造了 Divinci AI 的 AI 安全和伦理政策。

我们的原则

1. 以人为本的设计

  • 人类监督:AI 系统应增强人类能力,而非取代人类判断
  • 透明度:用户应理解 AI 系统如何做出影响他们的决策
  • 可控性:人类必须保留对 AI 系统及其结果的有意义的控制

2. 公平与非歧视

  • 偏见缓解:我们积极工作以识别并减少 AI 系统中的偏见
  • 包容性开发:我们的开发过程包括多元的视角和用例
  • 平等访问:我们努力确保 AI 的益处惠及所有用户

3. 隐私与数据保护

  • 数据最小化:我们只收集和处理系统功能所需的数据
  • 用户同意:对所有数据收集和处理给予清晰、知情的同意
  • 安全处理:稳健的安全措施保护用户数据和隐私

4. 可靠性与安全

  • 严格测试:跨多种场景和边缘案例的全面测试
  • 持续监控:对系统性能和安全的持续评估
  • 故障安全机制:在遇到意外情况时设计为安全失效的系统

技术保障

模型安全

  • 对抗性稳健性:对恶意输入和攻击的防护
  • 输出过滤:多层内容过滤和安全检查
  • 版本控制:对所有 AI 模型的严格版本管理与回滚能力

质量保证

  • 红队测试:专门团队尝试发现漏洞与失败模式
  • 评估框架:针对安全性、公平性与性能的综合指标
  • 外部审计:对我们 AI 系统的定期第三方评估

部署控制

  • 分阶段推出:在每个阶段进行监控的逐步部署
  • 断路器:针对危险或意外行为的自动停机机制
  • 人工审核:关键决策需要人类监督和批准

伦理指南

开发实践

  • 包容性团队:具有多样背景与视角的多元开发团队
  • 利益相关者参与:与受影响社群和专家的定期协商
  • 影响评估:在部署前对潜在社会影响的彻底评估

用例限制

我们禁止使用我们的 AI 系统进行:

  • 生成有害、非法或滥用性内容
  • 没有适当同意和法律依据的监视或追踪
  • 在没有人类监督的情况下进行高风险领域的决策
  • 对用户的操纵或欺骗

数据伦理

  • 同意与透明:关于数据如何被使用的清晰信息
  • 目的限制:数据仅用于声明的合法目的
  • 用户权利:尊重用户权利,包括访问、更正和删除

治理与监督

内部治理

  • 伦理审查委员会:监督我们工作伦理影响的专门委员会
  • 定期培训:对所有团队成员持续进行 AI 伦理与安全教育
  • 明确政策:处理伦理问题与事故的有据可查的程序

外部协作

  • 行业合作伙伴关系:在安全标准方面与其他组织协作
  • 学术研究:支持关于 AI 安全与伦理的独立研究
  • 监管参与:积极参与政策讨论与标准制定

事故响应

  • 快速响应:对安全问题的快速识别与缓解
  • 透明度:对重大事故与所学经验的公开报告
  • 持续改进:基于经验对政策和实践的定期更新

研究与开发

安全研究

我们投资于以下基础研究:

  • 确保 AI 系统追求预期目标的对齐技术
  • 理解 AI 系统如何做出决策的可解释性方法
  • 识别潜在失败模式的稳健性测试

负责任的创新

  • 预防原则:在部署前对潜在风险的审慎考虑
  • 迭代式开发:在每一步都考虑安全的渐进改进
  • 长期思维:对长期社会影响的考量

透明与问责

公开报告

  • 年度安全报告:关于我们安全实践与表现的定期公开更新
  • 研究发表:与更广泛的社区分享相关研究成果
  • 公开对话:就安全与伦理问题与利益相关者交流

用户赋能

  • 清晰的解释:用户理解 AI 如何影响他们的体验
  • 控制机制:让用户根据偏好定制 AI 行为的工具
  • 反馈渠道:用户报告关注或建议的便捷方式

合规与标准

法规合规

我们遵守相关法规,包括:

  • GDPR 及其他数据保护法律
  • 我们运营所在司法辖区的 AI 治理框架
  • 针对企业客户的特定行业法规

国际标准

我们与以下国际标准保持一致:

  • 用于 AI 系统的 ISO/IEC 标准
  • 用于伦理设计的 IEEE 标准
  • NIST AI 风险管理框架

持续改进

AI 安全与伦理是一个不断发展的领域。我们承诺:

  • 定期审查:对我们实践的定期评估与更新
  • 向他人学习:持续了解行业的最佳实践
  • 适应变化:灵活应对新的挑战与机遇

联系我们

关于我们 AI 安全与伦理实践的问题,或报告关切:

邮箱:ethics@divinci.ai 地址:Divinci AI Ethics Team, 312 Arizona Ave, Santa Monica, CA 90401

我们欢迎反馈,并承诺迅速且透明地处理关切。


最近更新:2025 年 1 月 20 日

我们对 AI 安全与伦理的承诺是公司本质的核心。我们将继续随着学习和领域的进步而演进这些实践,始终以创造造福人类的 AI 为目标。

Contributors

Michael Mooring
Michael Mooring
Co-Founder & CEO
Paul-Marie Carfantan
Paul-Marie Carfantan
AI Safety and Ethics Advisor
AI Standards Hub Logo
AI Standards Hub
Best Practice Framework