AI 安全、信任与伦理声明
在 Divinci AI,我们优先考虑安全、合乎伦理且透明的 AI 解决方案。我们的产品(包括网络和移动应用)服务于医疗保健和其他敏感领域的多种用例。本文件详述了我们仅使用授权数据、确保严格安全措施、并在我们的检索增强生成 (RAG) 和微调语言模型中实施稳健的人机界面的承诺。
授权数据与负责任的 AI 开发
我们承诺仅使用经授权且来源符合伦理的数据来训练 AI 模型。我们的数据治理实践确保每个数据集都经过合法性、许可合规性和相关性的核查。这种方法符合 ANSI 等机构对可信赖 AI 的指引,强调透明度和符合伦理的来源。
以人为本的安全与审核
Divinci AI 在所有定制 AI 解决方案中集成了人工审核界面,以促进负责任的使用并防止滥用。这些界面支持:
- 内容管理: 我们提供工具来审核、编辑和控制 AI 模型生成的信息,帮助使响应符合伦理标准。
- 测试与验证: 每个模型都经过严格测试,以最大限度地减少偏见、虚构和错误信息。
- 发布管理: 我们的模型通过受控的发布流程,确保只有满足我们高标准的安全性和可靠性后才会被部署。
面向消费者和患者的模型中的安全功能
对于涉及消费者或患者的应用,Divinci AI 集成了稳健的安全功能,包括:
- 透明度与可解释性: 我们追求 AI 响应的清晰性,帮助用户了解决策是如何做出的以及为什么会出现特定的推荐。这一承诺减少了过度依赖,并确保了用户的信任。
- 对有害内容的审核: 我们积极审核有害输出,包括任何可能存在偏见、不当或具有误导性的内容。我们的系统实施保障措施,以监控和限制可能对用户产生负面影响的输出。
信任、透明与用户问责
Divinci AI 通过创建透明的 AI 解决方案培养信任。我们提供清晰的用户指南,概述系统能力、限制和伦理约束。对于医疗应用,我们遵循 ANSI 标准,使我们的系统与有关数据隐私、偏见缓解以及与相关监管标准合规性的可信赖指南保持一致。
AI 治理与合规
我们对 AI 治理框架的遵循符合 NIST 和 IEEE 等标准,聚焦于问责制、透明度和稳健的性能指标。对系统的定期审计确保我们的 AI 模型在其生命周期内始终与 Divinci AI 的伦理标准保持一致。
致谢
我们要感谢 The Alan Turing Institute’s AI Standards Hub 提供了宝贵的 AI 标准资源,这些资源启发并塑造了 Divinci AI 的 AI 安全和伦理政策。
我们的原则
1. 以人为本的设计
- 人类监督:AI 系统应增强人类能力,而非取代人类判断
- 透明度:用户应理解 AI 系统如何做出影响他们的决策
- 可控性:人类必须保留对 AI 系统及其结果的有意义的控制
2. 公平与非歧视
- 偏见缓解:我们积极工作以识别并减少 AI 系统中的偏见
- 包容性开发:我们的开发过程包括多元的视角和用例
- 平等访问:我们努力确保 AI 的益处惠及所有用户
3. 隐私与数据保护
- 数据最小化:我们只收集和处理系统功能所需的数据
- 用户同意:对所有数据收集和处理给予清晰、知情的同意
- 安全处理:稳健的安全措施保护用户数据和隐私
4. 可靠性与安全
- 严格测试:跨多种场景和边缘案例的全面测试
- 持续监控:对系统性能和安全的持续评估
- 故障安全机制:在遇到意外情况时设计为安全失效的系统
技术保障
模型安全
- 对抗性稳健性:对恶意输入和攻击的防护
- 输出过滤:多层内容过滤和安全检查
- 版本控制:对所有 AI 模型的严格版本管理与回滚能力
质量保证
- 红队测试:专门团队尝试发现漏洞与失败模式
- 评估框架:针对安全性、公平性与性能的综合指标
- 外部审计:对我们 AI 系统的定期第三方评估
部署控制
- 分阶段推出:在每个阶段进行监控的逐步部署
- 断路器:针对危险或意外行为的自动停机机制
- 人工审核:关键决策需要人类监督和批准
伦理指南
开发实践
- 包容性团队:具有多样背景与视角的多元开发团队
- 利益相关者参与:与受影响社群和专家的定期协商
- 影响评估:在部署前对潜在社会影响的彻底评估
用例限制
我们禁止使用我们的 AI 系统进行:
- 生成有害、非法或滥用性内容
- 没有适当同意和法律依据的监视或追踪
- 在没有人类监督的情况下进行高风险领域的决策
- 对用户的操纵或欺骗
数据伦理
- 同意与透明:关于数据如何被使用的清晰信息
- 目的限制:数据仅用于声明的合法目的
- 用户权利:尊重用户权利,包括访问、更正和删除
治理与监督
内部治理
- 伦理审查委员会:监督我们工作伦理影响的专门委员会
- 定期培训:对所有团队成员持续进行 AI 伦理与安全教育
- 明确政策:处理伦理问题与事故的有据可查的程序
外部协作
- 行业合作伙伴关系:在安全标准方面与其他组织协作
- 学术研究:支持关于 AI 安全与伦理的独立研究
- 监管参与:积极参与政策讨论与标准制定
事故响应
- 快速响应:对安全问题的快速识别与缓解
- 透明度:对重大事故与所学经验的公开报告
- 持续改进:基于经验对政策和实践的定期更新
研究与开发
安全研究
我们投资于以下基础研究:
- 确保 AI 系统追求预期目标的对齐技术
- 理解 AI 系统如何做出决策的可解释性方法
- 识别潜在失败模式的稳健性测试
负责任的创新
- 预防原则:在部署前对潜在风险的审慎考虑
- 迭代式开发:在每一步都考虑安全的渐进改进
- 长期思维:对长期社会影响的考量
透明与问责
公开报告
- 年度安全报告:关于我们安全实践与表现的定期公开更新
- 研究发表:与更广泛的社区分享相关研究成果
- 公开对话:就安全与伦理问题与利益相关者交流
用户赋能
- 清晰的解释:用户理解 AI 如何影响他们的体验
- 控制机制:让用户根据偏好定制 AI 行为的工具
- 反馈渠道:用户报告关注或建议的便捷方式
合规与标准
法规合规
我们遵守相关法规,包括:
- GDPR 及其他数据保护法律
- 我们运营所在司法辖区的 AI 治理框架
- 针对企业客户的特定行业法规
国际标准
我们与以下国际标准保持一致:
- 用于 AI 系统的 ISO/IEC 标准
- 用于伦理设计的 IEEE 标准
- NIST AI 风险管理框架
持续改进
AI 安全与伦理是一个不断发展的领域。我们承诺:
- 定期审查:对我们实践的定期评估与更新
- 向他人学习:持续了解行业的最佳实践
- 适应变化:灵活应对新的挑战与机遇
联系我们
关于我们 AI 安全与伦理实践的问题,或报告关切:
邮箱:ethics@divinci.ai 地址:Divinci AI Ethics Team, 312 Arizona Ave, Santa Monica, CA 90401
我们欢迎反馈,并承诺迅速且透明地处理关切。
最近更新:2025 年 1 月 20 日
我们对 AI 安全与伦理的承诺是公司本质的核心。我们将继续随着学习和领域的进步而演进这些实践,始终以创造造福人类的 AI 为目标。Contributors


