Skip to main content
最新の研究:回路が溶けるとき →8 vindexes on Hugging Face
デモをリクエスト
OFFICIAL DOCUMENT

AI の安全性、信頼、倫理に関する声明

Divinci AI による責任ある信頼できる AI への取り組み

Standards Compliant · NIST Framework Aligned · ISO/IEC Informed

AI の安全性、信頼、倫理に関する声明

Divinci AI では、安全で倫理的かつ透明性のある AI ソリューションを優先しています。私たちのウェブおよびモバイルアプリケーションを含む製品は、ヘルスケアやその他のセンシティブな分野で多様なユースケースに対応しています。本ドキュメントでは、ライセンスされたデータのみを使用すること、厳格な安全対策を講じること、検索拡張生成 (RAG) およびファインチューニング済み言語モデルにおける堅牢なヒューマンインターフェースを実装することへの私たちのコミットメントを詳述します。

ライセンスされたデータと責任ある AI 開発

私たちは、AI モデルの訓練においてライセンスされ倫理的に調達されたデータのみを使用することに取り組んでいます。データガバナンスの実践により、すべてのデータセットが正当性、ライセンス遵守、関連性について検証されることを保証します。このアプローチは、信頼できる AI に関する ANSI のガイドラインに沿っており、透明性と倫理的な調達を強調しています。

人間中心の安全性とモデレーション

Divinci AI は、すべてのカスタム AI ソリューションに人間によるモデレーションインターフェースを統合し、責任ある利用と誤用防止を促進します。これらのインターフェースは以下をサポートします:

  • コンテンツ管理: AI モデルが生成する情報をレビュー、編集、制御するためのツールを提供し、応答が倫理基準と一致するよう支援します。
  • テストと検証: すべてのモデルは、バイアス、虚偽生成、誤情報を最小化するため厳格なテストを受けます。
  • リリース管理: モデルは、私たちの高い安全性と信頼性の基準を満たした場合にのみデプロイされる、管理されたリリースプロセスを経ます。

消費者・患者向けモデルの安全性機能

消費者や患者を対象とするアプリケーションについて、Divinci AI は次のような堅牢な安全機能を組み込んでいます:

  • 透明性と説明可能性: AI の応答における明確さを目指し、決定の根拠と特定の推奨が表示される理由をユーザーが理解できるよう支援します。これにより過度な依存を減らし、ユーザーの信頼を確保します。
  • 有害コンテンツのモデレーション: 偏見的、不適切、または誤解を招くコンテンツを含む有害な出力に対して積極的にモデレーションを行います。ユーザーに悪影響を及ぼし得る出力を監視・制限する仕組みを実装しています。

信頼、透明性、ユーザーの説明責任

Divinci AI は透明性のある AI ソリューションを作ることで信頼を醸成します。システムの能力、限界、倫理的制約を概説する明確なユーザーガイドラインを提供します。ヘルスケアアプリケーションでは、ANSI の基準に従ってデータプライバシー、バイアス緩和、関連する規制基準への準拠の信頼できるガイドラインに私たちのシステムを整合させます。

AI ガバナンスとコンプライアンス

私たちの AI ガバナンスフレームワークへの遵守は、説明責任、透明性、堅牢なパフォーマンス指標に焦点を当てた NIST や IEEE などの基準と一致しています。システムの定期的な監査により、AI モデルがライフサイクルを通じて Divinci AI の倫理基準と整合し続けることを保証します。

謝辞

Divinci AI の AI 安全性および倫理ポリシーを着想・形成する貴重な AI 標準リソースを提供してくださった The Alan Turing Institute’s AI Standards Hub に感謝いたします。

私たちの原則

1. 人間中心の設計

  • 人間の監督: AI システムは人間の判断を置き換えるのではなく、人間の能力を増強すべき
  • 透明性: ユーザーは AI システムが自分に影響する判断をどう行うかを理解できるべき
  • 制御可能性: 人間は AI システムとその結果に対して意味のある制御を保持しなければならない

2. 公平性と差別の禁止

  • バイアス緩和: 私たちは AI システムのバイアスを特定し低減する取り組みを積極的に行います
  • 包括的な開発: 開発プロセスは多様な視点とユースケースを含みます
  • 平等なアクセス: AI のメリットがすべてのユーザーに行き渡るよう努めます

3. プライバシーとデータ保護

  • データ最小化: システム機能に必要なデータのみを収集・処理します
  • ユーザーの同意: すべてのデータ収集と処理に対する明確で十分な情報に基づく同意
  • 安全な取り扱い: ユーザーデータとプライバシーを保護する堅牢なセキュリティ対策

4. 信頼性と安全性

  • 厳格なテスト: 多様なシナリオとエッジケースにわたる包括的なテスト
  • 継続的監視: システム性能と安全性の継続的評価
  • フェイルセーフ機構: 予期しない状況で安全に失敗するよう設計されたシステム

技術的セーフガード

モデルセキュリティ

  • 敵対的堅牢性: 悪意ある入力や攻撃からの保護
  • 出力フィルタリング: コンテンツフィルタリングと安全チェックの多層化
  • バージョン管理: すべての AI モデルに対する厳格なバージョニングとロールバック機能

品質保証

  • レッドチームテスト: 脆弱性や障害モードを発見しようとする専任チーム
  • 評価フレームワーク: 安全性、公平性、性能のための包括的指標
  • 外部監査: AI システムに対する定期的な第三者評価

デプロイ管理

  • 段階的ロールアウト: 各段階で監視を伴う段階的なデプロイ
  • サーキットブレーカー: 危険または予期しない動作に対する自動停止メカニズム
  • 人間によるレビュー: 重要な決定には人間の監督と承認が必要

倫理ガイドライン

開発実践

  • 包括的なチーム: 多様な背景と視点を持つ多様な開発チーム
  • ステークホルダーとの関与: 影響を受けるコミュニティや専門家との定期的な協議
  • 影響評価: 展開前の社会的影響に関する徹底評価

ユースケース制限

私たちは AI システムを以下の用途で使用することを禁じています:

  • 有害、違法、または虐待的なコンテンツの生成
  • 適切な同意と法的根拠なしの監視や追跡
  • 人間による監督なしのハイステークス領域での意思決定
  • ユーザーの操作や欺瞞

データ倫理

  • 同意と透明性: データの利用方法に関する明確な情報
  • 目的の限定: 表明された正当な目的にのみデータを使用
  • ユーザーの権利: アクセス、訂正、削除を含むユーザー権利の尊重

ガバナンスと監督

内部ガバナンス

  • 倫理審査委員会: 私たちの仕事の倫理的影響を監督する専門委員会
  • 定期的なトレーニング: AI 倫理と安全性に関するチームメンバー全員への継続教育
  • 明確な方針: 倫理的懸念や事故に対処するための文書化された手順

外部協力

  • 業界パートナーシップ: 安全基準について他の組織との協力
  • 学術研究: AI の安全性と倫理に関する独立研究の支援
  • 規制との関与: 政策議論と基準策定への積極的参加

インシデント対応

  • 迅速な対応: 安全問題の迅速な特定と緩和
  • 透明性: 重大なインシデントと教訓の公開報告
  • 継続的改善: 経験に基づくポリシーと実践の定期更新

研究開発

安全性研究

私たちは以下の基礎研究に投資しています:

  • AI システムが意図された目標を追求することを保証するアラインメント技術
  • AI システムが意思決定を行う方法を理解する解釈可能性手法
  • 潜在的な障害モードを特定する堅牢性テスト

責任あるイノベーション

  • 予防原則: 展開前の潜在的リスクの慎重な検討
  • 反復的開発: 各ステップで安全性を考慮した段階的改善
  • 長期的思考: 長期的な社会的影響の考慮

透明性と説明責任

公開報告

  • 年次安全レポート: 安全性の実践とパフォーマンスに関する定期的な公開更新
  • 研究の発表: 関連する研究結果を広いコミュニティと共有
  • オープンな対話: 安全性と倫理の懸念について関係者と関わる

ユーザーのエンパワメント

  • 明確な説明: AI が自身のエクスペリエンスにどう影響するかをユーザーが理解
  • 制御メカニズム: 好みに合わせて AI の挙動をカスタマイズできるツール
  • フィードバックチャネル: ユーザーが懸念や提案を報告する簡単な方法

コンプライアンスと基準

規制コンプライアンス

私たちは以下を含む関連規制を遵守します:

  • GDPR およびその他のデータ保護法
  • 私たちが事業を行う管轄区域における AI ガバナンスフレームワーク
  • 企業顧客向けの業界固有の規制

国際基準

私たちは以下の国際基準と整合します:

  • AI システムに関する ISO/IEC 規格
  • 倫理的設計に関する IEEE 規格
  • NIST AI Risk Management Framework

継続的改善

AI の安全性と倫理は進化する分野です。私たちは以下にコミットします:

  • 定期的なレビュー: 実践の定期的評価と更新
  • 他者からの学び: 業界全体のベストプラクティスを把握し続ける
  • 変化への適応: 新しい課題と機会に対応する柔軟性

お問い合わせ

AI の安全性および倫理慣行に関する質問、または懸念事項の報告について:

Email: ethics@divinci.ai 住所: Divinci AI Ethics Team, 312 Arizona Ave, Santa Monica, CA 90401

ご意見をお待ちしており、懸念事項に迅速かつ透明に対応することにコミットしています。


最終更新: 2025年1月20日

私たちの AI 安全性および倫理へのコミットメントは、企業としての私たちの本質に深く根ざしています。学びと分野の進歩に応じて、人類に利益をもたらす AI を作り出すことを常に目標として、これらの実践を進化させ続けます。

Contributors

Michael Mooring
Michael Mooring
Co-Founder & CEO
Paul-Marie Carfantan
Paul-Marie Carfantan
AI Safety and Ethics Advisor
AI Standards Hub Logo
AI Standards Hub
Best Practice Framework