Skip to main content
Neueste Forschung:Wenn der Schaltkreis sich auflöst →8 vindexes on Hugging Face
Demo anfordern
OFFICIAL DOCUMENT

Erklärung zu KI-Sicherheit, Vertrauen und Ethik

Das Engagement von Divinci AI für verantwortungsvolle und vertrauenswürdige KI

Standards Compliant · NIST Framework Aligned · ISO/IEC Informed

Erklärung zu KI-Sicherheit, Vertrauen und Ethik

Bei Divinci AI haben sichere, ethische und transparente KI-Lösungen Priorität. Unsere Produkte – darunter Web- und Mobilanwendungen – bedienen vielfältige Anwendungsfälle im Gesundheitswesen und anderen sensiblen Bereichen. Dieses Dokument erläutert unser Engagement, ausschließlich lizenzierte Daten zu verwenden, strenge Sicherheitsmaßnahmen zu gewährleisten und robuste menschliche Schnittstellen in unseren Retrieval-Augmented-Generation- (RAG) und feingetunten Sprachmodellen zu implementieren.

Lizenzierte Daten und verantwortungsvolle KI-Entwicklung

Wir verpflichten uns, in unseren KI-Modellen ausschließlich lizenzierte und ethisch beschaffte Daten zu verwenden. Unsere Data-Governance-Praktiken stellen sicher, dass jeder Datensatz auf Legitimität, Lizenzkonformität und Relevanz geprüft wird. Dieser Ansatz steht im Einklang mit Richtlinien wie denen der ANSI für vertrauenswürdige KI und betont Transparenz und ethische Beschaffung.

Menschenzentrierte Sicherheit und Moderation

Divinci AI integriert menschliche Moderationsschnittstellen in alle individuellen KI-Lösungen, um verantwortungsvolle Nutzung zu fördern und Missbrauch zu verhindern. Diese Schnittstellen unterstützen:

  • Inhaltsmanagement: Wir stellen Werkzeuge zur Überprüfung, Bearbeitung und Steuerung der von unseren KI-Modellen generierten Informationen bereit, um Antworten an ethischen Standards auszurichten.
  • Tests und Validierung: Jedes Modell durchläuft strenge Tests, um Bias, Konfabulationen und Fehlinformationen zu minimieren.
  • Release-Management: Unsere Modelle durchlaufen kontrollierte Veröffentlichungsprozesse, sodass sie erst eingesetzt werden, wenn sie unsere hohen Sicherheits- und Zuverlässigkeitsstandards erfüllen.

Sicherheitsmerkmale in Verbraucher- und Patienten-Modellen

Für Anwendungen, an denen Verbraucher oder Patienten beteiligt sind, integriert Divinci AI robuste Sicherheitsfunktionen wie:

  • Transparenz und Erklärbarkeit: Wir streben Klarheit in KI-Antworten an, damit Nutzer verstehen, wie Entscheidungen getroffen werden und warum bestimmte Empfehlungen erscheinen. Das verringert Überabhängigkeit und stärkt das Nutzervertrauen.
  • Moderation schädlicher Inhalte: Wir moderieren aktiv schädliche Ausgaben, einschließlich aller Inhalte, die voreingenommen, unangemessen oder potenziell irreführend sein könnten. Unsere Systeme implementieren Schutzmaßnahmen, um Ausgaben zu überwachen und einzuschränken, die Nutzer negativ beeinflussen könnten.

Vertrauen, Transparenz und Nutzerverantwortung

Divinci AI fördert Vertrauen durch transparente KI-Lösungen. Wir stellen klare Nutzerrichtlinien bereit, die Systemfähigkeiten, Grenzen und ethische Einschränkungen umreißen. Bei Gesundheitsanwendungen folgen wir den ANSI-Standards, um unsere Systeme an vertrauenswürdigen Leitlinien zu Datenschutz, Bias-Minderung und Einhaltung relevanter regulatorischer Standards auszurichten.

KI-Governance und Compliance

Unsere Einhaltung des KI-Governance-Rahmens steht im Einklang mit Standards wie denen von NIST und IEEE und konzentriert sich auf Verantwortlichkeit, Transparenz und robuste Leistungskennzahlen. Regelmäßige Audits unserer Systeme stellen sicher, dass unsere KI-Modelle während ihres gesamten Lebenszyklus an Divinci-AIs ethischen Standards ausgerichtet bleiben.

Anerkennung

Wir danken The Alan Turing Institute’s AI Standards Hub für die wertvollen KI-Standards-Ressourcen, die die KI-Sicherheits- und Ethik-Richtlinien von Divinci AI inspiriert und geprägt haben.

Unsere Prinzipien

1. Menschenzentriertes Design

  • Menschliche Aufsicht: KI-Systeme sollen menschliche Fähigkeiten erweitern, nicht das menschliche Urteil ersetzen
  • Transparenz: Nutzer sollen verstehen, wie KI-Systeme Entscheidungen treffen, die sie betreffen
  • Steuerbarkeit: Menschen müssen sinnvolle Kontrolle über KI-Systeme und ihre Ergebnisse behalten

2. Fairness und Nichtdiskriminierung

  • Bias-Minderung: Wir arbeiten aktiv daran, Bias in unseren KI-Systemen zu identifizieren und zu reduzieren
  • Inklusive Entwicklung: Unser Entwicklungsprozess umfasst vielfältige Perspektiven und Anwendungsfälle
  • Gleicher Zugang: Wir streben an, dass die Vorteile unserer KI allen Nutzern zugänglich sind

3. Datenschutz und Datenschutz

  • Datenminimierung: Wir erfassen und verarbeiten nur die für die Systemfunktion notwendigen Daten
  • Nutzereinwilligung: Klare, informierte Einwilligung für jede Datenerhebung und -verarbeitung
  • Sichere Handhabung: Robuste Sicherheitsmaßnahmen zum Schutz von Nutzerdaten und Privatsphäre

4. Zuverlässigkeit und Sicherheit

  • Strenges Testen: Umfassende Tests über vielfältige Szenarien und Grenzfälle
  • Kontinuierliches Monitoring: Laufende Bewertung von Systemleistung und Sicherheit
  • Fail-safe-Mechanismen: Systeme, die so gestaltet sind, dass sie bei unerwarteten Situationen sicher ausfallen

Technische Schutzmaßnahmen

Modellsicherheit

  • Adversariale Robustheit: Schutz gegen böswillige Eingaben und Angriffe
  • Ausgabefilterung: Mehrere Schichten Inhaltsfilterung und Sicherheitsprüfungen
  • Versionskontrolle: Strenge Versionierung und Rollback-Fähigkeiten für alle KI-Modelle

Qualitätssicherung

  • Red-Team-Tests: Eigene Teams versuchen Schwachstellen und Fehlermodi zu finden
  • Evaluations-Frameworks: Umfassende Metriken für Sicherheit, Fairness und Leistung
  • Externe Audits: Regelmäßige Drittbewertungen unserer KI-Systeme

Deployment-Kontrollen

  • Stufenweise Rollouts: Schrittweise Einführung mit Monitoring auf jeder Stufe
  • Schaltkreisunterbrecher: Automatische Abschaltmechanismen für gefährliches oder unerwartetes Verhalten
  • Menschliche Überprüfung: Kritische Entscheidungen erfordern menschliche Aufsicht und Genehmigung

Ethische Leitlinien

Entwicklungspraktiken

  • Inklusive Teams: Vielfältige Entwicklungsteams mit unterschiedlichen Hintergründen und Perspektiven
  • Stakeholder-Engagement: Regelmäßige Konsultationen mit betroffenen Communities und Experten
  • Folgenabschätzung: Gründliche Bewertung potenzieller gesellschaftlicher Auswirkungen vor dem Deployment

Einsatzbeschränkungen

Wir untersagen die Nutzung unserer KI-Systeme für:

  • Erzeugung schädlicher, illegaler oder missbräuchlicher Inhalte
  • Überwachung oder Beobachtung ohne angemessene Einwilligung und Rechtsgrundlage
  • Entscheidungsfindung in folgenreichen Bereichen ohne menschliche Aufsicht
  • Manipulation oder Täuschung von Nutzern

Datenethik

  • Einwilligung und Transparenz: Klare Informationen darüber, wie Daten verwendet werden
  • Zweckbindung: Daten werden nur für angegebene, legitime Zwecke verwendet
  • Nutzerrechte: Achtung der Rechte einschließlich Zugang, Berichtigung und Löschung

Governance und Aufsicht

Interne Governance

  • Ethik-Prüfungsausschuss: Gremium, das die ethischen Implikationen unserer Arbeit überwacht
  • Regelmäßige Schulungen: Fortlaufende Weiterbildung aller Teammitglieder zu KI-Ethik und Sicherheit
  • Klare Richtlinien: Dokumentierte Verfahren für den Umgang mit ethischen Bedenken und Vorfällen

Externe Zusammenarbeit

  • Branchenpartnerschaften: Zusammenarbeit mit anderen Organisationen zu Sicherheitsstandards
  • Akademische Forschung: Unterstützung unabhängiger Forschung zu KI-Sicherheit und Ethik
  • Regulatorisches Engagement: Aktive Teilnahme an politischen Diskussionen und Standardsetzung

Vorfallsreaktion

  • Schnelle Reaktion: Rasche Identifizierung und Eindämmung von Sicherheitsproblemen
  • Transparenz: Öffentliche Berichterstattung über bedeutende Vorfälle und gewonnene Erkenntnisse
  • Kontinuierliche Verbesserung: Regelmäßige Aktualisierungen von Richtlinien und Praktiken auf Basis von Erfahrungen

Forschung und Entwicklung

Sicherheitsforschung

Wir investieren in Grundlagenforschung zu:

  • Alignment-Techniken, um sicherzustellen, dass KI-Systeme die beabsichtigten Ziele verfolgen
  • Interpretierbarkeitsmethoden, um zu verstehen, wie KI-Systeme Entscheidungen treffen
  • Robustheitstests zur Identifizierung potenzieller Fehlermodi

Verantwortungsvolle Innovation

  • Vorsorgeprinzip: Sorgfältige Berücksichtigung potenzieller Risiken vor dem Deployment
  • Iterative Entwicklung: Schrittweise Verbesserung mit Sicherheitserwägungen in jeder Phase
  • Langfristiges Denken: Berücksichtigung langfristiger gesellschaftlicher Implikationen

Transparenz und Verantwortlichkeit

Öffentliche Berichterstattung

  • Jährliche Sicherheitsberichte: Regelmäßige öffentliche Updates zu unseren Sicherheitspraktiken und Leistungen
  • Forschungspublikationen: Teilen relevanter Forschungsergebnisse mit der breiteren Community
  • Offener Dialog: Engagement mit Stakeholdern zu Sicherheits- und Ethikfragen

Stärkung der Nutzer

  • Klare Erklärungen: Nutzer verstehen, wie KI ihre Erfahrung beeinflusst
  • Steuerungsmechanismen: Werkzeuge, mit denen Nutzer das Verhalten der KI nach ihren Vorlieben anpassen können
  • Feedback-Kanäle: Einfache Wege für Nutzer, Bedenken oder Vorschläge zu melden

Compliance und Standards

Regulatorische Compliance

Wir halten relevante Vorschriften ein, darunter:

  • DSGVO und andere Datenschutzgesetze
  • KI-Governance-Rahmen in Jurisdiktionen, in denen wir tätig sind
  • Branchenspezifische Vorschriften für unsere Enterprise-Kunden

Internationale Standards

Wir orientieren uns an internationalen Standards wie:

  • ISO/IEC-Standards für KI-Systeme
  • IEEE-Standards für ethisches Design
  • NIST AI Risk Management Framework

Kontinuierliche Verbesserung

KI-Sicherheit und -Ethik ist ein sich entwickelndes Feld. Wir verpflichten uns zu:

  • Regelmäßiger Überprüfung: Periodische Bewertung und Aktualisierung unserer Praktiken
  • Lernen von anderen: Stets über Best Practices in der Branche informiert bleiben
  • Anpassung an Veränderungen: Flexibilität, neue Herausforderungen und Chancen anzugehen

Kontakt

Bei Fragen zu unseren KI-Sicherheits- und Ethikpraktiken oder zur Meldung von Bedenken:

E-Mail: ethics@divinci.ai Adresse: Divinci AI Ethics Team, 312 Arizona Ave, Santa Monica, CA 90401

Wir begrüßen Feedback und verpflichten uns, Bedenken zügig und transparent zu adressieren.


Zuletzt aktualisiert: 20. Januar 2025

Unsere Verpflichtungen zu KI-Sicherheit und Ethik sind grundlegend dafür, wer wir als Unternehmen sind. Wir werden diese Praktiken weiterentwickeln, sobald wir lernen und das Feld voranschreitet – stets mit dem Ziel, KI zu schaffen, die der Menschheit nützt.

Contributors

Michael Mooring
Michael Mooring
Co-Founder & CEO
Paul-Marie Carfantan
Paul-Marie Carfantan
AI Safety and Ethics Advisor
AI Standards Hub Logo
AI Standards Hub
Best Practice Framework