Globale Richtlinie zur Inhaltsmoderation

Diese Website ist im Besitz von Dexenpoll Limited und wird von diesem Unternehmen betrieben und reguliert, nachfolgend als „wir“ bezeichnet.

1. Zweck und Geltungsbereich
Wir verpflichten uns, weltweit eine respektvolle, inklusive und sichere Umgebung für unsere Nutzer bereitzustellen. Diese Richtlinie beschreibt unseren globalen Ansatz zur Moderation von Nutzerinhalten, Kommunikation und Verhalten in Übereinstimmung mit internationalen Vorschriften, einschliesslich des UK Online Safety Act 2023, des EU Digital Services Act und Section 230 der USA.
Diese Richtlinie gilt für sämtliche Bereiche der Plattform, einschliesslich Profile, Chatnachrichten, Multimedia-Inhalte, Nutzerinteraktionen sowie über unsere Plattform eingereichte Meldungen.

2. Zulässige Nutzung und Community-Standards
Nutzer müssen die folgenden Standards einhalten:
• Keine Inhalte mit Hassrede, Belästigung, Diskriminierung oder Drohungen
• Keine Inhalte im Zusammenhang mit Grooming, Menschenhandel oder sexueller Ausbeutung
• Keine Identitätsvortäuschung oder betrügerischen Profile
• Kein Hochladen oder Verbreiten von explizitem oder gewalttätigem Material
• Kein Spam, Phishing oder schädliche Links
• Keine Aufforderung, Bewerbung oder Verkauf illegaler Dienstleistungen oder Substanzen
• Keine Nutzung durch Minderjährige oder Förderung unrechtmässiger Kontakte

3. Moderationssysteme

Support-Interaktionen, einschliesslich solcher, die über Callcenter oder automatisierte Systeme erfolgen, werden ebenfalls auf missbräuchliches oder ausbeuterisches Verhalten überwacht.
Wir verwenden ein hybrides System, das automatisierte und manuelle Methoden kombiniert:
• Manuelle Überprüfung vor Freischaltung: Alle Nutzerprofile werden von geschulten Moderatoren geprüft
• KI-Erkennung in Echtzeit: Automatisierte Filter überwachen das Nutzerverhalten und kennzeichnen unzulässige Inhalte
• Chat-Moderation: Gespräche werden mithilfe von Google Firebase und proprietären Schutzmechanismen überwacht
• Nutzermeldungen: Benutzerfreundliche Meldetools sind in die gesamte Plattform integriert
• Moderatorenprüfung: Gekennzeichnete Inhalte werden kontextbezogen von geschultem Personal überprüft
• Priorisierte Eskalation: Mutmassliche Inhalte im Zusammenhang mit CSAM, Grooming oder Menschenhandel werden umgehend überprüft und gegebenenfalls an Strafverfolgungsbehörden weitergeleitet

4. Fristen für die Entfernung illegaler Inhalte
• Inhalte, die eindeutig illegal sind (z. B. CSAM, Aufruf zu Gewalt, Menschenhandel), werden innerhalb von 24–48 Stunden nach Erkennung oder Meldung entfernt
• Grenzwertige Inhalte werden vorübergehend gesperrt und innerhalb von 72 Stunden überprüft

5. Einsprüche und Nutzerrechte
Nutzer können gegen Moderationsmassnahmen Einspruch einlegen:
• Einreichung einer schriftlichen Begründung über unser Einspruchsformular
• Einsprüche werden innerhalb von 5 Arbeitstagen von einem separaten Moderator geprüft
• Ergebnisse und Begründungen werden dokumentiert

6. Aufzeichnung und Transparenz
• Sämtliche Moderationsmassnahmen und Einsprüche werden protokolliert und sicher gespeichert
• Wir führen vierteljährliche interne Prüfungen zur Moderationsgenauigkeit durch
• Soweit gesetzlich erforderlich, veröffentlichen wir einen jährlichen Transparenzbericht mit:
o Anzahl der eingegangenen Meldungen
o Bearbeitungszeit für illegale Inhalte
o Umfang und Ergebnis von Einsprüchen

7. Besondere Schutzmassnahmen gegen Grooming und Ausbeutung
Wir erkennen die besonderen Risiken von Grooming und Ausbeutung auf Dating-Plattformen an. Wir:
• Verbieten die Nutzung durch Personen unter 18 Jahren
• Verwenden KI und Keyword-Scanning zur Erkennung früher Grooming-Muster
• Unterhalten ein spezielles Eskalationsprotokoll für solche Fälle
• Arbeiten bei Bedarf mit Strafverfolgungsbehörden zusammen

8. Richtlinien-Governance

Diese Richtlinie gilt für alle Kommunikationskanäle, einschliesslich Kundendienstantworten aus nicht-menschlichen Systemen, und wird entsprechend überprüft.
Diese Richtlinie wird jährlich von unserem Rechts- und Compliance-Team überprüft. Aktualisierungen erfolgen unter Berücksichtigung von:
• Regulatorischen Entwicklungen
• Sich entwickelnden Bedrohungen durch Online-Missbrauch
• Betrieblichen Verbesserungen