Opentext Media Analyzer

S

OpenText™ EnCase™ Forensic ist eine leistungsstarke, gerichtserprobte, marktführende Lösung für digitale forensische Untersuchungen. Sie ermöglicht es Ermittlern, Beweise von einer Vielzahl von Geräten auf forensisch sichere Weise zu triagieren, zu erfassen und zu entschlüsseln. Die integrierte, verbesserte Indexierungs-Engine bietet eine hohe Verarbeitungsgeschwindigkeit, eine erweiterte Indexsuche und eine optimierte Leistung. Der Prozess ist schnell, effizient, wiederholbar und verteidigungsfähig, mit der Möglichkeit, intuitive Berichte zu erstellen.

Mit EnCase Forensic 8.11 kommt OpenText Media Analyzer, ein optionales Add-on. Mit der integrierten KI-computer Visionstechnologie scannt es Blider auf deren Inhalt und verbessert so deutlich die Effizienz und Produktivität der Ermittler.

Bild

Opentext Media Analyzer

Fortschrittliche KI-Computervisionstechnologie, die fallrelevante Bilder in 12 vordefinierten Kategorien identifiziert. Zu diesen Kategorien gehören Pornografie und Extremismus. Der Media Analyzer reduziert die Menge der Inhalte, die von den Ermittlern manuell überprüft werden müssen, wodurch die Zeit für die Aufdeckung kritischer Beweise erheblich verkürzt wird.

Die Aufgabe, fallrelevante Bilder in einer straf- oder zivilrechtlichen Untersuchung zu identifizieren, kann sehr zeitaufwändig sein und gleicht oft der Suche nach der Nadel im Heuhaufen. Ein einziger Fall kann Tausende von Bildern enthalten, von denen die meisten für die Untersuchung nicht relevant sind. Mit dem OpenText Media Analyzer, einem optionalen Zusatzmodul für EnCase Forensics, können Ermittler mithilfe von KI alle Bilddateien innerhalb der Beweismittel automatisch nach visuellen Merkmalen durchsuchen, die den folgenden vordefinierten Kategorien entsprechen:  Pornographie, Kindesmissbrauch (CSAM), Extremismus, grafische Gewalt, Drogen, Waffen, ID/Kreditkarten, Währungen, Alkohol, Glücksspiel, Bade-/Unterwäsche und Dokumente.

Identifiziert unbekannte Bilder von Kindesmissbrauch

Media Analyzer enthält eine Kategorie Kindesmissbrauch (Child Abuse, CSAM), die in der Lage ist, bisher ungesehene illegale Bilder zu erkennen, die demnach den Strafverfolgungsbehörden möglicherweise unbekannt sind. Dies ermöglicht es den Ermittlern, kürzlich erstelltes Material und potenzielle neue Opfer schnell zu identifizieren.

Filtert Ergebnisse nach Risiko

Sobald der Media Analyzer die Beweise verarbeitet hat, kann der Ermittler die Ergebnisse nach Kategorie und Vertrauensniveau filtern. Nur Bilder, die mit der angegebenen Kategorie und dem Vertrauensniveau übereinstimmen, werden in der Galerie angezeigt, wodurch die Zeit für die Aufdeckung wichtiger Beweise erheblich verkürzt wird.

Back to top