Automatische Semantik-gestützte Videoinhaltsanalyse für neue Mediendienste

SeVIA

Die gezeigten Modeartikel werden mit einem neuronalen Netzwerk detektiert und anhand einer hierarchischen Struktur von Klassifikatoren kategorisiert.

In diesem Projekt wird in Kooperation mit den Projektpartnern FutureTV und der Universität Rostock untersucht, wie auf Grundlage von Analyseverfahren aus dem Forschungsbereich der Computervision, innovative und international marktfähige Dienstleistungen bereitgestellt werden können. Hierfür wird die Klassifikation und Detektion von Objekten in Videosequenzen sowie die semantische Einordnung von Szenen erforscht. Auf dieser Grundlage soll es beispielsweise ermöglicht werden, zu einem Werbeclip passende Werbeanzeigen auszuwählen oder weiterführende Informationen zu den dargestellten Artikeln anzuzeigen. Deep Learning auf Basis von Convolutional Neural Networks bildet die Basistechnologie, die im Rahmen dieses Projektes sowohl für Objektdetektoren als auch für die hierarchischen Klassifikatoren verwendet wird.  

Für die praktische Evaluierung wird ein Softwareprototyp entwickelt und im Kontext von Modeartikeln erprobt. Hierfür werden Videosequenzen maschinell analysiert und zunächst die gezeigte Szene semantisch Klassifiziert. Daraufhin werden die gezeigten Modeartikel mit einem neuronalen Netzwerk detektiert und anhand einer hierarchischen Struktur von Klassifikatoren kategorisiert. Zur automatischen Auswahl der richtigen Klassifikatoren wird hierbei die semantische Einordnung der Szene betrachtet.

Gefördert durch: