Um der Komplexität heutiger Wettbewerbslandschaften gerecht zu werden und sich international Wettbewerbsvorteile zu sichern, ist es insbesondere für technologieintensive Unternehmen wichtig, frühzeitig über neue technologische Entwicklungen aufgeklärt zu sein bzw. diese prognostizieren zu können.

So müssen sich Unternehmen schon in frühen Phasen der Entwicklung neuer Produkte oder Dienstleistungen regelmäßig Fragen stellen wie z.B.:

  • Welche Technologietrends werden sich in den nächsten Jahren durchsetzen?
  • Wer treibt die Forschung an und wer ist Technologieführer?
  • Welche Entwicklungspartnerschaften sind im Entstehen?
  • Wer hält welche Schutzrechte (z.B. Patente) an relevanten Technologien?
  • Welche Normen und Standards sind relevant?
  • Welche Industriekooperationen zu bestimmten Technologien existieren im Markt?
  • Wie entwickelt sich der Wettbewerb für relevante Märkte?
  • Wer sind neue Marktteilnehmer, wo entstehen neue Geschäftsmodelle und Startups?

Das zur Beantwortung vorstehender Fragen notwendige Wissen bedarf analytischer, prognostischer und sensorischer Fähigkeiten seitens der betroffenen Unternehmen sowie moderner Datenanalyseverfahren. Dabei liegen die größten Herausforderungen darin technologiebezogene Daten wie Patente, Forschungsartikel oder Standard-Normendokumente intelligent zu durchsuchen sowie intelligent darstellen zu können.

IPlytics erforscht in diesem Zusammenhang neue Algorithmen im Bereich Dimensionsreduktion und neuronale Netzen. Das Forschungsprojekt IPL (gefördert über das Programm zur Förderung von Forschung Innovationen und Technologien – ProFIT), erweitert die SaaS Lösung IPlytics Platform und ermöglicht eine intelligente Suche und Analyse von Millionen von Datenpunkten in Echtzeit, die neue Features wie z.B. Clustering, Filtering und Recommendation Analysen über die Strukturen verschiedener Datenquellen ermöglicht.

In Zukunft sollen Nutzer von IPlytics Platform über semantisch Links von einem Datenobjekt zu einem anderen navigieren und neue Datenobjekte entlang einer Kette identifizieren und mit dem Ausgangsobjekt in Beziehung setzen können. Über textuelle Inhalte, wie die Beschreibung des Schutzbereiches einer Patentschrift, die Zusammenfassung eines Forschungsartikels oder die Beschreibung eines Produktes sollen weitere Verknüpfungen entstehen.

Textuelle Inhalte großer Datenmengen beinhalten wertvolle Informationen und Schlüsselwörter, über die neue Beziehungen zwischen Elementen des Datenmodels identifiziert werden können. Über intelligente Machine Learning Algorithmen im Bereich Dimensionsreduktion und neuronalen Netzen sollen Textstrukturen und Schlagwörter extrahiert, vergleichen und in Zusammenhang gesetzt werden. Die Verknüpfung von Patenten, Forschungsartikeln oder Normen- und Standarddokumenten über Machine Learning Algorithmen ist ein neuer Ansatz der Technologieanalyse, der sich am Markt etablieren wird.

Das Projekt erforscht Dimensionsreduktionsalgorithmen für die semantische Analyse im Anwendungsfall Intellectual Property Analytics, insb. aus dem Bereich Random Indexing. Die klassischen Verfahren zur Dimensionsreduktion (PCA, LSA) sind als Vergleich für kleine Datenmengen nutzbar, aber nur durch Random Indexing wird Dimensionsreduktion in diesem Maßstab überhaupt möglich. Darüber hinaus ist der Algorithmus in der Lage Ergänzungen an einem bestehenden Vektorraum vorzunehmen, der bereits reduziert wurde. Diese Eigenschaft ist von großer Bedeutung für den Bereich Intellectual Property Analytics, da die Menge an Intellectual Property stetig wächst. Weitere Dokumente zu dem Vektorraum hinzuzufügen ohne den vollständigen Vektorraum erneut zu reduzieren ist von elementarer Bedeutung für ein dynamisches Feld wie Intellectual Property Analytics. Besondere Betonung bei diesem Algorithmus liegt in der Hybridisierung des klassischen Vektormo-dells mit einem Information Retrieval-System, das mit einem invertierten Index mit TF-IDF/BM25 zur Relevanzgewichtung arbeitet. So wird erforscht wie komplexe Abfragen nach Zeiträumen, Au-toren/Autorinnen oder anderen Metadaten mit einem semantischen Vektorraummodell kombiniert werden kann. Dies geschieht im Hinblick auf potenzielle Suchanfragen nach semantischer Ähnlichkeit innerhalb einer Untermenge des gesamten Suchraums. Es wird ein RI Algorithmus erforscht, die Dokumentdarstellung im Vektorraum mit einem klassischen Suchsystem kombiniert. Eine solche Hybridisierung ist ein signifikanter Fortschritt für eine bestehende IR Plattform. So wird nicht nur ermöglicht gewöhnliche Suchanfragen zu stellen und ihre Resultate zu analysieren, sondern auf Basis einer semantischen Suche weitere Kriterien zu spezifizieren. Diese Art von Suchfähigkeiten gehen deutlich über den aktuellen Stand der Technik und Forschung in diesem Bereich hinaus.

Des Weiteren beschäftigt sich das Projekt mit der Erforschung von neuronalen Netzen die für die automatische Klassifizierung von Suchergebnissen elementar werden. Dabei wird ein Clusteringalgorithmus auf das Resultat eines neuronalen Netzes angewandt um intelligente Suchergebnisse zu erzeugen. Die Forschung konzentriert sich auf den Recurrent Convolutional Neural Network (RCNN) Algorithmus. Dieser Algorithmus kombiniert die Eigenschaften eines Recurrent Neural Network (RNN) mit einem Convolutional Neural Network (CNN). Insbesondere ist ein solches RCNN geeignet den Kontext eines Wortes korrekt zu erfassen, was im Intellectual Property Bereich von zentraler Bedeutung ist, da nur so das Thema und der der Inhalt eines Dokuments korrekt erkannt werden kann. Die Kombination aus den genannten neuronalen Netzwerken ist ein wichtiger Schritt, da die einzelnen Bestandteile Defizite im Bereich der korrekten Gewichtung von Worten haben, die durch ein RCNN behoben werden. Da ein RCNN bereits erfolgreich für binäre Klassifizierung eingesetzt wurde, wird der Algorithmus im Zuge des Forschungsprojektes entsprechend erweitert um multiple Klassifizierung zu ermöglichen

 

Das Projekt wird durch die Europäische Kommission sowie den Europäischen Fonds für regionale Entwicklung unterstützt.