Reengineering der Portfolio-Analytics: Wie Vektorverarbeitung Metrics 2–3x schneller macht

Date

26. Februar 2026

Author Image

Federico Giordani

In Wealth-Management-Software ist Performance entscheidend. Sie macht den Unterschied zwischen einem reibungslosen Kundengespräch und einem Moment des Wartens, bis ein Dashboard nachlädt. Sie bestimmt, ob sich der Wechsel von Benchmarks sofort oder unterbrochen anfühlt. Und sie wird besonders kritisch, wenn Unternehmen Portfolios über mehrere Einheiten hinweg konsolidieren und erwarten, dass Analytics ohne Verlangsamung skaliert.

Mit zunehmender Komplexität von Portfolios und steigenden Reporting-Anforderungen wachsen auch die rechnerischen Anforderungen an die Systeme. Schnellere Analytics sind nicht nur eine Verbesserung der User Experience. Sie bilden die Grundlage für Skalierbarkeit, Zuverlässigkeit und Vertrauen.

In den vergangenen Entwicklungszyklen haben wir unsere Metrics-Engine grundlegend neu entwickelt, um die Performance deutlich zu steigern. Durch den Wechsel von klassischen, schleifenbasierten Berechnungen hin zu vektorisierter Verarbeitung konnten wir bei großen Anfragen eine 2–3x schnellere Ausführung erreichen. Die Antwortzeiten liegen nun konstant unter 500 Millisekunden.

Hier erfahren Sie, was sich verändert hat – und warum es relevant ist.

Die verborgene Komplexität hinter Portfolio-Metrics

Auf den ersten Blick wirken Performance-Metrics unkompliziert. Time-weighted Return, Drawdown, Volatilität, Attribution, Exposure, Benchmarking – all das sind Standardbestandteile des Portfolio-Reportings.

Doch unter der Oberfläche sind sie rechenintensiv.

Jede einzelne Metric erfordert häufig:

  • Die Verarbeitung langer historischer Zeitreihen
  • Die Kombination mehrerer Instrumente über verschiedene Portfolios hinweg
  • Die Anwendung mathematischer Transformationen auf Tausende von Datenpunkten
  • Eine dynamische Neuberechnung, sobald Filter oder Zeithorizonte angepasst werden

Traditionell werden diese Berechnungen sequenziell umgesetzt. Dabei werden Datenpunkte einzeln durchlaufen:

  1. Wert an Index 0 abrufen
  2. Berechnung anwenden
  3. Ergebnis speichern
  4. Zu Index 1 wechseln
  5. Bis zum Ende der Zeitreihe wiederholen

Jeder Datenpunkt wird einzeln verarbeitet. Mit wachsenden Datensätzen steigt die Latenz proportional an.

Für kleinere Portfolios ist das akzeptabel. Bei größeren Portfolios, Multi-Entity-Reporting-Strukturen oder langen Zeithorizonten wird es jedoch schnell zum Engpass.

Genau diesen Engpass wollten wir vollständig beseitigen.

Von sequenziellen Schleifen zu Vektoroperationen

Die zentrale Verbesserung besteht in der Einführung eines Modells für vektorisierte Operationen, das es uns ermöglicht, die „single-instruction, multiple-data“ (SIMD)-Fähigkeiten moderner CPUs zu nutzen.

Anstatt jeweils nur einen Floating-Point-Wert zu berechnen, verarbeitet das System nun mehrere Werte gleichzeitig mithilfe von Parallelisierung auf CPU-Ebene.

Stellen Sie sich vor, zwei Zeitreihen werden addiert.

Der traditionelle Ansatz:

  • Wert A an Index 0 abrufen
  • Wert B an Index 0 abrufen
  • Addieren
  • Ergebnis speichern
  • Für Index 1, 2, 3 usw. wiederholen

Der vektorisierte Ansatz:

  • Einen Block von Werten aus Reihe A laden
  • Einen Block von Werten aus Reihe B laden
  • Die Addition über den gesamten Block in einer einzigen Operation durchführen
  • Den resultierenden Block speichern

Durch die Nutzung von Vektoroperationen führt der Prozessor Berechnungen in Blöcken statt sequenziell aus.

Um dies zu ermöglichen, musste ein großer Teil der Metrics-Logik überarbeitet werden. Rund 70 % der Metrics wurden von schleifenbasierten Implementierungen in vektorbasierte Logikstrukturen umgeschrieben. Anstatt einzelne Datenpunkte nacheinander zu verarbeiten und Zeitreihen iterativ aufzubauen, werden Berechnungen nun direkt auf gesamten Array-Blöcken ausgeführt.

Dies ist keine oberflächliche Optimierung. Es handelt sich um einen strukturellen Wandel in der Art und Weise, wie Analytics berechnet werden.

Messbare Performance-Gewinne

Die Ergebnisse sprechen für sich.

Bei sehr großen Metric-Anfragen haben sich die Ausführungszeiten um etwa 2–3x verbessert. Während bestimmte rechenintensive Anfragen zuvor durchschnittlich bei rund 800–900 Millisekunden lagen, bewegen sie sich nun im Bereich von 300–400 Millisekunden. Noch wichtiger: Die Antwortzeiten bleiben nun konstant unter 500 Millisekunden, wobei 90 % der Anfragen im Durchschnitt unter 45 Millisekunden liegen. Dadurch werden Ausreißer reduziert und die Vorhersehbarkeit erhöht.

Der Effekt zeigt sich nicht nur in niedrigeren Durchschnittswerten. Entscheidend ist die Konsistenz. In Beratungs-Workflows ist Zuverlässigkeit wichtiger als Spitzen-Performance. Berater benötigen Dashboards, die jedes Mal schnell laden – nicht nur meistens.

Vektorisierte Verarbeitung erhöht den Durchsatz und reduziert die Varianz der Antwortzeiten. Genau diese Konsistenz nehmen Nutzer wahr.

Was das für Vermögensverwalter bedeutet

Die meisten Berater beschäftigen sich nicht mit CPU-Instruktionssätzen. Sie legen Wert auf Reaktionsgeschwindigkeit, Stabilität und die Fähigkeit, Wachstum zu bewältigen.

So übersetzt sich diese architektonische Verbesserung in konkreten Mehrwert im Alltag.

1. Schnellere Kundeninteraktionen

In Kundengesprächen müssen Analytics häufig in Echtzeit neu berechnet werden:

  • Zeiträume anpassen
  • Benchmarks vergleichen
  • Attribution analysieren
  • Allokationsannahmen verändern

Wenn Metrics sofort reagieren, verlaufen Gespräche flüssig. Berater können Szenarien ohne Zögern durchspielen. Technologie wird zum Ermöglicher statt zur Einschränkung.

2. Effizientere Verarbeitung großer Portfolios

Mit dem Wachstum von Unternehmen steigt auch die Komplexität der Portfolios. Multi-Entity-Strukturen, aggregiertes Reporting und portfolioübergreifende Vergleiche stellen höhere Anforderungen an Analytics-Engines.

Eine vektorisierte Metrics-Engine verarbeitet große Datenmengen effizienter und eignet sich daher besonders für Unternehmen mit hohem verwaltetem Vermögen oder komplexen Portfoliostrukturen.

3. Skalierbarkeit ohne Leistungsabfall

Sequenzielle Verarbeitungsmodelle verlangsamen sich linear mit zunehmendem Datenvolumen. Je größer der Datensatz, desto langsamer die Ausführung.

Vektorisierte Verarbeitung reduziert diesen Effekt, indem sie den rechnerischen Durchsatz erhöht. Dadurch entsteht eine skalierbarere Grundlage, die wachsende Kundenbestände und steigende Reporting-Anforderungen unterstützt, ohne dass die Performance proportional abnimmt.

Was das für technische Stakeholder bedeutet

Für CTOs und technische Entscheidungsträger ist Performance nicht nur ein Merkmal der User Experience. Sie ist ein architektonisches Signal.

Vektorisierte Berechnungen zeigen, dass das System:

  • Mit Blick auf rechnerische Effizienz entwickelt wurde
  • Auf algorithmischer Ebene optimiert ist, nicht nur auf der Oberfläche
  • Für höhere Datenvolumina und anspruchsvollere Analytics vorbereitet ist

Die Umstellung von Metrics auf Vektoroperationen ist anspruchsvoll. Sie erfordert besondere Sorgfalt in Bezug auf:

  • Numerische Präzision
  • Stabilität in Edge Cases
  • Speicherverwaltung
  • Konsistenz über alle Metric-Typen hinweg

Es handelt sich um eine bewusste Engineering-Investition, die das langfristige Fundament der Analytics-Engine stärkt.

Für Unternehmen, die Portfolio-Management-Systeme evaluieren, ist das entscheidend. Mit steigenden Reporting-Anforderungen und wachsenden Erwartungen an Analytics wird die zugrunde liegende rechnerische Effizienz zum Differenzierungsmerkmal.

Engineering für die Zukunft

Die Umstellung auf SIMD-Ausführung dient nicht dazu, nur ein paar Millisekunden einzusparen. Es geht darum sicherzustellen, dass Portfolio-Analytics auch bei steigenden Kundenanforderungen robust bleibt.

Mit einer 2–3x schnelleren Ausführung bei großen Metric-Anfragen und konstanten Antwortzeiten unter 500 Millisekunden ist die Metrics-Engine heute deutlich effizienter und besser skalierbar.

Für Berater bedeutet das reibungslosere Workflows.

Für Unternehmen bedeutet es eine Infrastruktur, die bereit für Wachstum ist.

Und für technische Stakeholder zeigt es eine Analytics-Architektur, die auf Performance unter realer Komplexität ausgelegt ist.

Optimieren Sie Ihre Vermögensverwaltung

Buchen Sie eine Demo und entdecken Sie, wie Performativ Ihre Vermögensverwaltung transformieren kann.

Demo buchen

Book Button ArrowBook Button Arrow
Send Email