1. Home
  2. Invest
  3. Big Data im Asset-Management

Asset-Managment
Rendite mit Big Data

Datenbearbeitung
Im Asset-Management werden riesige Datensätze verarbeitet.Quelle: supershabashnyi

Fondsanbieter suchen mit Datensätzen nach neuen Anlageideen. Einige dieser Produkte sind für Privatanleger in der Schweiz zugänglich.

Von Carla Palm
am 24.08.2018

Die Aktienmärkte laufen gut. Beim US-Index S&P 500 etwa ist schon wieder eine Rekordmarke in Sicht. Auch der Swiss Market Index (SMI) ist etwas schwungvoller unterwegs. Gute Zeiten also für Kleinanleger, die auf die richtigen Einzeltitel gesetzt haben. Doch für viele aktive Assetmanager wird das gute Börsenumfeld zunehmend zum Problem. Denn für sie wird es immer schwieriger, attraktive Zusatzrenditen zu erwirtschaften und die teilweise hohen Gebühren zu rechtfertigen. Für frischen Wind sollen nun Produkte sorgen, die auf aufwendigen Big-Data-Analysen beruhen.

Mit der Auswertung riesiger Datenmengen – von Google-Nutzungsdaten über Satellitenaufnahmen bis hin zu Textanalysen von Umsatzmeldungen der Unternehmen – versuchen sich die Fondsgesellschaften von der Konkurrenz abzuheben. Kleinere Anbieter drängen dabei genauso in den Markt wie die grossen Platzhirsche. Den Big Data ist in den letzten Jahren von einem Modewort zu einem festen Bestandteil quantitativer Investmentstrategien in der Fondsbranche geworden (siehe Grafik oben).

Täglich drei Terabyte

Mit Siebenmeilenstiefeln voran eilt der weltweit grösste Assetmanager Blackrock, der gerade erst auch seine Schweizund Europa-Plattform mit Big-Data-Fonds (Advantage-Serie) für Privatanleger ergänzt hat. In den USA sind diese Produkte bereits seit 2017 am Markt, mit guten Resultaten: Acht von neun konnten die Benchmark übertreffen. Auch bei den Kunden sei die Akzeptanz gross, wie Blackrock versichert. Wohl auch weil die aktiven Fonds zum Preis eines ETF angeboten werden. Quantitative Strategien haben beim amerikanischen Vermögensverwalter eine über dreissigjährige Tradition, berichtet Portfoliomanager Simon Weinberger, der in einem Spezialteam von Blackrock in London für die Analyse riesiger Datensätze verantwortlich ist.

Mit dabei sind neben den Anlageprofis auch Datenexperten, die von Google, Facebook oder sogar der Nasa abgeworben werden konnten. Das Ziel: eine Infrastruktur aufsetzen, mit der die Informationsflut sinnvoll gebändigt wird und schliesslich bessere Anlageergebnisse erzielt werden können. Heute bearbeitet das Blackrock-Team täglich Datenmengen in der Grössenordnung von drei Terabyte, mit deren Hilfe weltweit ein Anlageuniversum von 15 000 Aktien beobachtet wird. Zum Vergleich: Ein traditioneller Portfoliomanager hat gerade einmal siebzig bis achtzig Titel im Blick.

Gemäss Weinberger hat das Blackrock-Team rund fünfzig Faktoren identifiziert, auf deren Basis Anlageentscheidungen getroffen werden. «Besonders gute Erfahrungen haben wir mit Textanalysen von Umsatz- und Analystenkonferenzen gemacht. So können wir zwischen den Zeilen zusätzliche Erkenntnisse über die Perspektiven eines Unternehmens herausziehen und haben oft einen Informationsvorsprung», sagt Weinberger. Pro Quartal werden ein paar tausend solcher Transkripte ausgewertet und gezielt nach bestimmten Stichworten durchleuchtet. Weniger gute Erfahrung machte das Blackrock-Team dagegen mit Satellitenauswertungen parkierter Personenwagen vor amerikanischen Grosshandelsketten wie Walmart oder Costco. «Das brachte keine zusätzlichen Informationen über das laufende Geschäft, da viele Konsumenten heute online bestellen. Den Datensatz konnten wir nicht verwenden», berichtet Weinberger.

Daten von Fintech-Anbietern

In Schwellenländern wie China oder Taiwan hingegen seien Satellitenauswertungen über Verkehrsaufkommen oder den Metallgehalt in der Luft sehr hilfreich, da sie einen zeitechten Zusatz zu den vielleicht manchmal geschönten, öffentlichen Konjunkturdaten liefern könnten. «Trotzdem funktioniert Big Data besonders in reifen Märkten», fügt Weinberger an. Die Datenverfügbarkeit sei hier einfach enorm. Dazu beigetragen hätten kleinere Fintech-Anbieter, bei denen Blackrock auch einen Grossteil der Datensätze bezieht.

Der Vorsprung, den Blackrock sich im Bereich Big Data  erarbeiten konnte, hat natürlich auch seinen Preis. Neben den mittlerweile achtzig Personen, die weltweit für das Big-Data-Team arbeiten, fallen vor allem Kosten für die Datensätze an, die bis zu 10 Millionen Dollar im Jahr betragen können. Das ist auch der Grund, warum kleinere Fondsanbieter beim Thema Big Data hintanstehen. Im Finanzbereich sind es dann auch vor allem die Grossbanken, die ähnlich wie Blackrock unterwegs sind, nur eben etwas langsamer.

Die Credit Suisse etwa ist dabei, die Big-Data-Kapazitäten im Assetmanagement auszubauen. «Der Einsatz von Technologien, die den exponentiell anwachsenden Datenbeständen nutzbare Erkenntnisse entlocken, wird aus unserer Sicht Grundlage wesentlicher Elemente des Geschäftsmodells eines Assetmanagers werden», sagt CS-Sprecher Sebastian Kistner. Daher seien die strukturierte Aggregation grosser Datenmengen und der Aufbau von Analyse- und Speicherkapazitäten bei Credit Suisse Asset Management in vollem Gange. «Voraussichtlich 2019 werden konkrete Ergebnisse sichtbar sein», so Kistner. Zudem ist Credit Suisse Asset Management durch die Gründung eines Joint Venture mit einem ETH-Spinoff im Markt aktiv. Systematic Investment Management (Simag) nutzt Big-Data-Verarbeitung, um Anlageentscheide zu optimieren. Dabei werden institutionellen Anlegern wissenschaftliche Erkenntnisse aus den Bereichen maschinelles Lernen und komplexe Systeme zugänglich gemacht und für neue quantitative Anlagelösungen genutzt.

Anzeige