Tag Archiv für "Daten"

Programmatic Advertising ist inzwischen nahezu ein Standardbestandteil jeder Online Display und/oder mobilen Kampagnenplanung. Doch ohne geeignete Daten zur Selektion der relevanten Nutzer wäre das Optimierungspotential deutlich eingeschränkt. Glücklicherweise hat sich parallel zur steigenden Kampagnenanzahl ebenfalls die Zahl der Anbieter mit originär deutschen Daten sehr positiv entwickelt. Ich möchte heute erläutern, wie wir uns mit dem Thema Datenqualität auseinandersetzen, und welche Bewertungskriterien wir zu Grunde legen.

 

Die erste Frage, die wir uns natürlich stellen müssen: Ist der Datenanbieter bzw. die Erhebungsmethode der Daten DSGVO konform? Ja, die DSGVO hat die Reihen an der ein oder anderen Stelle etwas gelichtet. Einen Datencrash wie viele befürchtet hatten, ist aus unserer Sicht allerdings ausgeblieben. Natürlich arbeiten wir aber nur mit Anbietern zusammen, die uns bestätigen hier mindestens auf Basis des aktuell gültigen Rechts zu agieren.

 

Sind die Daten rechtlich sauber erhoben, stellt sich die Frage nach ihrer grundsätzlichen Qualität. Bei der Bemessungsgrundlage muss hier nach dem Targetingsegment unterschieden werden. Sprechen wir z.B. über B2B Datensegmente oder andere thematisch eher spitz gefasste Bereiche, so entscheidet in der Regel der Punkt der Datenaufnahme sowie das Alter des Datenpunktes über die Qualität. Hier spielt also vor allem das Umfeld bzw. die Website auf der die Daten gesammelt werden eine gewichtige Rolle. Je direkter der Zusammenhang zwischen der thematischen Ausrichtung der Seite und dem daraus resultierenden Targetingansatz, desto höher ist auch die Treffgenauigkeit der Kampagne. In diesen Fällen raten wir von hochgerechneten Datensegmenten ab, auch wenn dadurch die Reichweite dieser Targetingkampagnen eher gering ausfällt.

 

Im Bereich von soziodemographischen Daten ergibt sich ein anderes Bild. Natürlich sind Daten aus Registrierungsprozessen in der Regel qualitativ sehr hochwertig, allerdings in der Reichweite auch sehr überschaubar. Hier können über Anbieter, die über die statistischen Mittel verfügen, durchaus auch hochgerechnete Daten eine wichtige Rolle in der Kampagnenauslieferung spielen. Auf Basis von statistischen Zwillingen kann die Reichweite der Kampagne vervielfacht werden, bei vertretbaren Verlusten in der Treffgenauigkeit. Die Qualität der soziodemografischen Datenitems können wir noch vor dem Einsatz in einer Kampagne über ein Panel verifizieren. So können wir sicherstellen, dass hier wirklich nur die besten Datenpunkte zum Einsatz kommen. Vor der grundsätzlichen Datenanbindung überprüfen wir aber die einzelnen Datenanbieter auch hinsichtlich ihrer internen Prozesse. Wie genau werden die Daten hochgerechnet, bzw. wie genau versucht der einzelne Anbieter seine Daten bereits inhouse zu verifizieren und die zu Grunde liegenden Algorithmen stetig weiter zu verbessern?

 

Für alle Datenpunkte stellt sich für uns aber immer die Frage nach einer realistischen Prognose bzw. einer realistischen Angabe von Verfügbarkeiten. Nicht selten stolpert man innerhalb der DSP (Demand Side Plattform) auf angebliche Zielgruppengrößen, die schlichtweg nicht der Realität entsprechen können. Von daher lohnt sich auch immer ein Blick auf die eher spitzen Datensegmente eines Anbieters, um hier eventuelle Unstimmigkeiten aufdecken zu können.

 

Insgesamt hat sich der deutsche Datenmarkt aber stark weiterentwickelt. Nach einem zögerlichen Start können wir inzwischen auf ein Portfolio von mehr als 15 dauerhaften Partnern zurückgreifen. Von Kaufdaten, Themenaffinitäten und Soziodemographien bis hin zu kundenindividuell gerechneten Zielgruppen ist alles möglich. Inwiefern der einzelne Datenpunkt jeweils auf die Zielsetzung der Kampagne einzahlt kann dank Programmatic Advertising schnell und kosteneffizient evaluiert werden.

Wie Unternehmen mit Daten umgehen, haben wir ja bereits in einer vorherigen Folge von „Bscheid gsagt“ diskutiert. Heute aber wollen wir uns einen Einblick verschaffen, wie Dienstleister (Agenturen, Marktplätze, etc.) mit dem Thema Daten umgehen. In einem immer mehr automatisierten Markt, ähneln sich die Profile der Anbieter immer mehr. Jetzt müssen wir uns die Frage stellen: Welcher Partner im Markt kann welche Datenqualität zur Verfügung stellen?

mediascale-Geschäftsführer Wolfgang Bscheid erklärt in der heutigen Folge von “Bscheid gsagt” welchen Einfluss Daten haben und welche Wertschöpfung sich aus der Qualität dieser Daten ableiten lässt.

Wird sich das Wettbewerbsumfeld für Agenturen grundsätzlich verändern? Schauen Sie doch einfach mal rein:

Weitere Folgen von Bscheid gsagt gibt es im YouTube-Kanal von mediascale.

Wie erwartet, lässt Facebook mit Neuigkeiten nicht sehr lange auf sich warten.

So wird in den Medien derzeit viel über die neue Funktion „Graph Search“ berichtet. Hierbei handelt es sich um eine neue Suchfunktion, die Facebook seit letzter Woche als Beta-Version mit einer überschaubaren Anzahl an Usern testet.

Durch diese neue Funktion ist es möglich, innerhalb des Facebook Datenpools nicht nur nach Namen zu suchen, sondern vielmehr die semantischen Möglichkeiten des „Social Graph“ zu nutzen. Die Suche beschränkt sich also nicht nur auf Keywords, da die Zusammenhänge ganzer Sätze verarbeitet werden können.

Die alleinige Suche nach Freunden aus einer bestimmten Stadt gehört hier wahrscheinlich eher zu den banaleren Fällen. Interessant wird es erst, wenn man diese um bestimmte Kriterien erweitert, wie etwa die Lieblingsband, besuchte Orte oder gar den Beziehungsstatus. „Personen, die in meiner Stadt wohnen, musikbegeistert und single sind“ könnte solch eine Anfrage etwa lauten. Die Suchergebnisse sind dabei stark personalisiert und abhängig von den jeweils freigegebenen Daten. Die Relevanz der Ergebnisse bemisst sich dabei an Faktoren wie räumliche Nähe, Anzahl der Likes einer Seite etc. Zudem spielen auch die Kontaktintensität sowie gemeinsame Interessen eine große Rolle.

Datenschützer sind alarmiert, allerdings greift Facebook mit „Graph Search“ lediglich auf Informationen zurück, die Facebook-Nutzer entweder öffentlich im Netzwerk oder im Freundeskreis bereitstellen. Als Konkurrenz zu Google kann „Graph Search“ daher nicht bezeichnet werden, da kein Zugriff auf externe Daten erfolgt. Im Endeffekt muss sich also jeder Nutzer im Klaren darüber sein, dass er alle Daten, die er auf Facebook seinen Kontakten oder der Allgemeinheit zur Verfügung stellt, für die Suche zugänglich macht. In diesem Zusammenhang ist es also empfehlenswert, hin und wieder einen Blick in die eigenen Privatsphäre-Einstellungen zu werfen, denn ich bin immer wieder überrascht, wie viele private Profile für die Öffentlichkeit nicht gesperrt sind.

Wann „Graph Search“ für die Allgemeinheit zugänglich sein wird, ist derzeit noch nicht bekannt. Facebook bezeichnet die Suche allerdings jetzt schon als drittes Standbein neben Newsfeed und Timeline. Aber was bedeutet die Neuerung für Werbetreibende? Laut Facebook sind neben den Sponsored Results zunächst keine weiteren Werbeformate angedacht. Es bleibt jedoch abzuwarten, inwiefern sich die neuen Funktionen positiv auf das Suchvolumen auswirken werden – und dann ist es wohl nur eine Frage der Zeit, bis die neuen Werbeformen sprießen.

Interessanter könnte „Graph Search“ indes für Betreiber von Facebook-Seiten oder Apps sein. So ist es z.B. möglich, dass das eigene Restaurant ganz schnell von potenziellen Besuchern über die entsprechende Facebook-Seite gefunden werden kann. Daher gilt es, ein paar Punkte zu beachten: Relevante Daten wie Name, Kategorie oder Anschrift sollten vollständig angegeben werden, damit die Seite in möglichst vielen Ergebnislisten erscheint. Um das Ranking positiv zu beeinflussen, ist nicht nur die Anzahl der Fans relevant, sondern vielmehr deren Interaktionsrate. Je mehr Fans mit der Seite durch Likes, Comments etc. interagieren, desto relevanter erscheint diese Seite auch in der Ergebnisliste.

Auf die Interaktionsrate und deren Bedeutung für die organische Reichweite werde ich allerdings beim nächsten Mal näher eingehen.