Detail-Informationen

Autor

Boris Hänßler

verfasst am

08.07.2014

im Heft

journalist 7/2014

Wie bedeutet Erfolg im Netz? Zählt die Aufmerksamkeit, die Verweildauer oder doch nur die Zahl der Klicks? (Bild: pa/ikon images/Frazer Hudson)

Erfolgsmessung im Netz

Und es hat Klick gemacht

Was will der ominöse Onlineleser? Wann ist journalistischer Content erfolgreich? Umfragen zu diesem Thema sind meist unbefriedigend. Auch Klickzahlen können manchmal in die Irre führen. Erst langsam begreifen Redaktionen das Potenzial der Daten, die ihre Leser selbst erzeugen.

Was läuft falsch im Journalismus? Wenn ein Unternehmen etwas über die Qualität seiner Leistung wissen will, fragt es seine Kunden. So machte es der Spiegel-Verlag, als er 2020 – Die Zeitungsdebatte ins Leben rief: Er fragte, wie Leser sich die digitale Zeitung der Zukunft vorstellen. Die Befragung hatte einen Haken: Leser geben oft keine ehrlichen Antworten. Bekannt ist das Phänomen aus dem Bereich des Datenschutzes. Fragt man die Bürger, wie wichtig ihnen der Datenschutz ist, erklärt die Mehrheit: immens wichtig. Doch nur eine Minderheit verhält sich dementsprechend. Gleiches gilt für den Journalismus: Leser loben alles, was nach Qualitätsjournalismus klingt. Das bedeutet aber nicht, dass sie ihn auch annehmen.

Das tatsächliche Verhalten der Leser ist hingegen ehrlich. Und das Gute ist: Es lässt sich besser messen als je zuvor. Die Kunst besteht nicht mehr darin, die Daten zu erheben, sondern etwas Sinnvolles damit anzufangen. Gelingt das, könnten darin die Antworten stecken, nach denen Medien seit Jahren suchen: Was will der Leser wirklich? Was macht einen Onlinebeitrag erfolgreich?

Lange Zeit galten Seitenabrufe – die Zahl der neuen und wiederkehrenden Besucher – als Erfolgsmaßstab. Das Onlinemagazin Golem.de bezahlt seinen Autoren sogar ein Honorar, das auf der Abrufrate ihrer Texte basiert. Doch genau diese Zahlen sagen wenig über die Qualität eines Textes aus. Buzzfeed gelingt es mit Listen à la "12 der gefährlichsten Tiere als Babys" die Klicks in die Höhe zu treiben – die Qualität spielt dabei keine Rolle. Doch was soll man stattdessen messen? Es mangelt nicht an Zahlen und Werkzeugen. Zeit Online nutzt zum Beispiel Google Analytics, Webtrekk, Meetrics und Optimizely. Diese Tools liefern Auskunft darüber, wie viele Leute auf der Webseite waren, wie viele aktuell dort unterwegs sind, mit welchen Suchbegriffen sie kamen, ob sie ein E-Mail-Link oder ein RSS-Feed auf die Seite geführt hat. Die Tools liefern, basierend auf Schätzungen, sogar Angaben zu Geschlecht und Alter der Leser, ihrem Herkunftsland und ihren Interessen. Die sogenannte In-Page-Analyse bildet den Weg grafisch ab, den Leser auf der Website zurücklegen. Es wird gemessen, wie lange jemand auf einer Seite verweilt, wie weit er scrollt, welche Betriebssysteme, Geräte und Browser er nutzt.

Wann kommt der Inhalt beim Leser an?

Die Redaktion von Süddeutsche.de setzt zudem auf die Software Chartbeat. Das gleichnamige Unternehmen hat unter anderem mit der New York Times und Forbes kooperiert, um herauszufinden, welche Daten die Redaktionen wünschen. Das Ergebnis ist Chartbeat Publishing. Die Redakteure sehen neben Echtzeit-Besucherdaten, ob eine Geschichte tendenziell beliebter wird oder in der Lesergunst schwindet. Auch zur Verbreitung in den sozialen Medien wird ein Trend errechnet. Entsprechend können die Redaktionen eine Geschichte auf ihren Eingangsseiten nach oben oder unten wandern lassen – oder mit neuen Inhalten zu einem gefragten Thema nachlegen. Chartbeat teilt die Leser zudem in neue, wiederkehrende und loyale auf. Loyal ist, wer die Webseite an mindestens acht der vergangenen 16 Tage besucht hat.

Beim Blick auf Chartbeat merkt man allerdings schnell, dass isoliert betrachtete Zahlen nicht weiterhelfen. Ein Text kann hervorragend auf Twitter und Facebook laufen, doch das bedeutet nicht, dass er gelesen wird. Nicht einmal eine hohe Abrufrate bedeutet, dass der Inhalt beim Leser ankam. Wer hat nicht schon auf Facebook verheißungsvolle Teaser angeklickt und dann den Artikel nach einem Satz wieder beendet. "Nutzer, die von Facebook oder Twitter kommen, bleiben statistisch gesehen sogar gut ein Drittel weniger lang in Artikeln als unsere Durchschnittsnutzer", sagt Stefan Plöchinger, Chef von Süddeutsche.de. "Der Anteil der Schnell-rein-und-wieder-weg-Leser ist hier also etwas höher."

Chartbeat-Chef Tony Haile schrieb kürzlich in einem Artikel für das US-Nachrichtenmagazin Time: "Wir haben 10.000 Artikel analysiert, die in sozialen Medien geteilt wurden. Es gibt keinen Zusammenhang zwischen der Anzahl der Shares, Retweets oder Likes und der Zeit, die ein Leser mit dem Inhalt verbringt." 55 Prozent der Leser würden nicht einmal 15 Sekunden auf einer Seite bleiben. Tony Haile rät deshalb zu einem grundsätzlichen Gedankenwechsel vom Klick-Web zum Aufmerksamkeits-Web. Onlineredaktionen sollten sich vor allem für das interessieren, was zwischen zwei Klicks passiert.

Verweildauer gewinnt an Relevanz

Aber wie lässt sich die Aufmerksamkeit erfassen? Einige Medien verteilen Artikel auf mehrere Seiten – Weiterklicken ist ein Indiz für Weiterlesen. Chartbeat und Google Analytics messen, wie tief ein Nutzer auf einer Seite herunterscrollt. Doch sowohl Durchklicken als auch Scrollen sind unbefriedigende Maße. Einige User lesen die Schlagzeile, ärgern sich und scrollen oder klicken sich zu den Kommentaren durch.

Daher gewinnt insbesondere die Verweildauer an Relevanz. Also die Zeit, die ein Leser auf einer Artikelseite verbringt. Sobald die Seite im Browser lädt, beginnt auf dem Server eine Art Stoppuhr. "Die Verweildauer könnte die neue Kenngröße sein, gerade bei loyalen Lesern und wenn man in Richtung eines Bezahlmodells geht – so wie wir", sagt Stefan Plöchinger. "Wir diskutieren gerade, ob wir auf solche Kenngrößen umstellen sollen."

In der Tat unterscheiden sich Verweildauer und Abrufrate deutlich. Chartbeat bietet zum Beispiel eine Live-Demo an, die aktuelle Statistiken des Technikblogs Gizmodo zeigt. Dort führte zwar ein Video mit Frauen, die beim Singen angeblich einen Orgasmus haben, die Artikelliste bei den Abrufzahlen an. Doch die Verweildauer bei dem etwa 2:40 Minuten dauernden Video liegt durchschnittlich bei nur 42 Sekunden. Der aufwendige und exklusive Artikel Beat By Dre: The Exclusive Inside Story of How Monster Lost the World band die Leser im Schnitt zwischen zwei und drei Minuten, obwohl er am Veröffentlichungstag deutlich weniger Leser angelockt hatte als das reißerische Video.

Liest der Nutzer tatsächlich – oder holt er sich gerade einen Kaffee?

Doch ab welcher Zeit gilt ein Text als gelesen? "Es gibt keine pauschalen Aussagen darüber", sagt Manuel Marini vom Frankfurter Unternehmen Marini Media, das sich auf Webseiten-Analytik spezialisiert hat. Marini: "Die Verweildauer hängt mit dem Niveau eines Textes zusammen – und mit dem Leser. Leser mit geringem Bildungsgrad lesen etwa 100 Wörter pro Minute, gebildete Leser schaffen 400." Bild.de müsste bei derselben Textlänge einen anderen Zeitmaßstab ansetzen als die Neue Zürcher Zeitung (NZZ).

Will man aussagekräftige Werte, reicht es zudem nicht, die Texte in gelesen und ungelesen einzuteilen. Die Leute hüpfen manchmal über die Texte und lesen nicht alles, aber immerhin einen Teil. "Daher ist es sinnvoll, eine Prozentrate einzuführen: 100 Prozent gelesen, 75 Prozent gelesen, 50 Prozent und so weiter", sagt Marini. Man könne sogar zusätzlich mit Javascript die Cursor-Bewegungen messen. "Die meisten Menschen bewegen beim Lesen unbewusst den Mauszeiger über den Text. Das ist ein guter Indikator, wie intensiv die Leute sich mit dem Inhalt beschäftigen – oder ob sie die Seite nur aufgerufen haben und sich einen Kaffee holen."

Als Vergleichsgröße kann die Verweildauer indes genauso problematisch sein wie die Abrufrate. Stefan Plöchinger sagt, dass einige Medien die Verweildauer künstlich in die Höhe treiben könnten: "Wer ein Browsergame auf seine Nachrichtenseite stellt oder üppig Kommentarforen ausbaut, hat schnell eine gewisse Gruppe von Menschen länger bei sich, aber nicht die Lesequote in den Texten gesteigert."

Für die IVW zählen Klicks

Trotz der Tücken – die bisherigen Messungen zeigen, dass hochwertige Storys von Lesern honoriert werden. "Lange Strecken kommen bei uns gut an," sagt Martin Jungfer, Leiter Redaktionsmarketing und Produktmanager Reach der NZZ. "Wir sind oft über die Zahlen überrascht. Manche trockene politische Analyse erreicht eine erstaunliche Reichweite, obwohl wir gar nicht damit gerechnet haben." Auch Adam Felder, Online-Datenanalyst der US-Zeitschrift The Atlantic sagt: "Ausführliche Texte aus dem Printmagazin erreichten online mehrere Millionen Besucher. Das Besondere ist, dass sie nicht nur vier Stunden nach Veröffentlichung funktionieren, sondern noch Monate später. Damit retten sie uns manchmal über weniger gut laufende Phasen hinweg."

Da vor allem längere Exklusivgeschichten eine hohe Verweildauer mit sich bringen, tragen sie letztlich zur Imagebildung bei. "Wir positionieren uns damit auch als glaubwürdige journalistische Marke. Ohne solche Geschichten hätten wir auf Dauer keinen Erfolg", sagt Felder. Christian Röpke, Geschäftsführer von Zeit Online, sieht es ähnlich: "Man darf den Branding-Effekt von aufwendigen Reportagen nicht unterschätzen – die Werbewirksamkeit in diesen Umfeldern lässt sich selbst mit modernsten Marketinginstrumenten bisher nur schwer messen." Dass der Effekt dennoch funktioniert, zeigen die Summen, die Konzerne für Branding einkalkulieren. Jim Bankoff von Vox Media sagte 2013, dass Firmen weltweit jährlich mehr als 180 Milliarden Euro für Marketing ausgeben – davon würden 70 Prozent in die Markenbildung fließen. Eine Investition in eine hohe Verweildauer ist eine Investition in die Marke.

Die Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW) plant allerdings vorerst nicht, die Verweildauer zu berücksichtigen. Der Verein, der den Traffic von rund 3.500 werbefinanzierten Internetangeboten in Deutschland erhebt, hat erst 2013 mit der Messung von mobiler Internetnutzung und von Smartphone-Apps begonnen. Die Verweildauer sei natürlich immer wieder ein Thema, aber eine Umstellung wäre sehr aufwendig und sei auf absehbare Zeit nicht geplant, sagt IVW-Sprecher Gerhard Gosdzick.

Brian Abelson, ein Mitglied der Knight-Mozilla OpenNews Foundation, hat unterdessen am Beispiel der New York Times (NYT) eine ganz andere Kennzahl getestet: sogenannte "Pageviews above replacement". Dabei werden die Abrufzahlen der Werbung gegenübergestellt, die für den entsprechenden Artikel betrieben wurde – sei es durch die Platzierung auf der Homepage, durch Tweets oder andere Maßnahmen. Ein Ergebnis: Meinungsartikel der NYT-Autoren schneiden weniger gut ab, wenn man ihre prominente Platzierung auf der Homepage "abzieht".

Trifft ein Algorithmus bessere Entscheidungen?

Ein weiteres großes Potenzial der Webseiten-Analyse besteht künftig darin, zu prognostizieren, was beim Leser ankommt. Adam Felder hat in einem Blogbeitrag erklärt, wie das funktioniert. Er notiert zunächst in einer Tabelle einige Schlagwörter wie zum Beispiel Obama, Reform, Republikaner, NSA und Immigration. In einer zweiten Spalte trägt er ein, in wie vielen Artikeln diese Wörter vorkamen. Ab der dritten Spalte folgt die Zahl der Abrufe all der Artikel, die zu dem Schlagwort gehören – und zwar in fünf Abstufungen: Angefangen mit den Artikeln, die akzeptabel liefen, bis zu denen, die weit über dem Durchschnitt lagen. Schlecht laufende Artikel werden nicht gezählt. Um das Gesamtabschneiden eines Schlagworts zu berechnen, nutzt Felder eine Formel, mit der er die Abstufungen unterschiedlich gewichtet. Die Durchschnittswerte verraten ihm dann, welche Schlagwörter über einen langen Zeitraum hinweg eine hohe Aufmerksamkeit erregt haben – und das vermutlich weiterhin tun werden.

Der Datenanalyst kann mit diesem Wissen an die Redaktion herantreten und sie entsprechend beraten. Doch das erfordert Sensibilität. Kein Chefredakteur möchte sich sagen lassen, dass er Themen nach Zahlen besetzt. "Themenauswahl ist eine redaktionelle Hoheit", sagt Christian Röpke. Aber er sagt auch: "Zur Überprüfung der Performance wird aber natürlich auch auf Statistiktools gesetzt. Je nach Erkenntnislage kann es dabei zu Justierungen der Positionen der Artikel kommen." Stefan Plöchinger äußert sich ähnlich ambivalent: "Der Erfolg eines Artikels wird zuerst nach seinem Inhalt bewertet – und dabei zählt nicht nur das Tempo der Nachricht, sondern die Tiefe und Substanz." Selbst die Entscheidung, was oben auf der Seite stehe und was unten, falle nicht allein aufgrund von Zahlen. "Diese sind nur ein Faktor von mehreren, und eher einer, anhand dessen wir merken, ob wir ein Thema unterschätzt haben. Einen nicht so gut klickenden Aufmacher würden wir nicht tiefer hängen, wenn wir von seiner Wichtigkeit überzeugt sind."

Atlantic-Datenanalyst Adam Felder sagt, er habe keinen Einfluss auf den redaktionellen Inhalt, doch er kann den Redakteuren sagen, was gut auf Facebook läuft. "Redakteure haben andererseits einen besseren Sinn dafür, was die journalistische Mission einer Seite ist. Das kann ein Algorithmus nicht", sagt Felder. Martin Jungfer von der NZZ sagt: "Wenn wir sehen, dass eine Geschichte überraschend gut läuft, dann richtet sich die Redaktion danach aus und versucht schneller als geplant, mit neuem Material online zu gehen". Es überrascht nicht, dass gerade die NZZ ihr Datenanalyse-Team ausbauen will.

Manuel Marini kennt das ambivalente Verhältnis von Zahlen und journalistischer Hoheit von seinen Kunden. Er selbst rät, die Möglichkeiten der Webanalyse noch viel stärker in den redaktionellen Alltag einzubinden. "Wenn ich Journalismus betreibe, möchte ich ja auch, dass die Beiträge gelesen werden. Durch weitere Optimierung müssen keine journalistischen Werte verloren gehen." Gut möglich, dass die Chefredakteure das in Wirklichkeit wissen. Sie sind ihren Lesern vielleicht nicht unähnlich. Auf Nachfrage sagen sie, was man von ihnen erwartet.

Über den Autor

Boris Hänßler ist freier Journalist in Bonn. Er schreibt vor allem über Technik, Forschung und Wirtschaft. Hier geht es zu seiner Website.

Die Juli-Ausgabe des journalists ist erschienen. Hier geht es zum E-Paper.

Titelthema: Die halbe Wahrheit
Warum Gruner+Jahr sich mit der Vergangenheit von Henri Nannen schwertut

Jetzt Probeabo bestellen: Hier gibt es die kommenden drei Ausgaben zum Kennenlernpreis von 5 Euro.

Aktuelle Kommentare zu diesem Text

Noch keine Kommentare.

Kommentare werden moderiert.

Kommentar verfassen

Adding an entry to the guestbook

 (Wird nicht veröffentlicht)

Bitte geben Sie hier das Wort ein, das im Bild angezeigt wird. Dies dient der Spam-Abwehr.

CAPTCHA-Bild zum Spam-Schutz Wenn Sie das Wort nicht lesen können, bitte hier klicken.