Websiteanalyse

Websiteanalyse

Mit Web Analytics (auch u. a. Web Controlling, Web-Analyse, Datenverkehrsanalyse, Traffic-Analyse, Clickstream-Analyse) bezeichnet man die Sammlung und Auswertung des Verhaltens von Besuchern auf Websites. Typischerweise wird untersucht, woher die Besucher kommen, welche Bereiche aufgesucht werden und wie oft welche Seiten gesehen werden. Für professionell betriebene Websites wird diese Analyse vor allem zur Optimierung der Website und zur besseren Erreichung von Zielen der Website (z. B. Häufigkeit von Besuchen, Vermehrung von Seitenaufrufen, Bestellungen, Newsletter-Abonnements) eingesetzt.

Wie oft bei neuen Verfahren gibt es auch im Bereich Web Analytics eine gewisse Unklarheit und Uneinigkeit hinsichtlich der Begriffe und Bedeutungen (siehe Terminologie). Für Diskussionen sorgt auch immer wieder die Frage, welches Verfahren zur Datensammlung das beste im Einzelfall oder allgemein ist (siehe Verfahren). Grundlegend kann bei Web Analytics zwischen Auswertungsverfahren zur permanenten Messung der Site-Effektivität und Methoden zur Auffindung von Schwachpunkten in der Site und Verbesserungsmöglichkeiten unterschieden werden (siehe Methoden). Weltweit bieten etwa 150 Unternehmen professionelle Lösungen für Web Analytics an. Die Produkte können teilweise unternehmensintern installiert werden oder auch als ASP-Angebot mit (meist) monatlichen Nutzungsgebühren ohne wesentliche unternehmensinterne Hard- oder Software-Aufwände genutzt werden (siehe Lösungsübersichten).

Inhaltsverzeichnis

Terminologie

Während sich weltweit der Begriff Web Analytics durchgesetzt hat, wird in Deutschland oft der Begriff 'Web Controlling' synonym verwendet. Der ältere Begriff 'Logdateianalyse' teilt mit Web Analytics eine Schnittmenge (Analyse von Webserver-Protokolldateien), allerdings kann mit Logdateianalyse auch die Analyse anderer Protokoll-Dateien gemeint sein. Wie 'Web Controlling' hat sich in Deutschland auch der Begriff 'Page Impression' (PI) abweichend vom international genutzten 'Page View' (PV) durchgesetzt. Gemeint ist in jedem Fall der Abruf einer Seite eines Internetangebotes durch einen menschlichen Besucher (keine Crawler, Spider etc.). Mehrere einzelne Seitenabrufe werden zu einer Sitzung zusammengefasst (Visit, Besuch). Ein Besucher (Unique User oder Visitor) kann eine Website in mehreren Sitzungen besuchen.

Verfahren zur Datensammlung

Gewöhnlich werden für Web Analytics entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in Websites zur Datengewinnung genutzt. Neben diesen beiden existieren noch Verfahren, die WebServer Plugins oder Netzwerk Sniffer benutzen.

Server-basierte Daten: Logdateianalyse

Die Software zum Betrieb von Websites, ein sogenannter Webserver wie Apache oder MS IIS, produziert gewöhnlich einen fortlaufendes Protokoll aller Aktivitäten der Software. Diente dies zunächst vor allem zur Aufzeichnung und Behebung von Fehlern im Betrieb, entdeckte man schnell die Möglichkeit, mithilfe dieser Logdatei Ergebnisse zur Beliebtheit der Website, zur Häufigkeit von Seitenabrufen, zur Aktivität der Website-Besucher zu sammeln. Da diese Protokolle direkt von der eigenen Software angelegt werden, zeigen sie ein getreues Abbild der Server-Aktivitäten. Zur Auswertung der Protokolle – pure Text-Dateien, die zeilenweise Aktivitäten der Software wiedergeben – wird gewöhnlich eine Software genutzt, die Statistiken erstellt, Daten zuordnet und in Grafiken und Tabellen anschaulich macht.

Client-basierte Daten: Tags & Pixel

Seit etwa 1996 gibt es ein weiteres, einfaches Verfahren zur Datensammlung: Direkt in den Quellcode der Website selbst werden unsichtbare Minibilder (1-Pixel-Grafiken) integriert. Ein Abruf dieser Grafik kann jetzt für genau einen Seitenabruf stehen. Die Pixel-Datei muss sich dabei nicht auf dem gleichen Server wie die eigentlichen Inhalte der Website befinden. So können ASP-Dienstleister die Sammlung, Speicherung und Auswertung der Daten übernehmen. Neben den noch immer genutzten 1-Pixel-Bildern wird heute von fast allen Lösungen zusätzlich Javascript-Code zur Datenerhebung eingesetzt. Diese 'Javascript-Tags' werden ebenso in den Quellcode der Seite integriert, können aber zusätzliche Informationen über den abrufenden Client (gewöhnlich den Browser) sammeln – z. B. grafische Auflösung des genutzten Monitors, Farbtiefe, im Browser installierte Plugins etc. Neuere Tools erlauben auch die Aufnahme der Mausbewegungen (Mouse Tracking) oder Tastatureingaben der Website-Besucher [1].

weitere Verfahren

Für die Netzwerk-Protokoll-Analyse (NPA, Network Sniffer) wird ein spezieller Decoder zwischen die eigenen Webserver und der Verbindung zum Internet eingesetzt. Dieser sammelt nun den gesamten Datenverkehr in diesem Netzwerk. Beim URL-Rewriting wird ein Proxy zwischen Webserver und Internet installiert, der in speziellen Logdateien die Datenverkehrsdaten speichert und dabei gleichzeitig zusätzliche Informationen (Session-IDs) in die URL schreibt. Sogenannte Hybrid-Verfahren verarbeiten mehr als eine Datenquelle gleichzeitig. Besonders die integrierte Auswertung von Tag-Daten und Server-Daten stellt eine besonders reichhaltige und zuverlässige, aber auch aufwändige Art der Datenverkehrsanalyse dar.

Cookies

Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell wiederkehrenden Besucher zuordnen zu können, werden gewöhnlich Cookies eingesetzt. Es gibt heftige Debatten um dieses Thema, hier sei etwa auf die Seite HTTP-Cookie verwiesen. Festzuhalten bleibt, dass für eine professionelle Datenverkehrsanalyse, die in das Zentrum ihrer Aufmerksamkeit den 'Besucher' (nicht die einzelne Sitzung) stellt, Cookies gegenwärtig unabdingbar sind. Alternative Methoden mit Flash-Objekten scheinen nur eine Nischenexistenz zu führen. Im Unterschied zu klassischen Cookies können damit Besucher auch wiedererkannt werden, wenn sie verschiedene Browser verwenden.

Tag vs. Logdatei – Vor- und Nachteile

Datenverkehrsanalysen haben mit starken Verzerrungen im Datenbestand zu kämpfen. Keine Art der Analyse kann für sich beanspruchen, den tatsächlichen Datenverkehr einer Website wahrheitsgetreu abzubilden.

server-basiert client-basiert
Seitenabrufe, die aus Proxies, Zwischenspeichern o. ä. bedient werden, können vom Server nicht registriert werden Verzerrungen durch Zwischenspeicher können vermieden werden
die gewöhnliche Weise der Sitzungszuordnung (gleiche IP-Adresse für max. 30 Min.) ist hochgradig fehleranfällig durch Nutzung von Cookies kann die Sitzungs- und Besucher-Zuordnung bis auf ein für die weitere Verarbeitung akzeptables Maß gesteigert werden
die gewöhnliche Weise der Besucher-Zuordnung (IP-Adresse, ggf. UserAgent) ist in keiner Hinsicht verlässlich Besucher, die Javascript und/oder Bilder in ihrem Browser blockieren, werden nicht erkannt
Daten sind und bleiben im Unternehmen selbst Cookie-Blockaden und Löschraten sorgen für Unsicherheiten
das Datenformat ist offen, Daten können von verschiedenen Analyse-Tools ausgewertet werden das Datenformat ist proprietär, d. h. Daten können bei einem Wechsel kaum von Anbieter A zu Anbieter B mitgenommen werden
sämtliche Spider, Bots u. ä. werden in den Logdateien registriert Spider und Bots werden nur teilweise registriert – das verschlankt die anfallende Datenmenge, ist aber für Suchmaschinenoptimierungen ein Hindernis
die Fehlermeldungen der Server werden unmittelbar registriert nicht alle Fehlermeldungen werden erkannt
durch Javascript können reichere Daten über Clients gesammelt werden
verschiedene Standorte, Server-Cluster, Domains und Subdomains o. ä. stellen kein wesentliches Problem dar


Zusammenfassend lässt sich feststellen, dass das client-seitige Verfahren in Kombination mit 1-Party-Cookies heute das gebräuchlichste und – pragmatisch gesehen – das beste ist. Die Datenqualität ist stark genug, um auf dieser Grundlage belastbare Entscheidungen treffen zu können. Die Kosten für ein gleichwertig zuverlässiges System auf Basis von Logdateien (und Cookies) liegen im allgemeinen deutlich höher und kommen am ehesten dort in Frage, wo eine erhebliche Sensibilität der Daten vorliegt.

Methoden Web Analytics

Allgemein lassen sich zwei Anwendungsbereiche von Web Analytics unterscheiden:

1. regelmäßiges Monitoring der Effektivität der Website und dazugehörige Kampagnen

Durch die Definition von Kennziffern (z. B. Kosten, Umsatz, Konversionsrate, PageViews pro Sitzung, Sitzungen pro Besucher) lassen sich die einzelnen Daten der Analysen zu sinnvollen Informationen verdichten und in einen Kontext der Vergleichbarkeit setzen: Verlauf des Umsatzes über das Jahr, Kosten pro Kampagne, Konversionsrate im Vergleich zu einem gesetzten Ziel etc.

2. Strategien zur Optimierung der Website

  • Pfad-Analysen helfen bei der Suche nach besonders beliebten und unbeliebten Seiten in einer Website
  • Segmentierungen helfen beim Auffinden und weiteren Unterscheiden von bestimmten Besuchergruppen (z. B. Besucher von Suchmaschine A im Vergleich zu Besuchern von Suchmaschine B)
  • Konversionspfade (Funnel) helfen bei der Messung und Optimierung von definierten, wichtigen Seitenabfolgen in der Website
  • Optimierungen von Startseiten oder Landing Pages durch schnelles Ausprobieren von kleinen Verbesserungen und Veränderungen (A/B-Tests)


Nutzen von Web Analytics

Professionelles Webcontrolling ist für Websites mit kommerziellen Inhalten unabdingbar.

Web Analytics dient der Analyse, Optimierung und Kontrolle von Prozessen, betreffend alle Internet-Aktivitäten eines Unternehmens.

Webcontrolling ist eine Maßnahme zur Investitionssicherung. Mit der Kontrolle des Userverhaltens in Verbindung mit der Weiterentwicklung der eigenen Online-Strategie kann die Effizienz des Webauftritts zielgerichtet verbessert werden. Die eigene Website muss einem permanenten Optimierungsprozess unterworfen sein.

Ein fundiertes Web-Controlling ist wichtiges Element des Customer Relationship Managements (CRM). Webcontrolling ermöglicht Kundenwünsche besser zu verstehen, das Marketing zu optimieren und Betrugsfälle (Klickbetrug, Affiliate Hopping) zu vermeiden.

Statistiken über ROI, Warenkörbe, Konversionsraten und Online-Umsätze zeigen Schwachstellen in der eigenen Webpräsenz auf und weist auf die Parameter hin, die verändert werden müssen.

Webcontrolling ist weit mehr als nur das Zählen von Statistiken.

Datenschutz und Vertrauenswürdigkeit

Professionelle Anbieter erfüllen alle Anforderungen des Datenschutzes. Bei amerikanischen Unternehmen, die in Deutschland agieren, sollte dies jedoch im Vorfeld geklärt werden, da dort der Datenschutz nicht in einem so sicheren Umfang wie in Deutschland bzw. Europa geregelt ist (vgl. §§ 11, 4b Absätze 2 und 3 BDSG). Die Speicherung oder Übermittlung personenbezogener Daten ist allenfalls mit Einwilligung der Internetnutzer zulässig (§§ 4, 4a BDSG), was speziell im Telemediengesetz geregelt ist. Eine Einwilligung muss „bewusst“ erfolgen (§ 13 II TMG) und darf nicht gegen § 307 II BGB verstoßen. Es wird die Auffassung vertreten, dass es ein wesentlicher Grundgedanke des Telemediengesetzes ist, den Nutzer vor einer verdachtslosen Protokollierung seines Nutzungsverhaltens zu schützen. Abweichende Einwilligungsklauseln seien deswegen unwirksam nach § 307 II BGB.[2]

Das Telemediengesetz in Deutschland lässt eine Verarbeitung von personenbezogenen Daten nach § 12 I TMG nur zu, wenn der Benutzer vorher zugestimmt hat oder eine gesetzliche Ermächtigung vorliegt. Durch den Einsatz eines externen Tools wird aber mitunter die vollständige IP-Adresse (ein personenbezogenes Datum) des Seitenbesuchers an einen Dritten (Dienstanbieter) übermittelt. Sofern der Benutzer nicht vorher eingewilligt hat, ist dies unzulässig, da keine Rechtsgrundlage ersichtlich ist, die dies erlauben soll.

Im Bereich der Erfassung von Zugriffen in Logdateien hat die Rechtsprechung entschieden, dass die Speicherung von vollständigen IP-Adressen über die Dauer des Nutzungsvorgangs hinaus unzulässig ist (LG Berlin, Az. 23 S 3/07[3]). Eine weitere Ansicht in der Literatur (Gola/Schomerus, § 3 Rn. 10) hält IP-Adressen nur für "relativ" personenbezogen, wonach die Speicherung von IP-Adressen bei Content-Anbietern zulässig und erst ihre Übermittlung unzulässig sei.

Literatur

  • Web Analytics Demystified, Eric T. Peterson, 2004, Englisch
  • Web Analytics: An Hour a Day, Avinash Kaushik, 2007, Sybex, ISBN 0-470-13065-2, Englisch
  • Actionable Web Analytics: Using Data to Make Smart Business Decisions, Jason Burby & Shane Atchison, 2007, Sybex, ISBN 0-470-12474-1, Englisch
  • Web Metrics: Proven Methods for Measuring Web Site Success, Jim Sterne, 2002, Wiley & Sons, ISBN 0-471-22072-8, Englisch
  • Web Analytics - Damit aus Traffic Umsatz wird: Die besten Tools und Strategien, Frank Reese, 2008, Verlag: Businessvillage, ISBN 978-3-938358-71-9
  • Web Analytics - Metriken auswerten, Besucherverhalten verstehen, Website optimieren. Marco Hassler, 2008, Mitp-Verlag, ISBN 978-3-826659-31-7

Weblinks

Einzelnachweise

  1. Michel Rossier: Mausbewegungen tracken. 15. Juli 2007.
  2. http://www.wirspeichernnicht.de/content/view/4/21/
  3. http://www.daten-speicherung.de/?p=197

Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”