Menu

Katharina Brunner

Bloggin' since 2007

#rp14: Wie persönliche Daten zurückerobert werden könnten

Wie können wir die Souveränität über unsere Daten zurückerlangen? Drei Sessions auf der re:publica versuchten eine Antwort zu finden. // von Katharina Brunner

 republica_screenshot650

Wir müssen unsere Daten schützen! Der Satz ist leichter gesagt als getan. Wie könnte man es tatsächlich schaffen, die Souveränität über die eigenen Daten zurückzugewinnen? Am ersten Tag der re:publica haben sich in drei Sessions die Referenten versucht, über eine Definition von My Data, konkreten Tools und einem Gedankenexperiment zu einem idealen Netzwerk versucht, sich dem Thema zu nähern. Das große Zauberwort: Dezentralität.


Drei Session haben sich auf der Republica mit individuellen Daten und wie sie in Zeiten der Triade aus Facebook, Google und NSA zumindest ein Stück zurückerobert werden können.

  • My Data sind Informationen, die sich – im Gegensatz zu Big Data und Open Data – auf einzelne Personen zurückführen lassen
  • Push/Pull-Ansatz als Kompromiss zwischen Komfort und Datenkontrolle
  • Ein erfolgreiches dezentrales Netzwerk braucht auch eine zentrale Komponente

“Was glaubt ihr, wieviele Firmen, Organisationen oder Institutionen sammeln pro Tag Daten von euch?”, fragte Christian Heise  zu Beginn der Session mit dem Titel “Big, small, open – My Data“, die er zusammen mit Mark Lizar und Marco Maas hielt. Die Antwort auf Heises Frage: “Wir wissen es nicht. Aber ich habe versucht, es bei mir an einem Tag zu zählen: Es waren 288 – und das waren nur die Offensichtlichen.”

In Anbetracht dessen haben die drei Referenten versucht, persönliche Daten von von Big Data und Open Data abzugrenzen. “Big Data ist alles, was genug Daten sind, damit sie immer statistisch signifikant sind”, sagte Heise. Open Data dagegen all jene Daten, die nicht nicht persönlich relevant sind, aber öffentliche Bedeutung haben. Die persönlichen Daten, My Data, sind all die Informationen, die jemanden persönlich identifizieren können – ganz egal, wer sie sammelt.

Damit stellen sich zwei Fragen: Wer hat Zugang zu den Daten? Und wer die Kontrolle darüber? Heise, Lizar und Maas berichten aus Großbritannien, wo es eine Debatte darüber gibt, ob alle Gesundheitsdaten in einer Datenbank gespeichert werden sollen. „Das wird zeigen, wie die die Welt zukünftig mit Gesundheitsdaten umgeht.“

Wie geht man gegen Unternehmen und Behörden vor? Unter Selbstauskunft.net können einzelne User in Deutschland von Firmen und Behörden verlangen, ihre Daten zu bekommen. Als Ziel setzte Marco Mass: “Wie bekommt man die Firmen, die Daten sammeln dazu, dass sie die eigenen Daten maschinenlesbar herausgeben.”

Konkretere Wege, wie Nutzer bereits jetzt zumindest eine Teil-Souveränität über ihre Daten wiederbekommen können, versuchte auch Jonas Westphal aufzuzeigen. Der Titel seines Vortrags: “Web 1.0 + 2.0 remixen: Digitale Identität zurückerlangen“. Web 1.0 steht dabei für eine dezentrale Struktur, Web 2.0 für die soziale und interaktive Komponente.

Kompromiss zwischen Komfort und Datenkontrolle

Wie auch Maas forderte auch er: “Wenn ich schon Daten hergebe, dann will ich sie auch kostenfrei zurück.” Mit der Software ThinkUp ist das auch möglich: Die eigenen Daten können damit über Schnittstellen aus sozialen Netzwerken auf den eigenen Webserver kopiert werden. “Das ist ein Kompromiss zwischen Komfort und Datenkontrolle, denn die Daten bleiben ja trotzdem beim Anbieter.” Die Methode heißt Pull, weil die Daten aus dem öffentlichen Raum, zum Beispiel bei Facebook oder Twitter, in die eigene Cloud gezogen werden. Der umgekehrte Weg, die Push-Methode, würde erst schlecht funktionieren.

Westphals zweiter Ansatz sind dezentrale Netzwerke. Das bekannteste Beispiel ist dafür ist Diaspora, aber auch Dienste wie Pump.io oder Tent.io. Dadurch könne man die maximale Kontrolle behalten – und damit unabhängig bleiben. Das Problem: “Diese Dienste nutzt kein Schwein.” “In the wild”, also in der digitalen Realität fällt Westphals Urteil für die dezentralen Netzwerke vernichtend aus: “Sie funktionieren nicht. Diaspora ist auf der ganzen Linie gescheitert.”

Daran schloss, thematisch wie auch auch zeitlich, Michael Seemann an, der eine Prise Optimismus in die Debatte um dezentrale Netzwerke streute. Der Titel seines Vortrags: „Dezentrale Social Networks. Warum sie scheitern und wie es gehen könnte“. Seemann zählte erfolgreiche dezentrale Ansätze auf: E-Mails und Jabber in der 1:1-Kommunikation, in der 1:n-Kommunikation das Web, Bittorrent und Blogs.

Dezentralität geht nicht ohne Zentralität

Doch die Latte für ein erfolgreiches dezentrales soziales Netzwerk liegt hoch: “Es muss eine soziale Gravitation erzeugt werden.” Es muss also unbedingt zu einem Netzwerkeffekt kommen, der den individuellen Nutzen umso größer werden lässt, je mehr andere Personen ebenfalls am Netzwerk angebunden sind. “Ein soziales Netzwerk muss alles andere dominieren, alles andere ist Bullshit”, sagte Seemann. Denn, so stellte er klar, Dezentralität sei kein Wert an sich: “Niemand nutzt es nur deshalb.”

Zentrale Netzwerke, wie etwa Facebook, haben zwei große ökonomische Vorteile gegenüber ihren dezentralen Konkurrenten: Sie können Skaleneffekte besonders gute ausnutzen und die Transaktionskosten sind geringer. Trotz der wesentlich besseren Startbedingungen für eine zentrale Organisation, glaubt Seemann nicht, dass die Idee der dezentralen Social Networks zum Scheitern verurteilt ist. Doch wenn es klappen sollte, dann ist auch in einem dezentralen Netzwerk eine zentrale Komponente, die Abfragen möglich macht. Bei Bittorrent sei das PirateBay, beim Web Google.

Doch damit Daten abzufragen sind, müssen sie öffentlich sein. Denn, so Seemanns These, im Spannungsfeld zwischen Privacy, Dezentralisierung und Erfolg kann man immer nur zwei Dinge gleichzeitig erreichen: Wollen Nutzer also ein dezentrales Netzwerk, das Erfolg hat, müssen sie zwangsläufig auf Privacy verzichten.

The post #rp14: Wie persönliche Daten zurückerobert werden könnten appeared first on Netzpiloten.de – Social Web Explorer.

Warum es ein “WhatsApp des Journalismus” nicht geben kann

Journalistische Startups haben ein Problem: Journalismus ist schwer skalierbar. // von Katharina Brunner

Measure Image (Bild- Ian Muttoo [CC BY-SA 2.0], via Flickr)

Bei dem Wort Skalierbarkeit bekommen Startup-Gründer und Investoren gleichermaßen große Augen. Es ist der Grund dafür, warum Whats App mit nur 60 Mitarbeitern einen Kommunikationskanal für 500 Millionen Nutzern entwickeln konnte. Nur wenige Personen reichen aus, um ein Produkt zu entwickeln und es auch bei großem Wachstum zu erhalten. Das stellt journalistische Startups und Verlage gleichermaßen vor ein Problem: Journalismus ist nur eingeschränkt skalierbar.


Warum ist das wichtig? Journalistische Startups sind nur eingeschränkt mit klassischen Startups vergleichbar.

  • Journalismus braucht viel Humankapital, dadurch ist das Potenzial der Skalierung geringer
  • Damit die Startups auch in Anbetracht enger Budgets wachsen können, muss die Technologie optimal genutzt werden
  • Roboterjournalismus ist der Inbegriff der Skalierungsmaxime

Skalierbarkeit bedeutet, eine Einheit Input erzeugt einen überproportionalen Output. Für Steve Blank, einer der Begründer der populären Lean-Startup-Methode ist das ein wesentliches Charakteristikum eines Startups. Er definiert sie als „eine temporäre Organisation, die nach einem wiederholbaren und skalierbaren Geschäftsmodell sucht“.

Journalismus passt nicht in dieses Schema, denn Inhalte zu erstellen ist arbeitsintensiv: interviewen, recherchieren, schreiben, schneiden, redigieren und die vielen weiteren Aufgaben sind kaum automatisierbar. Den Output bei gleichbleibender Qualität zu erhöhen ist nur möglich, wenn der Einsatz an Humankapital erhöht wird. Skalierbar ist im Online-Journalismus nur die Technologie. In Anbetracht enger Budgets ist es bei journalistischen Neugründungen deshalb umso wichtiger, das vorhandene technologische Potenzial optimal zu nutzen.

Content-Management-System als Geheimwaffe

Eine Webseite eines Online-Magazins sollte zwei Aufgaben optimal erfüllen: Die Organisation der Beiträge im Backend und die möglichst flexible Ausgabe im Frontend. Einem Content-Management-System kommt dabei eine entscheidende Bedeutung zu, findet der ehemalige Reuters-Blogger Felix Salmon: „Es ist fast unmöglich, die Wichtigkeit des Content-Management-System zu überschätzen, wenn es darum geht, wer die Online-Publishing-Kriege gewinnt.“

Die Nase vorn zu haben scheint bei dieser Auseinandersetzung im Moment Vox Media, das Unternehmen hinter Magazinen wie The Verge oder Vox.com von Ezra Klein. Die Geheimwaffe von Vox Media ist ihr Content-Management-System names Chorus. Das CMS kann nicht nur die Inhalte verwalten, sondern hat auch die Kommunikation mit Usern, Statistiken oder die Anzeigenorganisation integriert. Chorus ist der Grund, warum Klein zu Vox Media gegangen ist: „Sie hatten die Technologie, die wir erfinden wollten“, sagte Klein der New York Times. Klein spricht im Plural, weil nicht nur er die Washington Post verlassen hat, sondern mit ihm acht weitere Post-Mitarbeiter, u.a. Yuri Victor, der sich als Entwickler bei einem Nachrichtenmedium einen Namen gemacht hat.

Inhalte wiederverwertbar machen

Strukturierte Daten sind ein zweiter Weg, um die Inhalte wiederverwertbar zu machen – und damit skalierbar, weil sie mit einmaligen Aufwand öfter verwendet werden können. Ein Beispiel: Anstatt über einen Unfall nur in einer herkömmlichen Meldung zu berichten, kann man den Ort, das Datum und die Zahl der Verletzten separat als Metadaten des Artikels speichern. Diese Informationen können dann leicht auf einer Karte oder in einer Statistik dargestellt werden.

Weiter geht Lauren Rabaino, Produktmanagerin bei – Überraschung – Vox Media. „Kill the article“, schreibt sie über ein Konzept, das sie mit zwei ihrer Ex-Kollegen von der Seattle Times bei einem Hackathon entwickelte: Ein einzelner Artikel soll so in den Kontext vorher erschienener Inhalte gesetzt werden. Im Hinblick auf die Monetarisierung heißt das: Ein Text kann mehr als nur einmal Einnahmen geniereren. Der Spruch „Nichts ist älter als die Zeitung von gestern“ aus der Print-Ära verliert damit an Bedeutung.

Roboterjournalismus als Inbegriff der Skalierungsmaxime

Im Sinne der Skalierungsmaxime ist allerdings nur eine Art des Journalismus: Sogenannter Roboterjournalismus​, bei dem Algorithmen oder Sensoren die Arbeit von Journalisten ganz oder zum Teil übernehmen. Humankapital ist im Herstellungsprozess nicht notwendig, damit geht eine hohe Skalierbarkeit einher. Im April kündigte zum Beispiel die Agentur Aexea aus Stuttgart an, Sportnachrichten in acht Sprachen automatisch generieren lassen zu wollen. Doch Sportergebnisse sind sicherlich nicht das Ende der Fahnenstange. „Das wäre so, als wenn das Roboter-Auto nur auf einer schnurgeraden Straße ohne andere Verkehrsteilnehmer fahren würde“, schreibt der Datenjournalist Lorenz Matzat bei Netzpolitik.org.

Wachstum ist für jedes Startup ein wichtiger Schritt hin zu einem funktionierendem Geschäftsmodell. Im Journalismus ist das allerdings nicht durch direkte Skalierbarkeit zu erreichen: zu arbeitsintensiv ist (qualitativ hochwertiger) Inhalt. Trotzdem – oder gerade deshalb – bedeutet Innovation im digitalen Journalismus, die technologischen Gegebenheiten möglichst gut auszunutzen. Dafür braucht es in den Redaktionen nicht nur Journalisten, sondern auch Coder. Dennoch bleibt die Technologie stets nur Hilfsmittel, nicht das Produkt selbst – im Gegensatz zu Startups, die auf rein technologische Lösungen ausgerichtet sind.


Teaser & Image by Ian Muttoo (CC BY-SA 2.0)


The post Warum es ein “WhatsApp des Journalismus” nicht geben kann appeared first on Netzpiloten.de – Social Web Explorer.

Amazons Hardware-Strategie: Gib’ ihnen Kindle, verkauf’ Ihnen E-Books

Bei Shell-Tankstellen soll es den Kindle Paperwhite mit einem Rabatt von über 100 Euro geben. Der Kampfpreis steht exemplarisch für Amazons Hardware-Strategie. // von Katharina Brunner

Kindle (Bild: Zhao ! [CC BY 2.0], via Flickr)

Auf diversen Schnäppchenjäger-Blogs ist es eine Meldung wert: Im Mai soll es einen Kindle Paperwhite für umgerechnet zehn Tafeln Schokolade gaben. Das Treuepunkteprogramm Clubsmart des Mineralölkonzerns Shell bietet für 999 Punkte das im Moment neueste Modell des E-Book-Readers. Und diese knapp 1000 Punkte bekommen Kunden nicht nur durch tanken, sondern auch indem sie zehn Tafeln Ritter Sport Schokolade kaufen: Einen Kindle für unter 15 Euro. Dieser Kampfpreis zeigt einmal mehr die Strategie Amazons: möglichst viele Kunden gewinnen.


Warum ist das wichtig? Amazon subventioniert seine Kindle-Geräte, um möglichst viele Kunden zu bekommen.

  • Profit sollen Kunden bringen, wenn sie digitale Güter bei Amazon kaufen, nicht durch den Gerätekauf.
  • Durch hohe Wechselkosten soll für die Kunden ein Lock-in-Effekt entstehen.
  • Vorreiter dieses Business-Modells ist Rasierklingenhersteller Gillette.

Schon die regulären Preise für die Kindle-Geräte sind relativ gering: 129 Euro kostet der Paperwhite. Das Einsteigermodell der vollwertigen Tablets, der Kindle Fire HD, ist für den gleichen Preis zu bekommen. Das Analyse-Institut IHS geht davon aus, dass Amazon den ersten Kindle Fire unter Herstellungskosten verkaufte. 207 US-Dollar sollen Produktion, Lizenzen und Software zusammen kosten, für 199 US-Dollar konnten Kunden das Gerät erwerben. “Wir verkaufen Hardware zu unseren Kosten, wir liegen also am Break-Even“, sagte Amazon-Chef Jeff Bezos im Oktober 2012 der britischen BBC. Eine klare Aussage: Gewinn macht Amazon mit den Geräten nicht.

Amazon kennt das Geschäft mit geringen Margen

Denn egal ob E-Book-Reader oder Tablet: Günstige Hardware soll Kundenwachstum garantieren, auch wenn das Unternehmen zu Beginn sogar draufzahlen muss. Gewinn ist erst mittel- bis langfristig geplant. Wie beim E-Commerce-Bereich hat dieses Geschäft geringe Margen, Geld wird über die Masse gemacht. Und dafür müssen die E-Book-Reader in so viele Taschen wie möglich.

Verkauft werden sollen E-Books, Musik, Filme, Apps – kurz: digitale Güter.

Und damit die Kunden das so viel wie möglich tun, versucht Amazon einen sogenannten Lock-in-Effekt zu generieren: Das Grundprodukt ist günstig, Einnahmen sollen über die Folgekosten für die Kunden gemacht werden. Wer einen Kindle hat, kauft sich sehr wahrscheinlich seine E-Books auch bei Amazon. Indem die Wechselkosten – anderes Gerät, neuer Account, geringeres Angebot bei Konkurrenten – auf ein anderes System möglichst hoch sind, entsteht mit den Kindle-Produkten eine Plattforme mit genau diesem Lock-in-Effekt.

Die hohen Wechselkosten sind die Kehrseite des relativ günstigigen Einstiegspreises. Als Erfinder dieser Strategie gilt der Gründer des Rasiererherstellers Gillette, King C. Gillette. Ihm wird der Spruch “Gib’ ihnen Rasierer, verkauf’ ihnen Klingen” zugeschrieben. Diese Herangehensweise heißt deshalb auch “Razor and Blade”. Auf Amazon gemünzt: Gib’ ihnen Kindle, verkauf’ Ihnen E-Books.

Kindle-Kunden geben mehr Geld bei Amazon aus

Und die Zahlen geben Amazon bisher recht: Die Marktforschungsfirma Consumer Intelligence Research Partners hat im Dezember letzten Jahres die Ausgaben bei Amazon von Kindle-Besitzern und Kunden ohne Kindle verglichen. Das Ergebnis: Kunden mit Kindle geben geschätzt über 440 US-Dollar mehr pro Jahr aus.

Womöglich steht die Aktion, für unter 15 Euro einen Kindle Paperwhite zu bekommen, in Zusammenhang mit dem Nachfolger-Modell des Geräts. Der neue Paperwhite mit dem Namen Kindle Ice Wine soll noch im zweiten Quartal 2014 erscheinen, also spätestens bis zum Mai. Wahrscheinlich zahlt auch Shell trotz der Annahme günstiger Konditionen drauf. Aber Shell will schließlich dasselbe wie Amazon: Mit einem Treue-Programm Kunden an sich binden.

Das Geschäftsmodell Amazons ist es nicht, als Produzent für Hardware Umsatz zu generieren, sondern es versteht sich als reines Dienstleistungsunternehmen – im Gegensatz zu Apple. Das Augenmerk von Apple liegt – neben digitalen Gütern im App-Store und iTunes – auf Premium-Produkte mit Premium-Preisen. Zum Vergleich: Im Programm von Shell kann man sich auch ein iPad holen. Dafür muss man 44.999 Treuepunkte vorweisen – 44.000 mehr als beim Kindle. Das sind 440 Tafeln Schokolade.


Teaser & Image by Zhao ! (CC BY 2.0)


The post Amazons Hardware-Strategie: Gib’ ihnen Kindle, verkauf’ Ihnen E-Books appeared first on Netzpiloten.de – Social Web Explorer.

Sorgenkind Twitter: Sie haben sich stets bemüht

Neue Funktionen, neues Design, vielleicht sogar das Ende von @-Replies und Hashtags? Twitter will mit radikalen Änderungen Nutzer gewinnen. // von Katharina Brunner

Twitter (Bild: Pete Simon [CC BY 2.0], via Flickr)

Twitter weiß genau, was ich mag und für was ich mich interessiere. Offensichtlich durch das, was ich tweete, aber vor allem auch dadurch, wem ich folge“, schreibt Technologie-Analyst Ben Thompson. Doch bis zu einer hochgradig individualisierten Timeline braucht es langen Atem. Die Einstiegshürden sind hoch: Was heißt RT? Was ist ein @-Reply? Wem soll ich überhaupt folgen? Das scheint für Twitter zum Problem zu werden, denn das Nutzerwachstum schwächelt, viele Accounts verwaisen. Jetzt will Twitter dagegen steuern.


Warum ist das wichtig? Twitter hat ein Problem: Die Nutzerzahlen stagnieren, viele Accounts werden nie regelmäßig befüllt.

  • Twitter führt eine Reihe von Neuerungen ein, um die Einstiegshürden zu verringern.
  • Viele Änderungen machen Twitter dem großen Konkurrenten Facebook ähnlicher.
  • Twitter macht Verluste: Um in den Gewinne zu machen, müssen die Werbeeinnahmen gesteigert werden – durch mehr und aktivere Nutzer.

Etwa 70 bis 80 Prozent der Menschen, die sich bei Twitter anmelden, springen im Laufe der Zeit wieder ab. Nur etwa 3 Prozent der Menschen, die sich jemals bei Twitter im deutschsprachigen Raum angemeldet haben, sind heute noch täglich als Schreiber aktiv“, schreibt Holger Schmidt auf seinem Blog Netzökonom.

Dieser Unfähigkeit, angemeldete User dauerhaft an den Dienst zu binden, hat auch mit der grundsätzlichen Struktur zu tun: Twitter ist per se eine asymmetrische Plattform. Man folgt jemandem, ohne dass diese Person zurück folgen muss. Jede Aktivität muss als erstes von den Nutzern ausgehen. Beim symmetrischen Facebook ist das anders: Eine Freundschaft wird von beiden Parteien bestätigt. Als Neuling kann man also auch warten, bis Freunde und Bekannte den “Freundschaftsanfrage”-Button klicken.

Twitter ist als Werkzeug umso besser, je individueller und auf die eigenen Interessen zugeschnitten die Timeline ist. Das ist ganz Sinne der Werbepartner, die so am zielgerichtesten ihre “Sponsored Tweets” schalten können. Das Problem: Viele Neuanmelder kommen gar nicht bis zum dem Punkt, an dem der Mehrwert von Twitter den Aufwand, sich den eigenen Stream zusammenzustellen, rechtfertigt.

In einer Umfrage hat die Deutsche Bank versucht, 270 Twitter-Nutzer und solche, die den Dienst wieder aufgegeben haben, zu verstehen. Das Ergebnis: Vielen ist der Dienst zu kompliziert, relevante Themen zu schwierig zu finden.

Quelle: Deutsche Bank, Surveymonkey Audience, Sample = 270

Quelle: Deutsche Bank, Surveymonkey Audience, Sample = 270

Doch es ist nicht so, als ob Twitter seinem Verderben zusehen würde – im Gegenteil. Das Unternehmen aus San Francisco ist hochaktiv und bringt immer wieder neue Features: Antworten auf Tweets werden schon seit einigen Monaten mit der Originalnachricht mit einem blauen Strich verbunden, ein “Entdecken”-Tab soll es leichter machen, andere Accounts zu finden. Im Februar wurde bekannt, dass Twitter an einem Redesign der Profilseiten arbeitet, das stark an Facebook erinnert. Fotos und Videos können mittlerweile direkt in den Stream eingebunden werden und müssen nicht mehr über einen Klick auf einen Link geöffnet werden. Ende März wurde bekannt, dass User bis zu zehn Fotos in einem Tweet hochladen und Leute darauf taggen können – beides ohne, dass die 140 Zeichen in Anspruch genommen werden. Jetzt gibt es Gerüchte, dass Twitter sogar erwägt, die @-Replies bei Antworten auf Tweets zu entfernen. Buzzfeed wurde dazu ein Screenshot einer Android Alpha Testgruppe zugespielt, in deren App genau diese @-Replies fehlen.

Das Ziel: Die Nachrichten sollen besser sortiert werden, neue Nutzer leichter an die Plattform herangeführt werden. Und zwar dadurch, dass man Twitter dem anpasst, was Nutzer schon kennen: Facebook. Der Techblog Readwrite wirft Twitter vor, mit den Neuerungen der “Fear of Missing Out” zu unterliegen, also der Angst etwas zu verpassen. In einem anderen Beitrag bezeichnet ReadWrite Twitter sogar als Copycat von Facebook, ein Begriff der in Deutschland vor allem im Zusammenhang mit StudiVZ als Nachmacher-Plattform von Facebook verwendet wird. Aber nicht vergessen: Auch Facebook hat Dinge von Twitter übernommen und zwar genau diese @-Replies und Hashtags, die Twitter angeblich abschaffen will.

Gibt es auch gute Nachrichten? Auch wenn das Nutzerwachstum langsamer wird, die Monetarisierung von Twitter nimmt Fahrt auf. Im vierten Quartal 2013 konnte das Unternehmen im Vergleich zum Vorjahresquartal die Einnahmen verdoppeln: 242,6 Millionen US-Dollar flossen zwischen Oktober und Dezember in die Kassen. Im gesamten Jahr betrug der Umsatz 665 Millionen US-Dollar. Für 2014 erwartet Twitter eine Verdopplung des Umsatzes – die wird es aber nur geben, wenn weiterhin neue Nutzer den Dienst verwenden. Allerdings macht Twitter weiterhin keinen Gewinn: Im vierten Quartal 2013 betrug der Verlust 511 US-Dollar. Der Aktienkurs liegt dieser Tage im Bereich des Ausgabekurses von knapp 45 US-Dollar. Zum Vergleich: Facebook hatte im vierten Quartal 2013 einen Gewinn von 528 Millionen Dollar, der Umsatz betrug 2,6 Milliarden US-Dollar.

Viele Reaktionen auf die Veränderungen bei Twitter sind skeptisch – gerade bei aktiven Twitter-Nutzern. Doch wenn die Aktiengesellschaft Twitter aus der Verlustzone kommen will, müssen die Werbeeinnahmen immens gesteigert werden. Und das kann nur über die Masse von Usern passieren: Neuanmeldungen oder reaktivierte Accounts. Wenn also Nutzer angeben, Twitter sei ihnen zu kompliziert oder zu unübersichtlich, ist es nachvollziehbar, dass Twitter an diesen Stellschrauben dreht. Die entscheidende Frage: Verwäscht Twitter mit den Veränderungen seine Einzigartigkeit oder macht Twitter nur das, was (neue) Nutzer wollen?


Teaser & Image by Pete Simon (CC BY 2.0)


The post Sorgenkind Twitter: Sie haben sich stets bemüht appeared first on Netzpiloten.de – Social Web Explorer.

Oldies but Goldies: Warum Newsletter noch lange nicht tot sind

Newsletter führen im Online-Marketing ein Leben im Schatten sozialer Netzwerke. Und doch stapeln sie sich in den Posteingängen. Aus guten Gründen. // von Katharina Brunner

twTHQas - Imgur

Ja, auch ich habe es schon oft getan: Ohne die E-Mail zu öffnen habe ich wahrscheinlich schon hunderte, vielleicht tausende Newsletter mit einem Mausklick und ohne mit der Wimper zu zucken ins digitale Nirwana geschickt. Newsletter umweht der Hauch des Verruchten, nicht selten landen sie im Spam-Ordner neben dubiosen Angeboten nigerianischer Prinzen. Und doch ist er überall: Kaum ein Magazin, kaum ein Unternehmen bietet nicht die Möglichkeit, die eigene E-Mai-Adresse zu hinterlegen, um dann regelmäßige Updates zu bekommen.


Warum ist das wichtig? Newsletter sind Klassiker im Online-Marketing und rücken durch soziale Medien etwas in den Hintergrund – zu Unrecht.

  • Echtes Interesse: Um einen Newsletter zu abonnieren, müssen Nutzer zweimal aktiv werden.
  • Eine direkte Monetarisierung von einem Newsletter klappt nur bei spitzer Zielgruppe.
  • Indikatoren für den Erfolg von einem Newsletter: Zahl der Abonnenten , Zahl der E-Mail-Öffnungen und Klickrate

In Zeiten von Facebook, Twitter oder Whats App wirken Newsletter arg altmodisch: Einfache E-Mails mit klarer Sender-Empfänger-Struktur ohne Kommentarfunktion, keine Share-Buttons, die Abonnenten wissen nichts voneinander. Und doch erhalten sich Newsletter auch im Jahr 25 nach Tim Berner-Lees Erfindung des WorldWideWebs ihren Platz im Online-Marketing und der Nutzerbindung.

Tatsächliches Interesse, weil Abonnent zweimal aktiv werden muss

Wer freiwillig seine Adresse angibt und dann in einem zweiten Schritt auch noch das Abonnement bestätigt, hat tatsächliches Interesse an den Inhalten: Schließlich muss eine Person zweimal aktiv werden – weitaus mehr Aufwand als ein “Gefällt mir” bei Facebook oder ein “Folgen” bei Twitter. Und das macht die Abonnenten wertvoll: “Eine solide Basis von E-Mail-Abonnenten aufzubauen, ist wertvoller als eine Followerschaft auf Twitter”, schreibt Sean Blanda in seinem Text “Pretty Much Everything I Know About The News Business” auf Medium.

Eine Umfrage unter 1292 Personen aus dem Jahr 2012 zeigt, dass Newsletter über alle Altersgruppen hinweg eine weite Verbreitung haben:

Statistik: Anteil der Internetnutzer (nach Altersgruppen), die Newsletter-Abonnenten, Facebook-Fans und Twitter-Follower sind | Statista
Mehr Statistiken finden Sie bei Statista

Der Klassiker der Newsletter ist Werbung. Gerade E-Commerce-Unternehmen wissen um den Vorteil von Newsletter-Abonnenten, denen man die neue Produkte immer wieder unter die Nase halten kann. Online-Shops für Kleidung lassen sich mehr Einträge im Adressbuch etwas kosten: Bei Zalando gibt es einen Fünf-Euro-Gutschein, beim Frontline-Shop sogar zehn Euro, genauso wie bei Tchibo. Das Ziel ist klar: Käufer akquirieren, Stammkunden bekommen.

Publikum unabhängig von Facebook, Twitter und Co.

Auch für Medien aller Couleur bietet es sich an, sich mit Newslettern ein Publikum unabhängig von sozialen Netzwerken aufzubauen. Die meisten Medien bieten Teaser im Newsletter an, die Monetarisierung läuft dann indirekt über vermehrte Zugriffszahlen auf die Webseite oder direkt durch Anzeigen in den E-Mails. Das Wirtschaftsmagazin Quartz optimiert zum Beispiel den Newsletter für seine Leser auf der ganzen Welt, so dass er je nach Zeitzone immer morgens im Postfach liegt.

Ungewöhnlich ist der Blog Brain Pickings. Die Betreiberin Maria Popova bietet jede Woche die besten Posts im Volltext an. Die Abonnenten sollen gar nicht unbedingt dazu überredet werden, auf die Seite zu klicken. Es reicht, wenn sie sich mit den Inhalten beschäftigen. BrainPickings Geschäftsmodell basiert nicht auf Werbung, sondern baut auf freiwillige Geldspenden, die prominent angepriesen werden – auch im wöchentlichen Rundschreiben.

The Next Draft: Der Superstar unter den Newslettern

Mein Name ist Dave Pell und ich habe ein Problem. Von Kindesbeinen an bin ich von Nachrichten besessen“, schreibt Pell, der als der Superstar unter den Ein-Mann-Newslettern gilt. Fast 30.000 Abonnenten soll “Next Draft” haben. Aus über 50 Seiten kuratiert Pell Tag für Tag die zehn besten Geschichten. WordPress-Gründer Matt Mullenweg persönlich hat Pell angeboten, ihm einen Blog zu sponsorn. Pell’s Weg hatte eine ungewöhnliche Richtung: Erst existierte der Newsletter, dann eine iOS-App und erst im neuesten Schritt, bekam Next Draft einen Blog: “Durch die Blog-Version konnte ich das Teilen der Beiträge erheblich verbessern“, sagte Pell dem WordPress-Blog Post Status.

Ein Vertreter der Einzelkämpfer-Newsletter aus dem deutschsprachigen Raum ist der Schweizer Journalist David Bauer, der sein “Weekly Filet” an etwa tausend Abonnenten verschickt. “Das Weekly Filet ist eigentlich eine Disziplinierungsmassnahme für mich. Es sorgt dafür, dass ich mir jede Woche einen halben Tag Zeit nehme für all die spannenden Inhalte, die ich im Netz finde, für die ich im Alltag aber zu wenig Zeit finde“, sagt Bauer. Monetarisieren will er seinen Blog nicht, allerdings hatte er 2012 eine Partnerschaft mit dem Schweizer Magazin: “Empfehlungen zur Syndizierung” nennt er das. Gelegentlich spenden ihm Leser Geld: “Was mich besonders freut: Wenn jemand spendet, dann meistens gleich einen nennenswerten Betrag“.

Newsletter, die sich an ein Fachpublikum richten, sind die einzigen, die sich direkt monetarisieren lassen. Spitze Zielgruppen sind bereit, tatsächlich Geld für Informationen zu bezahlen. Ein Beispiel ist das Magazin Business Insider, dessen Research-Abteilung namens Business Intelligence einen Newsletter für 995 US-Dollar im Jahr anbietet. Dafür soll es jeden morgen “In-Depth Research On What Matters In Digital” geben. Zwei Wochen kann man die Mail kostenlos zur Probe beziehen.

Und wann ist ein Newsletter erfolgreich?

Doch wie immer stellt sich die Frage: Wann ist ein E-Mail-Newsletter erfolgreich? Die Zahl der Abonnenten allein kann es nicht sein. Man denke nur an die Vielzahl von Newsletter, die jeder von uns schon gelöscht hat. Es gibt zwei Standard-Methoden, um den Erfolg über die quantitative Leserschaft hinaus zu messen: Wann wandert der Newsletter nicht ungeöffnet in den digitalen Papierkorb, sondern wird tatsächlich geöffnet? Und: Wie oft klicken Empfänger die Links in der E-Mail? Diese Indikatoren ähneln vom Prinzip her dem der Zugriffszahlen bei Webseiten und haben daher mit den gleichen Nachteilen zu kämpfen. Das Wichtigste und gleichzeitig das Schwierigste: Ein Newsletter darf nicht nerven. Und wenn doch, dann ist die Mail schnell gelöscht.


Die Netzpiloten haben gleich zwei verschiedene redaktionelle Newsletter – einen mit News und einen mit Klicktipps.


Teaser by Donna Benjamin (CC BY-SA 2.0)


The post Oldies but Goldies: Warum Newsletter noch lange nicht tot sind appeared first on Netzpiloten.de – Social Web Explorer.

Wert des Internets: Das Bruttoinlandsprodukt unterschätzt das Internet

Nutzer bezahlen nichts für Dienste wie Wikipedia, YouTube oder MOOCs zahlen und haben deshalb keinen Einfluss das Bruttoinlandsprodukt. Mit dem Internet ist es so wie mit der Generation Praktikum: Mitte 20, kein Einkommen. // von Katharina Brunner

Internet Café (Bild: San José Library [CC BY-SA 2.0], via Flickr)

In einer Volkswirtschaft zählen zählen nur Güter und Dienstleistungen zum Einkommen, dem Bruttoinlandsprodukt (BIP), die einen Preis haben – und der fehlt bei kostenlosen Angeboten im Internet. Doch vielleicht generiert Wikipedia Nutzen und Wohlstand, vielleicht schrumpft die Wirtschaft durch Facebook, weil so viele Leute Zeit verplempern. Wie dem auch sei, ohne Preisschild bzw. einem Preis von Null haben kostenlose Dienste keine Auswirkungen auf das BIP.


Warum ist das wichtig? Kostenlose Dienste haben keinen Einfluss auf das Bruttoinlandsprodukt (BIP) eines Landes, weil ihr Preis Null ist, aber das Internet schafft trotzdem ökonomische Werte.

  • Um den Nutzen von kostenlosen Web-Diensten zu messen, muss deren Nutzen quantitativ ermittelt werden.
  • Der Ökonom Erik Brynjolfsson plädiert für das Konzept der Konsumentenrente, um die Zahlungsbereitschaft anzugeben.
  • Die Kritik am Bruttoinlandsprodukt als Maßstab für die Wirtschaftsleistung ist nicht neu – sie erfährt durch die Digitalisierung neuen Antrieb.

Die Digitalisierung unterscheidet sich von früheren Innovationen, weil ein großer Teil des Konsumentennutzens kein Teil der Wirtschaft wurde, den das BIP misst. So wird die Lücke zwischen dem, was tatsächlich in der Volkswirtschaft passiert und dem, was Statistiken messen, größer als jemals zuvor“, schreibt James Surowiecki im New Yorker. Denn das BIP misst das Angebot, die Produktion von Gütern und Dienstleistungen.

Wie misst man Nachfrage?

Um den Nutzen von Wikipedia und Co. Zu messen, muss die Nachfrage quantitativ ermittelt werden – und das ist schwierig. Ein Ansatz, um den Nutzen von kostenlosen Angeboten für die Verbraucher zu messen, ist die Konsumentenrente: der Unterschied zwischen dem, was Verbraucher zahlen – im Falle vieler Internetangebote nichts – dem, was sie zu zahlen bereit sind. “Es geht darum, herauszufinden, wieviele Verbraucher gewillt sind, für ein Gut wie viel zu zahlen“, sagte Erik Brynjolfsson, Ökonom am MIT, der glaubt, dass der Beitrag des Internets zum BIP systematisch unterschätzt wird. Um konkrete Zahlen zu bekommen, müssen Umfragen und Experimente durchgeführt werden – ein weitaus komplizierteres Verfahren als die mehr oder weniger bloße Addition von produzierten Gütern und Dienstleistungen beim Bruttoinlandsprodukt.

Nachfrage nach Breitbandverbindungen als Näherungswert

Doch wie hoch würde diese Konsumentenrente ausfallen? Nicht besonders hoch, meint der Volkswirt Shane Greenfield im Economist. Denn die Nachfrage nach digitalen Gütern ist sehr elastisch, das heißt: Ändert sich der Preis, ändert sich die Nachfrage erheblich. Zum Beispiel Google: Kostet die Suchfunktion plötzlich etwas, würden viele auf kostenlose Alternativen ausweichen und wären nicht bereit den Preis zu zahlen. Diese angenommene geringe Elastizität wäre zudem nicht bei allen Nutzern gleich und damit auch die Konsumentenrente von Verbraucher zu Verbraucher unterschiedlich.

Trotz dieser theoretischer Vorüberlegungen lässt sich die konkrete Konsumentenrente nicht berechnen und Greenfield wich auf die Zahlungsbereitschaft für Breitbandinternet aus. Es war Greenfield nicht möglich, den Anteil einer bestimmten Anwendung an der Konsumentenrente zu isolieren. Der Vorteil der Breitbandverbindung: Sie hat einen Preis und kann so als Proxy für die Konsumentenrente dienen.

BIP misst “bads as goods”

Diese Vorgehensweise betrifft aber nur ein Internet, in dem Dienste kostenlos sind. Mit iTunes, Spotify, Netflix usw. ändert sich die Situation. Komplexer wird die Situation außerdem dadurch, dass es im Internet auch zu sogenannten Netzwerkeffekten kommt und so die Nachfrage beeinflusst.

Die Kritik am BIP als Maßstab für die Wirtschaftsleistung eines Landes ist nicht neu. Das Problem gibt es nicht nur mit dem Internet, sondern auch anderen Bereichen, die einen wirtschaftlichen und gesellschaftlichen Wert haben, aber nicht im BIP eingerechnet werden, wie zum Beispiel ehrenamtlicher Arbeit oder Hausarbeit. Kurz: Alles, was sich nicht in monetären Größen messen lässt. Andersrum können Dinge wie Umweltzerstörung oder Naturkatastrophen das Wirtschaftswachstum ankurbeln. Im Englischen sagt man dazu, dass “bads as goods” gerechnet werden. Der Vergleich des Internets mit der Generation Praktikum ohne Einkommen hinkt also. Die Frage lautet: Wie definiert man Einkommen?


Teaser & Image by San José Library (CC BY-SA 2.0)


The post Wert des Internets: Das Bruttoinlandsprodukt unterschätzt das Internet appeared first on Netzpiloten.de – Social Web Explorer.

Getty Images: Werben statt abmahnen

Die größte Fotoagentur der Welt macht seine Bilder kostenlos – zumindest für nicht-kommerzielle Nutzung. Schafft es Getty Images mit dem Strategiewechsel sich auf die Welt der digitalen Güter einzustellen? // von Katharina Brunner

Getty Images (Bild: Andrew [CC BY-SA 2.0], via Flickr)

Es ist die Tech-Meldung des Tages: Die Bildgentur Getty Images bietet nicht-kommerziellen Nutzern an, Millionen Fotos kostenlos auf eigene Webseiten einzubinden. Für Getty Images ist das eine radikale Kursänderung: Bisher war die Agentur eher dafür bekannt, mit Abmahnungen seine Urheberrechtsansprüche durchzusetzen. Doch der Kampf gegen die wildkopierende Masse kann offenbar nicht gewonnen werden. Doch aus altruistischen Motiven handelt Getty deshalb aber noch lange nicht.


Warum ist das wichtig? Die Bildagentur Getty Images versucht, sein Geschäftsmodell an die digitale Realität anzupassen, einen Schritt den viele Branchen meist erst sehr spät schaffen.

  • 35 Millionen Bilder von Getty Images können nicht-kommerzielle Nutzer in Webseiten einbinden.
  • Mit der Einbindefunktion will Getty Kontrolle über seine Bilder wiedererlangen.
  • Monetarisierung könnte über Werbung und Nutzerdaten erfolgen.

Als zwei Investmentbanker Mitte der 90er Jahre beschlossen, die Bildagentur Getty Images zu gründen, waren Fotos auf Filmen gespeichert, nicht als Datei auf einer Speicherkarte. Gegen Lizenzgebühren verkaufte Getty Fotos an Printprodukte – und sie tun das bis heute. Doch dann kam das Internet und macht das Geschäftsmodell von Medienunternehmen angreifbar. Plötzlich war es ganz leicht, die Fotos auch ohne Lizenzgebühren zu bekommen: Die Blogs sind voll davon, Twitter, Tumbler und Reddit füttern uns mit Memes – ganz egal, ob Lizenzgebühren fällig wären oder nicht.

“Die Leute waren gezwungen, das falsche zu tun”

Getty Images reagierte darauf, wie man es von einem Medienunternehmen kennt, dem die Digitalisierung seiner Güter das Geschäftsmodell klaut: Abmahnungen, Klagen, Infobroschüren über das Urheberrecht. Doch irgendwann in den letzten beiden Jahren muss den Entscheidern klar geworden sein, dass der Kampf einer gegen Windmühlen ist – und sie veränderten ihre Strategie: Sie wollen die Kontrolle über ihre Bilder zurück. Craig Peters von Getty Images sagte The Verge, dass die Firma nun dem Weg von Streaming-Dienstleistern in der Musikindustrie folgt: “Vor iTunes und Spotify waren die Leute mehr oder weniger dazu gezwungen, das falsche zu tun: Filesharing.”

In der Umsetzung folgt Getty Youtube: Sie lassen Nutzer die Inhalte in ihre eigenen Kontexte – soziale Netzwerke, Webseiten – einbinden. Die Inhalte liegen aber weiterhin auf Gettys Servern, wodurch sie weiterhin die Macht über die Gestaltung behalten – und über die Monetarisierung durch Werbung und Nutzungsdaten. Angenommen, ein Bild geht viral, Getty Images bekommt Daten und kann dann Anzeigen darauf schalten. Gettys Kalkül scheint darin zu liegen, mit der Einbinde-Möglichkeit, die Reichweite enorm zu vermehren und so das Tor zu Werbeeinnahmen aufzustoßen. Dafür hat sich Getty in der Entwicklung mit dem Start-Up Stipple zusammengetan.

Deal mit Pinterest

Ein zweites Anzeichen für einen Strategiewechsel ist ein Deal mit Pinterest, einer der Plattformen, auf denen Bilder unter Getty-Lizenz ohne Scheu geteilt und verbreitet werden. Im Herbst gaben die beiden Firmen bekannt, dass Pinterest zahlt und dafür Getty-Bilder benutzen darf. Meta-Daten gibt es für Pinterest oben drauf. Für Pinterest sind das nun nicht nur Lizenzkosten: Die Metadaten bringen Informationen über die Bilder – Mehrwert für Pinterest-Nutzer. Dazu kommt eine Kooperation mit dem Berliner Instagram-Konkurrenten EyeEm, um User Generated Content zu fördern und Bilder über Getty Images verkaufen zu können.

Bisher verkaufte Getty Images ein Foto zu verschiedenen Preisen: Ein Bild, für das man Lizenzgebühren bezahlt, kann zwischen ein paar Euros und einem mittleren dreistelligen Betrag kosten – je nach Größe und Auflösung. Doch Leute, die Bilder auf Plattformen wie Reddit oder Tumblr teilen, werden sie mit diesem Modell ohnehin nie erreichen. Für sie gibt es nun eine kostenlose Version. In der Musikindustrie konnten dich Plattenfirmen nicht zu diesem Schritt durchringen. Dort geben nun neue Unternehmen wie iTunes oder Spotifiy den Ton vor. Getty Images passt sein Geschäftsmodells an diese Realität an. Und vielleicht setzt es damit auf das richtige Pferd. Buzzfeed hat in einem Text mit der Überschrift “Get Ready For The Great Embeddening” einen Trend ausgerufen: Einbinden ist das neue Copy-Pasten.


Teaser & Image by Andrew (CC BY-SA 2.0)


The post Getty Images: Werben statt abmahnen appeared first on Netzpiloten.de – Social Web Explorer.

Open Data: Die Scheu der Kommunen

Offene Daten haben in deutschen Kommunen immer noch Seltenheitswert. Eine ungewisse Finanzierung und unklarer Nutzen hält die Verwaltungen zurück. // von Katharina Brunner

Open Data (Bild: justgrimes [CC BY-SA 2.0], via Flickr)

Vorreiter in Sachen offene Daten in Deutschland sitzen nicht nur in Berlin, sondern auch in einem Rathaus am Niederrhein. Die Stadt Moers ist eine von zwölf Städten, deren Open-Data-Ambitionen bisher in dem sogenannten City Census der Open Knowledge Foundation bewertet werden. Von den über 11.000 deutschen Kommunen beschäftigt sich erst ein verschwindend geringer Teil mit offenen Daten: Die Forderung aus der Netzcommunity nach frei zugänglichen Datensätzen ist in den kommunalen Verwaltungen noch nicht angekommen.


Warum ist das wichtig? Die digitale Bereitstellung von Daten über Portale und Dienste ist in Deutschland noch nicht weit genug entwickelt, doch die Beschaffung, Nutzung und Weiterverwendung von Daten des öffentlichen Sektors wird immer wichtiger für eine digitalisierte und partizipierende Gesellschaft.

  • Offene Verwaltungsdaten gibt es nur bei den wenigsten deutschen Kommunen.
  • Mehraufwand und ungewisse Folgekosten halten Kommunen von Open Data ab.
  • Studie berechnet Wert von Open Data für Berlin auf einen Wert zwischen 20 und 50 Millionen Euro pro Jahr.

Im Februar letzten Jahres musste es dann plötzlich ganz schnell gehen in Moers. Das Bundesinnenministerium als Betreiber des Datenportals GovData hat mitbekommen, dass die Stadt daran arbeitet, kommunale Verwaltungsdaten online zu stellen. “GovData hat händeringend nach Daten gesucht. Das hat unser Portal extrem beschleunigt: In zwei Wochen haben wir die Webseite erstellt. Das ist für Verwaltungsverhältnisse schon extrem“, erzählt Claus Arndt, der das Projekt angestoßen hat. Der 50-Jährige arbeitet in Moers als Referent des Bürgermeisters für E-Governance und Social Media und leitet den Fachdienst Zentrale Dienste.

Meistens kommen die Forderungen nach offenen Daten allerdings nicht aus den Kommunen, sondern von Aktivisten, oftmals unterstützt von der Open Knowledge Foundation. Am Open Data Day vergangene Woche haben sie den Open Data City Census für Deutschland gestartet. Damit soll der Status verschiedener Open Data Bemühungen in deutschen Kommunen auf einen Blick sichtbar werden. “Wir wollen Vergleichbarkeit auf städtischer Ebene“, sagt Walter Palmetshofer, einer der Mitarbeiter der Open Knowledge Foundation.

Aktivisten wollen weltweiten Vergleich

Der City Census baut darauf, dass Freiwillige eintragen, welche Datensätze zu welchen Konditionen verwendet werden können. Insgesamt gibt es 15 verschiedene Themengebiete: Von Echtzeitverkehrsdaten über Wahlergebnisse bis zum Handelsregister. Diese Daten – sofern sie denn überhaupt vorhanden sind – bekommen Bewertungen nach bestimmten Kriterien: Sind die Daten öffentlich zugänglich? Sind sie kostenlos, maschinenlesbar oder aktuell? Dadurch ergibt sich für jede Stadt eine Punktzahl – und damit die Vergleichbarkeit untereinander. An erster Stelle steht Berlin mit 845 Punkten, Moers hat dazu im Vergleich 300. “Das Ranking ist aber keine hohe Wissenschaft. Man muss Kompromisse eingehen“, meint Palmetshofer. Kleinere Städte hätten in bestimmten Bereichen einfach keine Daten, wie zum Beispiel bei den Echtzeitsverkehrsdaten.

Die im Moment zwölf Kommunen im City Census sind mit unter einem Prozent ein verschwindend kleiner Bruchteil der deutschen Gemeinden. Der Weg zu mehr offenen Daten ist noch lang – doch eines braucht es dabei immer, meint der Moerser Arndt: “Entweder erahnen Bürgermeister die Chance von Open Data oder die Verwaltung erkennt einen vertretbaren Aufwand. Der springende Punkt ist, dass von oben oder unten Unterstützung kommt.” Daran, dass sich offene Daten als politische Forderung in Gemeinde- oder Stadträten umsetzen lassen, glaubt Arndt hingegen nicht: “Das ist der schlechteste Weg.” Wenn Anträge gestellt werden, würden die meist von kleineren Parteien in der Opposition kommen: “Dadurch wird das Thema schnell politisch tot geredet.”

“Es gibt eine Scheu vor den Nerds”

Offene Daten bleiben eine freiwillige Angelegenheit: “Viele Kommunen scheuen zurück, weil die Folgekosten ungewiss sind.” Dazu kommen ungeklärte Fragen bezüglich der Lizenzen, unter denen die Datensätze stehen soll. Mehraufwand sieht auch Palmetshofer als das größte Problem. Doch nicht nur finanzielle und rechtliche Hürden gäbe es. Arndt glaubt auch, dass sich Verwaltungen dem Druck aus der Open-Data-Community nicht beugen wollen: “Es gibt eine Scheu vor den Nerds.” Deshalb müsse der Nutzen von offenen Daten klarer werden, um ein Rechtfertigungsproblem zu vermeiden: “Ein dringender Appell von mir ist: Sagt, was ihr damit macht“, findet Arndt. “Allein der Hinweis auf die Minimalposition, die Daten seien doch durch Steuergelder finanziert und man habe daher einen Anspruch auf die Veröffentlichung, lockt keinen Zweifler hinter dem Ofen hervor“, schreibt er auf dem Government 2.0 Blog.

Doch wie kann man Nutzen von offenen Daten messen? “Der Nutzen ist nicht unmittelbar messbar“, stellt Palmetshofer klar. Die Technologie Stiftung Berlin hat sich dennoch daran gewagt und eine Nutzenrechnung für Berlin aufgestellt. In drei betrachteten Szenarien liegt der monetäre Nutzen aus offenen Daten für die Stadt Berlin zwischen knapp 22 und 54 Millionen Euro pro Jahr.

Zeitgleich mit dem City Census ist ein weiteres Projekt der Open Knowledge Foundation an den Start gegangen: Bei Code for Germany sollen gezielt Entwickler und Designer angesprochen werden, die Apps oder Visualisierungen aus offenen Daten erstellen wollen. Ganz konkret werden auch auch Menschen aus Stadtverwaltungen und Politiker angesprochen. Vielleicht können sie die Menschen sein, die Claus Arndt, der städtische Open-Data-Pionier vom Niederrhein, “Datenvermittler” nennt: “Die braucht es, denn Bürger können in aller Regel nichts mit der csv-Datei anfangen.”


Teaser & Image by justgrimes (CC BY-SA 2.0)


The post Open Data: Die Scheu der Kommunen appeared first on Netzpiloten.de – Social Web Explorer.

Woran lässt sich Erfolg im Journalismus messen?

Reine Zugriffszahlen sagen wenig über den tatsächlichen Erfolg im Journalismus aus. Die New York Times, Upworthy und Medium versuchen, aussagekräftigere Indikatoren zu entwickeln. // von Katharina Brunner

Numbers (Bild: re_birf [CC BY 2.0], via Flickr)

Die Rechnung ist schnell gemacht: Klicks sind Geld. Die Folgen davon kann man auf vielen Webseiten sehen: Absurd lange Bildstrecken, reißerische Überschriften, Artikel, die in mehrere Stücke zerlegt werden und Leser zwingen, einmal mehr zu klicken, um den gesamten Text zu sehen. Für Online-Medien, deren Geschäftsmodell auf Werbung basiert, sind Zugriffszahlen oft das einzige Zeichen für den Erfolg eines Textes. Damit siegt Quantität über Qualität. Warum werden sie trotzdem verwendet?


Warum ist das wichtig? Auf der Suche nach erfolgreichem Journalismus im Medienwandel, muss vielleicht die Definition von erfolg verändert werden, um ein funktionierendes Geschäftsmodell zu finden.

  • Zugriffszahlen sind eindimensionale Daten mit beschränkter Aussagekraft.
  • Die New York Times setzt Zugriffe in Verhältnis zu den Werbemaßnahmen.
  • Upworthy und Medium messen die Zeit, die Besucher aktiv auf der Webseite sind.

Wir benutzen sie größtenteils, weil sie da und einfach zu handhaben sind – obwohl wir alle wissen, dass sie schlecht sind, um Einfluss zu messen“, schreibt Aron Pilhofer, der bei der New York Times für die digitale Strategie zuständig ist. Doch es regt sich Widerstand: Vermehrt entwickeln Redaktionen Indikatoren, die neben Zugriffszahlen Aspekte aufgreifen, die eine breitere Definition des Erfolgs von Content erlauben.

Solche neuen Metriken zu finden, ist ein sehr ehrgeiziges Vorhaben, schließlich lassen sich abstrakte Begriffe wie Einfluss oder Aufmerksamkeit kaum quantitativ messen. Eine allgemeingültige Neudefinition kann nicht funktionieren, um das zu messen, was auf Englisch “engagement” oder “impact” genannt wird. Zu unterschiedlich sind die Ansprüche, Ansätze und Ziele: Individuelle Webseiten mit individuellen Zielen erfordern logischerweise individuelle Indikatoren.

Ein Pflaster für die New York Times

Ein Jahr lang hat sich Brian Abelson als Fellow der Knight Mozilla OpenNews Foundation bei der New York Times der Frage gewidmet, wie die Aussagekraft von Page Views durch eine zweite Dimension erhöht werden kann. Der studierte Statistiker gehört zum neuen Typus von Journalisten der News-Nerds. Sie programmieren anstatt zu schreiben, Interviews ersetzen Recherchen in Datenbanken. Seine Aufgabe bei der New York Times hat Aron Pilhofer so beschrieben: “Ein klares Signal im Rauschen der Daten zu finden, das uns sagt, ob unser Journalismus den Einfluss hat, von dem wir glauben, dass er ihn haben sollte.”

Im Sommer veröffentlichte Abelson seinen Ansatz. Er nennt ihn PAR, kurz für “Pageviews above replacement”. Die grundlegene Überlegung ist folgende: Der Erfolg eines Artikels – gemessen in Page Views – hängt nicht nur von Zugriffen ab, sondern auch davon, wie viel Werbung dafür gemacht wurde. Es muss also herausgerechnet werden, wenn Facebook- und Twitter-Accounts der NY Times den Text geteilt haben oder ob er auf der Startseite stand. Der PAR-Indikator stellt die Page Views in Relation zu den getroffenen Werbemaßnahmen. Abelson ist sich der begrenzten Aussagekraft bewusst: “Der PAR-Ansatz ist ein Pflaster.” Ein Pflaster das helfe, den Aufwand zu messen, den eine Nachrichtenseite aufbringen müsse, um ein bestimmtes Ziel zu erreichen.

1_metrics_par-by-section

2_attmin_examps

Einen anderen Weg wählt Upworthy, eine Plattform für viralen Content. Die Seite hat keine Anzeigenkunden, sondern finanziert sich durch Investoren – die reinen Zugriffszahlen sind daher bei weitem nicht nicht so wichtig. Kein Wunder, dass sich Upworthy für ihre Erfolgsmessung von den Page Views verabschiedet und stattdessen sogenannte “Attention Minutes” verwendet. Das ist die Zeit, die User aktiv damit verbringen, mit der Webseite zu interagieren. Die Upworthy-Macher messen dabei, wie lange die Videos laufen oder wann die Seite tatsächlich angesehen wird und nicht nur als das 16. geöffnete Tab im Hintergrund schlummert.

Neues Twitter Design

Upworthy-Artikel haben kaum Text, meist sind es Videos mit einer knackigen Überschrift. Überträgt man den “Attention Minutes”-Indikator auf eine Seite mit vielen Texten, landet man bei Medium. Die Blog-Platform hat sich auf die Fahnen geschrieben, die ideale Seite zu sein, um Texte zu lesen. Nicht überraschend, dass sie ihren entwickelten Indikator “Total Time Reading” nennen, also die gesamte Lesezeit. Gemessen wird dabei, in welchem Zeitraum Leser auf der Seite nach unten scrollen. Diese Zahlen werden ins Verhältnis zu der Zeit gesetzt, die Medium als Lesezeit für einen bestimmten Text ansetzt. Als erstes Ergebnis hat Medium veröffentlicht, dass der optimale Text etwa sieben Minuten lang ist:

Mike Sall von Medium will aber eines festhalten: “Es gibt eine enorme Varianz. Großartige Posts performen gut – unanbhängig von der Länge. Und schlechte Posts werden sicherlich nicht besser, wenn man sie streckt.”

Verhindern neue Indikatoren Manipulation?

Es ist auffällig, dass gerade solche Webseiten, die inhaltlich als digitale Vorreiter gelten, dabei sind, ihre Erfolgsmessung breiter aufzustellen. “Eine einzige Methode kann nie das Gesamtbild erfassen“, sagt Melissa Ranch von der Content Strategy Agentur Brain Traffic. Das Ziel sei es, Unsicherheit zu reduzieren und nicht, die eine exakte Maßzahl zu finden.

Derek Thompson vom Atlantic glaubt hingehen nicht, dass mit den neuen Ansätzen der Anreiz zur Manipulation wegfällt: “Egal, auf welche Metrik wir uns einigen, es wird Gründe geben, an ihnen zu zweifeln, und es wird Redakteure geben, die sie manipulieren.”

Doch wenn Medien unterschiedliche Maßstäbe haben, an denen sie ihren eigenen Erfolg messen, könnte der Anreiz, an diesen Schräubchen zu drehen zumindest vermindert werden. Oder wie Greg Linch von der Washington Post sagt: “Es ist weder leicht noch perfekt oder präzise, aber es verdient Experimente und Aufwand. Es wird sich nicht verbesssern, wenn keiner irgendwo anfängt.”


Teaser & Image by re_birf (CC BY 2.0)


The post Woran lässt sich Erfolg im Journalismus messen? appeared first on Netzpiloten.de – Social Web Explorer.

Interview mit Florian Gmeinwieser über SoLoMo

Marketing setzt auf drei Silben: “SoLoMo” soll Werbung in die mobile Lebenswelt bringen. Florian Gmeinwieser kennt sich damit aus. // von Katharina Brunner

Nico Lumma

Wenn unser Leben mobil wird, will es auch das Marketing werden. Um sich dafür zu wappnen, baut die Werbeindustrie auf drei Silben wie aus einem Singspiel im Kindergarten. Florian Gmeinwieser, Betriebswirt und Geschäftsleiter der Werbeagentur Serviceplan, wird auf der Local Web Conference zusammen mit Gregor Fellner über “SoLoMo” sprechen, denn Geocookies und Lokalisierungstechnologien verändern nicht nur Anwendungen, sondern auch das mobile Marketing. Mittels ortsbezogener Angebote, Coupons oder Werbeeinblendungen lässt sich die Kundenbeziehung verbessern. Die Optimierung von Marketingmaßnahmen für die Nutzung auf Smartphones und Tablets mit Berücksichtigung des Ortsbezugs ist heute Pflicht. Bei den Netzpiloten erklärt er einen Tag vor dem Kongress in Nürnberg, was uns bei sozialem, lokalem und mobilem Marketing erwartet.


  • Datenweitergabe sei eine Sache, der sich User im Klaren sein müssen, findet Florian Gemeinwieser.
  • Lokalisierung heißt nicht, dass ein stationärer Laden vorhanden sein muss.
  • Ziel ist digitaler Commerce statt elektronischer oder mobiler Commerce.

Was steckt hinter SoLoMo?

Da gibt es mannigfaltige Definitionen. Primär geht es darum, wie wir digitale Markenkommunikation mit einem regionalen Kontext handhaben. Das ganze liest sich immer so toll – in der Realität scheitern dann aber viele Kunden an der Komplexität der Kampagnen.

Angenommen ich flaniere durch die Innenstadt meines Wohnortes Regensburg, das Smartphone in meiner Tasche. Was ist Ihr ideales Szenario, mit dem durch SoLoMo Marketing zum Kaufen verführt werden sollte?

Nun, bestimmt nicht, dass wir Sie genau vor dem Bäcker mit einer SMS anbimmeln, die Ihnen einen Coupon verspricht. Sondern dass wir Ihnen bestenfalls – sobald Sie auf Ihrem Smartphone das Internet oder Apps nutzen – mobile Werbeformen zeigen, die einen sehr starken lokalen Bezug haben.

“User muss sich darüber klar sein, dass ihre Daten genutzt werden”

SoLoMo-Marketing funktioniert ja nur, weil Menschen mit ihren Smartphones Peilsender herumtragen. Ist das Konzept SoLoMo mit Datenschutz und dem Credo der Datensparsamkeit zu vereinbaren?

Naja – GPS oder Standortbestimmung über das mobile Netz sind ja nur eine Form der Lokalisierung. Wenn ich bei der Suchanfrage bereits einen Ort mit eingebe, habe ich ja ebenfalls bereits einen lokalen Bezug. In Sachen Datenschutz muss sich heute jeder User darüber klar sein, dass Teile seiner Daten für solche Anwendungen genutzt werden.

Gibt es Unternehmen, die das Konzept des Social-Mobile-Local-Marketings Ihrer Meinung nach vorbildlich umsetzen? Und gibt es Start-Ups, die aufbauend auf der SoLoMo-Devise ein Geschäftsmodell entwickelt haben?

Natürlich – vor allem viele Mobile Vermarkter wie zum Beispiel Ströer haben eine hohe LBA-Kompetenz, aber auch diverse Start-Ups haben sich der Regionalisierung verschrieben, etwa Shpock, Stuffle, Circle, Wheelmap, eBay Kleinanzeigen, meinestadt.de, Streetspotr oder Gettings.

Es gibt eine gewisse Diskrepanz zwischen den Hoffnungen, die am mobile Marketing hängen und der Realität: 2013 lagen die Werbeaufwendung für mobile Werbung weit abgeschlagen mit 106,4 Millionen Euro auf dem letzten Platz einer Statistik der Marktforschungsfirma Nieslen. Sogar für Plakatwerbung wird zehnmal mehr ausgegeben. Ist der Gedanke von mobilem Marketing in der Breite noch nicht angekommen?

Nun, das Ganze beginnt, sich zu ändern: Mobile Display nimmt monatlich zu, teilweise kann man von Verdopplungen der Budgets sprechen. Und dennoch muss ein Großteil der werbetreibenden Unternehmen sich erst darauf einstellen. Zudem sind viele Kampagnen noch auf große Reichweiten ausgelegt; das heißt, primär in TV, Print und Online zu werben. Außenwerbung ist ebenfalls noch ein “Massenmedium”. Mobile ist noch nicht so weit – aber überlegen Sie, wie lange es gedauert hat, bis Online-Werbung da hin kam, wo sie heute steht. Mobile wird das ebenfalls aufholen. Aber dafür müssen auch in den Marketingabteilungen noch Weichen gestellt und erkannt werden, dass Mobile Advertising mehr ist als ein “Addon” fürs Restbudget. Die Möglichkeiten von Mobile Advertising sind von vielen Marken noch immer nicht komplett erkannt, gerade auch das Potential von Location Based Advertising.

“Die Kunden wollen überall auf einer perfekten Oberfläche einkaufen”

Macht SoLoMo nur Sinn für Unternehmen, die neben E-Commerce auch im stationären Handel aktiv sind?

Auf den ersten Blick macht ein Point of Sale natürlich schon Sinn – andererseits ist es doch auch prinzipiell schön, wenn man ein gewisses Lokalkolorit in der Kundenansprache entdeckt, oder? Von daher: Nein, ein PoS ist nicht zwingend nötig.

Gerade im Zusammenhang mit Amazon gibt es oft die Befürchtung, dass stationärer Handel den Kürzeren zieht. Sehen Sie das auch? Sind Geschäfte ein Auslaufmodell?

Nein, im Gegenteil. Es ist die Chance, dass sich der stationäre Handel wieder auf seine Kernwerte besinnt, wie z. B. Service, fachliches Know-how, das “Vor-Ort-sein”. Aber ja: Mit Sicherheit wird sich hier die Spreu von Weizen trennen und einige Geschäfte werden sich nicht halten können. Werbung ist ja das eine, tatsächlich Kunden zu gewinnen das andere.

Sie selbst haben im vergangenen Jahr propagiert, dass man nicht mehr zwischen E-Commerce und M-Commerce, also Handel auf mobilen Geräten, unterscheiden soll. Stattdessen sollte man die beiden Bereiche unter dem Begriff D-Commerce, digitaler Commerce, zusammenfassen. Warum ist Ihnen das wichtig?

Weil es Realität ist. Die Kunden draußen unterscheiden nicht zwischen den Geräten, sie wollen überall auf einer perfekten Oberfläche einkaufen. Und ganz ehrlich: Die Konsumenten unterscheiden heute nicht einmal mehr zwischen D-Commerce und PoS. Wer also nach wie vor noch nie über Mobile Marketing in seinem Kommunikationsmix nachgedacht hat, sollte das schleunigst nachholen.

The post Interview mit Florian Gmeinwieser über SoLoMo appeared first on Netzpiloten.de – Social Web Explorer.