Zuboff und das Zeitalter des Überwachungskapitalismus

Shoshanna Zuboff beobachtet und interpretiert die Digitalisierung seit 40 Jahren. Die Professorin an der Harvard Business School hat ein Buch geschrieben, das der Guardian in eine Reihe mit Adam Smith, Karl Marx, Max Weber, Karl Polanyi und Thomas Piketty stellt. Es heißt The Age of Surveillance Capital und es sollte bald in meinem Buchregal stehen, wie ich finde.

Ein Auszug aus einem Interview mit dem Guardian:

In my early fieldwork in the computerising offices and factories of the late 1970s and 80s, I discovered the duality of information technology: its capacity to automate but also to “informate”, which I use to mean to translate things, processes, behaviours, and so forth into information. This duality set information technology apart from earlier generations of technology: information technology produces new knowledge territories by virtue of its informating capability, always turning the world into information. The result is that these new knowledge territories become the subject of political conflict. The first conflict is over the distribution of knowledge: “Who knows?” The second is about authority: “Who decides who knows?” The third is about power: “Who decides who decides who knows?”

(…)

Surveillance capitalists were the first movers in this new world. They declared their right to know, to decide who knows, and to decide who decides. In this way they have come to dominate what I call “the division of learning in society”, which is now the central organising principle of the 21st-century social order, just as the division of labour was the key organising principle of society in the industrial age.

Shoshanna Zuboff

When Two Points on a Circle Form a Line

There are many ways to produce computer created abstract images. I show you one them written in R, that leads to images like these:

First of all, let’s set the stage with a config part:

#### load packages
#### instead of tidyverse you can also use just ggplot2, purrr and magrittr
library(here)
library(tidyverse)

####
#### Utils functions neccessary: 
#### You can find them in the generativeart package on Github: github.com/cutterkom/generativeart.
#### Here they are stored in `src/generate_img.R`.
####
source(here("src/generate_img.R"))
NR_OF_IMG <- 1
LOGFILE_PATH <- "logfile/logfile.csv"

The base concept is:

  • form a starting distribution of the points
  • transform the data

In this case, our starting point is a circle. I create the data with a formula called get_circle_data(). The function was proposed on Stackoverflow by Joran Elias.

get_circle_data <- function(center = c(0,0), radius = 1, npoints = 100){
  tt <- seq(0, 2*pi, length.out = npoints)
  xx <- center[1] + radius * cos(tt)
  yy <- center[2] + radius * sin(tt)
  return(data.frame(x = xx, y = yy))
}

The circle dataframe goes straight into a generate_data(), where every point on the circle is connected to excatly one other point. The connections between a pair of coordinates are based on randomness, see sample(nrow(df2)):

generate_data <- function() {
  print("generate data")
  df <- get_circle_data(c(0,0), 1, npoints = 100)
  df2 <- df %>% 
    mutate(xend = x,
           yend = y) %>% 
    select(-x, -y)
  df2 <- df2[sample(nrow(df2)),]
  df <- bind_cols(df, df2)
  return(df)
} 

The dataframe is input to a ggplot::geom_segment() plotting function:

generate_plot <- function(df, file_name, coord) {
  print("generate plot")
  plot <- df %>% 
    ggplot() +
    geom_segment(aes(x = x, y = y, xend = xend, yend = yend), color = "black", size = 0.25, alpha = 0.6) +
    theme_void() +
    coord_equal()
  
  print("image saved...")
  plot
}

Now we have all parts gathered to run the wrapper function generate_img from the generativeart package that indeed creates an image:

generate_img()

From here, you can play with the input parameters to generate different looking images. You can change these variables in get_circle_data():

  • center = c(0,0): changes nothing when you draw only one circle, the center can be anywhere
  • radius = 1: numbers greater than 1 for rings within the circle
  • npoints = 100: Higher numbers for denser circle lines

You can find the code in an .Rmd script on Github.

Automatisierter Journalismus: Schreiben nach Zahlen

Radar ist eine Presseagentur aus Großbritannien, deren Quelle offene Daten sind. Mit Hilfe von Software schreiben Journalisten dann nicht einen Text, sondern viele Texte gleichzeitig:

Our journalists select the most promising data, mine the data to find the story, develop the different angles and then compose a template that instructs the technology on what sentence to write as it computes the numbers in the spread sheet. We are writing stories as mini-algorithms for each new set of data.


Mehr dazu in diesem Text: How RADAR became front page news: Lessons from the first year of an automated news agency

Bei der Süddeutschen Zeitung haben wir das für die Landtagswahlen im Herbst auch gemacht: Ein statistisches Modell hat jedes Stimmkreisergebnis mit allen anderen Stimmkreisen verglichen und vom Resultat abhängige Texte formuliert. Zum Beispiel für München-Mitte:

Unsere Tweets damals nach der Wahl:

Eine kurze Leseliste zu Algorithmen

Die sieben Todsünden der Prognosen über die Zukunft der KI
Ein langer, schlauer Text des MIT-Professors Rodney Brooks, der gängige Annahmen zur Künstlichen Intelligenz auseinanander nimmt.

In Kürze auf diesem Bild:

A.I. Is Our Future. What Happens When the Data It’s Trained on Is Biased and Old?
Algorithmen können unfair sein und gesellschaftliche Vorurteile weitertragen. Das sagt sich leicht, aber wie funktioniert das konkret? Zum Beispiel über die Trainingsdaten. Ein häufig benutzter Datensatz, um E-Mails zu analysieren, sind Mails der Firma Enron. Also derjenigen Firma, die noch immer als der Inbegriff des Bilanzbetrugs gilt. Die Mails hat 2003 die amerikanische Federal Energy Regulatory Commission veröffentlicht: 1,6 Millionen E-Mails zwischen Enron-Mitarbeitern.

„If you think there might be significant biases embedded in emails sent among employees of a Texas oil-and-gas company that collapsed under federal investigation for fraud stemming from systemic, institutionalized unethical culture, you’d be right. (…) Researchers have used the Enron emails specifically to analyze gender bias and power dynamics.“ In other words, the most popular email data set for training A.I. has also been recognized by researchers as something that’s useful for studying misogyny, and our machines may be learning to display the same toxic masculinity as the Enron execs.

The algorithm is innocent

Googles „Top Stories“-Box, ganz oben unten dem Suchfenster, ist für Nachrichten gedacht. Wenn dort ein Link zu 4chan erscheint, einer Seite, die – nun ja – nicht gerade für validierte Informationen steht, dann ist etwas schief gelaufen. Googles Reaktion? Der Algorithmus war schuld. „Blaming the algorithm has gotten pretty common“, heißt es bei The Outline. Doch das ist falsch: Der Algorithmus, die Anweisung an den Computer hat funktioniert, er kann ausgeführt werden. Das Problem sind die Annahmen dahinter:

A truly faulty algorithm would be like a computer program that does not compile or catches itself in an infinite loop. These algorithms are executing; they are doing what they were designed to do. The problem is that they are not designed to exclude misinformation or account for bias.

So lässt sich die potenzielle Wirkung algorithmischer Entscheidungen bestimmen

Wie groß ist der Einfluss von Algorithmen auf die Gesellschaft? Und wie groß soll deshalb im Umkehrschluss die gesellschaftliche Teilhabe sein? Bei „Algorithmenethik“, einer Webseite der Bertelsmann Stiftung, haben sich zwei Wissenschaftler an einem Index versucht. Das Prinzip: je höher der Einfluss der Akteure, je stärker die soziale Einbettung und je gewichtiger die Konsequenzen, desto höher ist das Teilhabewirkungspotenzial.

Kooperativer Journalismus: Deca macht einen auf Magnum

Preisgekrönte Journalisten tun sich zu einer Kooperative zusammen, nennen sich Deca und veröffentlichen Longform-Journalismus. Für 15 US-Dollar gibt es mindestens zehn Geschichten im Jahr, der monetäre Grundstock von kam durch Crowdfunding. Hört sich schon ziemlich toll an.

Forbes schreibt:

Meet Deca, a new long-form journalism cooperative made up of nine award-winning, best-seller-writing, globally-scattered freelance journalists. Deca is not a publication; it is a brand, a network, a collaboration, a publishing platform.

Neben dem Abo, können die Texte auch einzeln gekauft werden. Interessant ist, wie die Einnahmen aufgeteilt werden.

It will be in Deca’s best interests to promote its stories, of course, but a story’s writer and editor will undoubtedly feel the urgency most because of the group’s unique payment structure: For every single sold, the writer gets 70%, the editor gets 5%, and the remaining 25% goes back to Deca (along with all donations and subscriptions) to be spread among operating costs, the salaries of the copyeditor and fact-checker, paying writers for at least half of their travel expenses, and, if anything’s left, back to the cooperative members. (…)

If some stories do better than others, though, Deca will take a cue from Hollywood. Its plan to spread any leftover revenue from stories among Deca members is supposed to mimic the blockbuster phenomenon.

Leider klappt es technisch nicht ganz, es scheint Probleme mit dem Login zu geben, wie Johannes Kleske auf Medium schreibt:

We are seeing this again and again: promising new approaches to journalism that get caught up in technical difficulties. Journalists obviously focus on the journalistic part of their work. If they are progressive, they also have a good understanding of the business side of things.
But now, there’s this layer that influences every aspect of a journalism company: the technology. From researching stories to the editorial process (writing, editing, fact-checking, versions management) to delivery via content-management systems and printing infrastructure to digital payment in apps and for subscriptions to communication with colleagues and readers etc. The need for these technologies is not new. But the options and with them the opportunities have exploded. The easiest solution is to outsource most of these aspects to external vendors. But Deca just learned how frustrating this can be.

NewsLynx: Neues Tool soll Erfolg von Journalismus qualitativ und quantitativ ermitteln

Die Frage nach dem Erfolg von Online-Journalismus ist nur oberflächig leicht zu beantworten. Selbst die Einsicht, dass Klickzahlen nicht das gelbe vom Ei sind und eine Menge Fehlanreize in sich bergen, bringen den ambitionierten Online-Journalismus-Versteher nur in das Basislager des Wie-einflußreich-ist-Journalismus-Berges.

Drei junge News-Nerds versuchen nun, gesponsort mit Geldern des Tow-Centers for Digital Journalism, das Problem, wie Einfluss online gemessen werden kann, zu verstehen.

  • Brian Abelson hat bei der New York Times PAR („Pageviews above replacement“) entwickelt. Vor ein paar Monaten schrieb ich dazu bei den Netzpiloten:

    Im Sommer veröffentlichte Abelson seinen Ansatz. Er nennt ihn PAR, kurz für “Pageviews above replacement”. Die grundlegene Überlegung ist folgende: Der Erfolg eines Artikels – gemessen in Page Views – hängt nicht nur von Zugriffen ab, sondern auch davon, wie viel Werbung dafür gemacht wurde. Es muss also herausgerechnet werden, wenn Facebook- und Twitter-Accounts der NY Times den Text geteilt haben oder ob er auf der Startseite stand. Der PAR-Indikator stellt die Page Views in Relation zu den getroffenen Werbemaßnahmen. Abelson ist sich der begrenzten Aussagekraft bewusst: “Der PAR-Ansatz ist ein Pflaster.” Ein Pflaster das helfe, den Aufwand zu messen, den eine Nachrichtenseite aufbringen müsse, um ein bestimmtes Ziel zu erreichen.

  • Der zweite im Bunde ist Stijn Debrouwere, dessen Serie zur Informationsarchitektur bei Nachrichtenseiten zum Besten gehört, was ich zu diesem Themenbereich je gelesen habe.

  • Der dritte ist Michael Keller, den ich bis zur Google-Suche vor einer halben Minute nicht kannte. Er ist offenbar Multimedia-Journalist bei Al-Jazeera. Mehr zu ihm auf seiner Webseite.

Diese drei arbeiten zusammen an NewsLynx, das quantitativ und qualitativ auswerten soll, welchen Einfluß bestimmte journalistische Inhalte haben.

Noch sind die Aussagen ziemlich wage, aber die „Preliminary Feature List“ lässt auf einiges hoffen:

While we’re just getting started, here’s a sense of what NewsLynx will include:

  • Tracking of social media “mentions” and “likes” over time on Twitter and Facebook.
  • Tracking of mentions by lists of people, e.g. local and national representatives, other journalists, or institutional representatives.
  • Integration with Google Analytics and other metric providers.
  • A Google Alert-like river of mentions that can be approved and associated with a given article.
  • A Customizable qualitative taxonomy and tagging system.
  • An interface for recording “impact” events not tied to automatic processes.
  • “If-This-Then-Impact” recipes for custom combinations of events that should trigger an event to be recorded.
  • A report generator for distributing impact assessments to staff, board members, and financial backers.

Warum dieses Vorhaben nicht trivial ist, schreiben die drei in einem Blogbeitrag bei Tow auf: Das Hyperlinks-System, wie es der Erfinder des WWW, Tim Berners Lee, erdacht hat, ist nicht darauf ausgelegt, getrackt zu werden. Denn diese Links sind Einbahnstraßen. Sie zeigen in eine Richtung; das Ziel hat aber nicht gespeichert, woher der Verweis kam.

The inefficiency of one-way links left a hole at the center of the web for a powerful player to step in and play librarian. As a result, if you want to know how your content lives online, you have to go shopping for analytics. To effectively monitor the life of an article, newsrooms currently use a host of services from trackbacks and Google Alerts to Twitter searches and ad hoc scanning. Short link services break web links even further. Instead of one canonical URL for a page, you can have a bit.ly, t.co, j.mp or thousands of other custom domains.

Mit sogenannten „recipes“ wollen sie dieses Problem lösen, indem sie dadurch eine Art „two-way-linking-system“ entwickeln. Die Serpentinen auf den Everest der Erfolgsmessung sollen damit, um in der Metapher der Einbahnstraße zu bleiben, in beide Richtungen befahrbar sein.

Noch kann an NewsLynx nicht ausprobieren, aber Medien können eine Umfrage ausfüllen und unten ankreuzen, dass sie das Tool gerne ausprobieren würden. Wäre ich Head-of-Data-Analysis von I-wanna-own-online-Media, ich würde keine Sekunde zögern …

Eine wirklich einfache Einführung in GitHub

Unzählige Tutorials und Artikel habe ich schon über GitHub gelesen. Ja, sogar einen Freund gebeten, es mir zu erkläen. Und ja, die Grundsätze und den Sinn hab ich verstanden, aber das ganz Konkrete war mir nicht klar. Bis eben!

Tyler Fisher hat es mit wenigen Slides „Intro to GitHub“ und einer praktischen Aufgabe (natürlich auf GitHub) geschafft, dass ich endlich verstanden habe, was ich mit meiner GitHub-App auf dem Computer nun eigentlich machen soll. Heureka!

Making of: Sitzverteilung im bayerischen Landtag

Fast wären ersten Gehversuche mit D3.js in dem ewigen Unter-unter-unter-Ordner verschwunden. Doch gestern habe ich mich doch noch einmal zusammengerissen und eine Visualisierung der Sitzverteilung im bayerischen Landtag seit 1946 fertiggestellt.
Making of: Sitzverteilung im bayerischen Landtag weiterlesen

Ich habe mir mein eigenes WordPress-Theme gebastelt

Alles neu! Und grüner als je zuvor!

In den vergangenen Wochen habe ich große Fortschritte darin gemacht, Webseiten in WordPress zu programmieren. Jahrelange hatte ich CSS- und PHP-Dateien zwar nach meinen Wünschen verändert, aber selbst geschrieben – also Start mit leeren Datei – hatte ich solche Dateien nie. Das hat sich nun geändert, denn ich habe einfach mal ein Tutorial von Anfang bis Ende durchgemacht und währenddessen sind mir ein paar Lichter aufgegangen.

1. Child-Themes

Ein Child-Theme bezeichnet ein verschachteltes System von Theme-Dateien. Das Parent-Theme, also die übergeordnete Datei, wird nicht verändert, sondern nur das „Kind“. Konkret habe ich also nie etwas an der originären Bootstrap-CSS-Datei verändert, sondern immer an meiner eigenen CSS-Datei. Schon eine einzige CSS-Datei kann dabei als ein Child-Theme dienen. Das Aussehen der Webseite bestimmt sich dann allein durch die Child-CSS-Datei, nur da werden Veränderungen notiert. Als Vorteil eines solchen Systems wird immer wieder gepriesen, dass sich bei Updates eines Themes nichts ändert. Das war mir immer etwas schleierhaft, denn dieses Problem ist mir in den letzten Jahren nie untergekommen. Den großen Vorteil, den ich sehe ist, dass die CSS-Datei, mit der man arbeitet, einfach nur den Code beinhaltet, der verändert wurde. Ändere ich also zum Original zum Beispiel nur die Größe der Überschrift und die Linkfarbe, dann steht im Child-CSS nur:

h1 {font-size: 1.2em;}
a {color: #ff0000;}

Das macht es sehr viel übersichtlicher, denn der Inhalt der Datei ist weniger und der eigene, also leichter zu lesen, wie ich finde.

Mehr zu Child-Themes, was sie ausmacht und wie man sie erstellt, gibt es bei Elmastudio.

2. Bootstrap Framework

Twitter hat mit Bootstrap  ein Framework veröffentlicht, auf dem man sein eigenes Webdesign aufbauen kann. Ganz leer war die Datei deshalb doch nicht, auf dem diese Seite basiert. Das Boostrap-Framework, das sind ein paar CSS und Java-Script-Dateien, die einen Rahmen für die eigene Seite setzen. Gerade die Tatsache, dass das Bootstrap bereits responsive ist, sich also automatisch an verschiedene Bildschirmgrößen anpasst, fand ich überzeugend. Denn dieses Feature wollte ich, wäre mir aber viel zu komplex, um es selbst zu bauen. Generell besteht eine Bildschirmbreite aus zwölf Teilen, die dann je nach Breite aneinandergebastelt werden. Zum Beispiel: Ich wollte einen breiten Bereich für den Text und eine Seitenleiste. Der breite Teil läuft unter der CSS-Klasse „span9“, die Seitenleiste unter „span3“. Möchte ich eine breitere Sidebar, könnte ich dafür „span4“ wählen, der Textbereich würde sich dann zu „span8“ verschmälern. Wichtig ist, dass sich die horizontalen Bereich immer auf zwölf aufaddieren. Ich könnte also theoretisch bis zu zwölf Blöcke nebeneinander laufen lassen.
Ein sehr gutes Tutorial, wie man Bootstrap und WordPress verbinden kann, gibt es beim Team Treehouse: How to Build a WordPress Theme with Bootstrap

3. WordPress-Templates und functions.php

Mit verschiedenen Templates habe ich bereits bei der Lautschrift angefangen zu arbeiten, ganz neu war mir das Konzept also nicht. Aber richtig systematisch angewandt von Anfang an, hatte ich es noch nicht. Zudem habe ich versucht mir möglichst viele Funktionen direkt in das Theme einzubauen, zum Beispiel mehrere Widget-Bereiche im Theme (Sidebar, Footer und an der oberen schwarzen Leiste). So brauche ich auch nicht so viel Plugins, zum Beispiel um Texte in zwei Spalten darzustellen.

To Do

An ein paar Ecken gibt es noch etwas zu basteln: Die Ansicht auf dem Smartphone scheint noch nicht wirklich top zu sein, einen „Back-to-top“-Button im Footer zum Beispiel oder Formatvorlagen. Anbieten würde sich dazu zum Beispiel die Rubrik Lesenswertes. Auch ein RSS-Button fehlt noch.

Fazit

Mit Vorkenntnissen in CSS und PHP ist das alles gar nicht so schwierig – vorausgesetzt, ich lese die Readmes mal aufmerksam und überfliege sie nicht nur.