Digital fingerprints

Von der Volkszählung zu Big Data: Die Chancen der Gestalter und Künstler innerhalb der Datenkultur

Inhaltsverzeichnis

Einleitung

Wir leben in Zeiten von Big Data. Jedenfalls ist dies immer wieder zu hören. Soziale Medien prägen unseren Alltag wie niemals zuvor und ermöglichen uns mit der ganzen Welt verbunden, ja sogar befreundet zu sein. Jeder kann nachschlagen welche Musik wir mögen, wo wir letzten Freitagabend gewesen sind, wer uns begleitet hat und wie der letzte Urlaub ausgesehen hat – natürlich multimedial minutiös dokumentiert. Wir produzieren Daten en masse; rund um die Uhr, quer über den ganzen Globus. Doch wie kam es zu dieser Datenkultur und worin unterscheidet sich unser Vacation Blog als Livefeed vom Dia-Abend unserer Eltern? Was sind Vorteile, aber auch Risiken dieses Wandels?

In jüngster Zeit sorgten auch diverse Enthüllungen Rund um den Whistleblower Edward Snowden, der Plattform Wikileaks und diversen Anderen für Schlagzeilen; und bieten somit unerschöpflichen Gesprächsstoff. Geheimdienste auf der ganzen Welt sind längst auf das immense Potenzial solcher Daten aufmerksam geworden und wissen diese – entsprechend juristisch geschickt ausgelegt – zu nutzen. Was sind also mögliche Gefahren unserer Online-Präsenz und der somit generierten Daten? Müssen wir Angst vor willkürlich ausgelegter Jurisdiktion haben?

In der vorliegenden schriftlichen Thesis soll über einen historisierenden Weg erläutert werden, wo die Datenerfassung und -sammlung ihre Ursprünge hat, wie diese Entwicklung sukzessive zu Grossrechnern, Personal Computern, dem Internet, den Suchmaschinen, sozialen Medien und schliesslich dem allgegenwärtigen Schlagwort Big Data geführt hat.

In diesem Spannungsfeld liegt aber auch ein weiteres Interessengebiet verborgen: nämlich das der Gestalter und Künstler. Daten müssen dargestellt werden – schliesslich ist der Mensch ein primär visuell erfassendes Wesen. Einerseits übernehmen dies Statistiker, Mathematiker, Wissenschaftler und Soziologen, aber wie bereits erwähnt auch Designer, Mediengestalter, Grafiker und Künstler. Worin liegt also unsere Rolle als Gestalter in dieser neuen Welt und welche Chancen gegenüber unseren «Konkurrenten» haben wir? Zusätzlich stellt sich die Frage: Welche technischen Neuerungen hatten welche Form der Datenvisualisierung zur Folge?

Am Ende wird noch erklärt werden, inwiefern man von den im Titel angedeuteten digital fingerprints sprechen kann und was dieser Identitäts-konnotierte Begriff für eine Bedeutung im gestalterischen Teil der Bachelor-Thesis haben könnte.

Anfänge der Datenerfassung und manueller Datenverarbeitung

Die Volkszählung

Zusammenleben in einer organisierten Gesellschaft erfordert ein nicht zu unterschätzendes Mass an Planung. Diese wiederum bedingt Kenntnis der bestehenden Ressourcen, welche aus staatlicher Sicht unter anderem durch die Bevölkerung gestellt werden – sei es in Form steuerlicher Abgaben oder diensttauglicher junger Männer für den Militärdienst. Um an solche Daten zu gelangen wurden seit jeher Volkszählungen durchgeführt. Aufzeichnungen dazu reichen von Ägypten (2700 v. Chr.), Mesopotamien (1700 v. Chr.), über Israel (1000 v. Chr.) bis zu regelmässigen Daten aus dem Römischen Reich (ab dem 600 Jh. v. Chr.).1 Daraus ergibt sich auch der Begriff Statistik:

«Das Wort Statistik stammt von lateinisch statisticum „den Staat betreffend“ und italienisch statista Staatsmann oder Politiker. Die deutsche Statistik, eingeführt von Gottfried Achenwall 1749, bezeichnete ursprünglich die „Lehre von den Daten über den Staat“. Im 19. Jahrhundert hatte der Schotte John Sinclair das Wort erstmals in seiner heutigen Bedeutung des allgemeinen Sammelns und Auswertens von Daten benutzt.»2

So kann man tatsächlich von einer frühen Form der Datenerfassung sprechen – wenn auch der Begriff Volkszählung irritieren mag. Einerseits wurde etwa für militärische Zwecke tatsächlich die Anzahl kampffähiger Männer gezählt, andererseits sind mit dem Begriff auch das Ermitteln der Daten zu Alter, Geschlecht, Stand, Religion, Bildung, Einkommen und dergleichen gemeint. Letztere früher oft in Form einer Stichprobe mit anschliessender Hochrechnung; neuerdings bedingt durch Computertechnik und Registerzählung auch als Totalerhebung.

Als primitive Datenspeicher und visuelle Repräsentationen dienten unter anderem Tonscherben, in Keilschrift verfasste Tontafeln, die Mittelamerikanische Knotenschrift Quipu3 und später natürlich auch Formulare, Fragebogen und tabellarische Ansichten auf Papier.4

Die Lochkarte

Der Wechsel von manueller zu automatisierter Datenverarbeitung fand 1890 während der Volkszählung in den Vereinigten Staaten von Amerika statt.5 Das bereits aus Spieldosen, Drehorgeln und Webstühlen6 bekannte Prinzip der Lochkartensteuerung wurde durch Herman Hollerith in Kombination mit der tabellarischen Darstellung als Informationsträger respektive Speichermedium weiterentwickelt.7 So waren auf der Loch- oder auch Hollerithkarte8 nicht nur eingestanzte Löcher für die Tabelliermaschinen9 vorhanden – zur besseren Lesbarkeit waren die einzelnen Werte zusätzlich aufgedruckt und somit von Mensch und Maschine gleichermassen sicht- und erfassbar. Auch wenn auch die Maschine die notwendige Sortierung und Zählung um ein vielfaches schneller durchführen konnte als ein Mensch. Es handelt sich hierbei noch um eine relativ einfache Verarbeitung, erst später sollte die Lochkarte aufwändigere Berechnungen ermöglichen oder komplexere Daten enthalten, wie bspw. Recheninstruktionen oder Programme.

In vielerlei Hinsicht gilt die Lochkarte als Frühform einer Datei in der heutigen Computerwelt. So hatte bedingt durch den begrenzten Platz auf der Karte sogar die Anzahl Spalten einen Einfluss auf die Informatikgeschichte. Bei der Darstellung reiner Textdateien, E-Mails oder in Terminals10 wurde die damalige Limite von maximal 80 Zeichen pro Zeile übernommen, sodass diese Anzahl noch heute anzutreffen ist. Dass die Karten ausserdem relativ einfach dupliziert, sortiert und archiviert werden konnten, unterstützt diesen Vergleich umso mehr.

Zu betonen ist nochmals die visuelle Koexistenz von Daten und Datenwerten pro «Speichermedium» – ein Merkmal das ab einem späteren Zeitpunkt in der Abstraktion der Codierung und Digitalisierung untergehen wird. So bildet die Lochkarte eine Art Grenze oder Hybrid zwischen menschlicher Erfassung und maschineller Verarbeitung.

Erste Rechenmaschinen und elektronische Datenverarbeitung

Die von Hollerith im Vorfeld gegründete Tabulating Machine Company wurde sukzessive ausgebaut und die Lochkarten-Technologie mit ihren Tabelliermaschinen weiterentwickelt. Durch Zusammenschlüsse mit anderen Unternehmen entstand 1924 schliesslich die International Business Machines Corporation, heutzutage unter der Abkürzung IBM bekannt.11

Der Grossrechner

In den 1930er und 1940er-Jahren wurden die Grundlagen heutiger Rechenmaschinen gelegt. Pioniere wie etwa Konrad Zuse und Alan Turing entwickelten theoretische Arbeiten um das Jahr 1936, während schon fünf bis zehn Jahre später erste Grossrechner wie Zuse’s Z312 oder IBM’s Harvard Mark I in Betrieb genommen wurden.13

Wie bereits Friedrich Kittler seinerseits mit General von Wedel’s Worten «Missbrauch von Heeresgerät» andeutete und am Beispiel des Funks aufzeigte,14 dienten technologische Entwicklungen meist auch (oder sogar exklusiv) einem militärischen Zweck. Nicht zufällig wurden IBM’s Rechenmaschine für die Berechnung von Geschütz-Tabellen und Flugbahnen von Projektilen und Bomben verwendet.15 Das NS-Regime wurde von IBM durch das Deutsche Tochterunternehmen DEHOMAG mit Lochkartentechnik versorgt; sodass dadurch das Erfassen jüdischer Bürger und die Organisation des Holocausts «effizienter» und vermutlich erst in bekanntem Mass durchgeführt werden konnte.16

Wie so oft war es ein ambivalentes Zusammenspiel: erst durch die verschiedenen Militärs und der entsprechenden Förderung durch finanzielle Mittel in diesem Forschungsgebiet wurden rasche und bahnbrechende Entwicklungen ermöglicht. So wie die Rechenmaschinen leistungsfähiger wurden, stiegen auch die Möglichkeiten der Anwendungszwecke. Das Interesse der Streitkräfte galt gegen Ende des Zweiten Weltkrieges allem voran der Chiffrierung/Dechiffrierung von Kommunikationswegen und somit von strategischen Nachrichten.17

Die Elektronik

Die Grundbausteine der Rechenmaschinen änderte sich im erwähntem Zeitraum der 1930er bis 1950er Jahre massgebend, so entwickelte sich die Hardware von Relais, über Elektronenröhren hin zu Transistoren. Elektromechanische Elemente wurden durch elektronische Bauteile ersetzt. Während als Eingabe- und Speichermedium teilweise immer noch Lochkarten verwendet wurden, vollzog sich sukzessive der Wechsel zu magnetbasierten Speicher. Oft wurden beide Technologien im Mischbetrieb verwendet.18 Als Besonderheit dieser Entwicklung galt auch der Speicherbildschirm19 als röhrenbasierte Speicherform. Durch seine Bauweise wurden einzelne Bits in einem Raster visuell ersichtlich20 – wenn auch binär in hellere und dunklere Punkte abstrahiert. Somit stellte er eine Mischform von Lochkarten und der tabellarischen Ansicht dar. Doch wurde auch er von der späteren magnetbasierten Technik abgelöst.

Bauteile wurden von nun an exponentiell kleiner, Rechengeschwindigkeit schneller, die Speicherkapazität grösser, aber auch Daten immer wie unsichtbarer: Entsprechend also die Grenze der menschlichen Wahrnehmungskapazität immer wie weiter ins unfassbare hin aufgelöst bzw. abstrahiert.

Georg Nees und Frieder Nake

In dieser massgebenden Phase der Informatikgeschichte geschah aber auch aus gestalterischer Sicht einiges: Mit dem Verschwinden der visuell erfassbaren Datenspeicher kamen in den 1950er und 60er Jahren erste visuelle Arbeiten durch Computerkünstler zustande – die digitale (oder Computer-) Kunst war geboren. Pioniere in diesem Bereich waren unter anderem Georg Nees und Frieder Nake.

Nees befasst sich mit zufallsbasierten Algorithmen und programmierte so Instruktionen für den von Zuse entwickelten Plotter Graphomat Z64. Seine rasterbasierte Arbeit Ohne Titel (Mikroinnovation)21 von 1967 handelt etwa von der Frage des Zusammenspiels von Ordnung und Komplexität durch Variation polygonaler Formen innerhalb einer Matrix.22 So ging es auch nach der Zeit der Darstellung von Datenspeicherung um die Grundfrage der Informationsdichte und -position innerhalb eines Systems; sowie zum menschlichen Wahrnehmungsprozess an sich. Frieder Nake entwickelte diese Methodik teilweise weiter und führte regelbasierte Entscheidungswahrscheinlichkeiten ein, sodass das vorhandene Raster in präziseren Abstufungen variiert und gefüllt werden konnte. Dadurch wurde es bspw. möglich, die Matrizen kontrollierter zu «sprengen»23 und somit die Frage nach dem Regelwerk oder Mass für die Ästhetik zu stellen. In diesem Feld konnte man das erste Mal von einer Grundform der Informationsästhetik sprechen.

Vernetzung und die Geschichte des Internet

ARPANET

Ab 1962 entwickelten Forscher am Massachusetts Institute of Technology (MIT) im Auftrag der US-Amerikanischen Air Force zusammen mit dem Verteidigungsministerium erste Formen eines dezentralen Netzwerks.24 Auch hier offensichtlich mit Unterstützung von Militär- bzw. Verteidigungsbudget. Ziel war es, im Falle eines nuklearen Angriffs eine robuste Kommunikationsplattform mit Redundanzen zu besitzen.25

Das Grundgerüst dazu bildete das Prinzip der Paketvermittlung, wobei Daten nicht als kontinuierlicher Strom exklusiv auf einer Leitung versendet bzw. besetzt werden (wie etwa früher beim Telefon), sondern in kleinere Bruchstücke (sprich: Pakete) aufgebrochen und so auf teilweise verschiedenen Routen zum Empfänger geleitet wurden. Dort angekommen, wurden – und werden sie noch heute – bei erfolgreicher Übertragung in der richtigen Reihenfolge zusammengesetzt. Die erste funktionierende Version des ARPANET verband schliesslich 1969 die ersten vier Hochschulen miteinander.

So wichtig die Entwicklung des ARPANET auch war, wandte es sich aber an einen relativ elitären und exklusiven Kreis an Benutzern. Denn nur mit den notwendigen Geldmitteln und guten politischen Verbindungen konnten sich Hochschulen diesem Netz anschliessen. So kam es auch, dass auf Basis von Unix26 an der Duke University das Usenet entwickelt wurde.27 Zwar war die Netzwerkgrundlage des ARPANET ausschlaggebend, doch wurde die Idee eines partizipativen Austauschs für Jedermann erst durch das Usenet geprägt. Stephen Daniel, damaliger Student der an Usenet arbeitete, bezeichnete es somit auch als «poor man’s ARPANET».28 Dieser Gedanke sollte später die Grundlage für das World Wide Web bilden.

Personal Computer

Zwar geht der Begriff Personal Computer auf IBM’s Marketingabteilung und den 1981 vorgestellten IBM-PC zurück, doch kann im Wortsinn des «persönlichen Rechners» schon vom vier Jahre zuvor veröffentlichten Apple II29 gesprochen werden. Schliesslich läutete das relativ erschwingliche und kompakte Gerät das Zeitalter des Personalcomputers ein.30 Auch wenn noch ohne Maus und grafischer Oberfläche.31

Ermöglicht wurde diese Bauweise wiederum durch einen immensen technologischen Fortschritt in den 1960er und 1970er Jahren. Die Halbleitertechnik löste den Magnetkernspeicher ab und verhalf so innerhalb weniger Jahre zur Miniaturisierung auf Schreibmaschinengrösse. Der Bildschirm, die grafische Oberfläche und natürlich die Maus wurden auch um diese Zeit erfunden, wobei die Laboratorien von Xerox PARC32 mit ihren kreativen und talentierten Mitarbeitern hierbei besonders nennenswert sind. Ihre Arbeiten, insbesondere das System Xerox Alto, inspirierten Apple’s Steve Jobs und Microsoft’s Bill Gates dazu, die grafischen Oberfläche, inkl. Fenster, Icons, Menüs, Maus und dem Ausgabeprinzip WYSIWYG33 kommerziell einzuführen. Xerox, der Kopiergerätehersteller, finanzierte dieses Forschungsinstitut, doch verpassten sie es die gewonnen Erkenntnisse in kommerziellen Erfolg umzuwandeln. Die Geschäftsführer erkannten die Ergebnisse und das Potenzial des kleinen PARC Teams zu spät – im Gegensatz zu Jobs und Gates.

1984 wurde schliesslich der erste Macintosh nach dem Vorbild des Xerox Alto eingeführt. Trotz relativ erschwinglichem Preis blieb der anfängliche Erfolg aus. Hauptsächlich wusste niemand so recht, was man mit diesen Geräten anfangen konnte.34 Die Vorstellung und Erwartung damaliger Computer war eine andere; in einer textbasierten Darstellungsform. Erst fortlaufend setzten sich Lernprogramme, Spiele, Tabellenkalkulationen, Bildbearbeitung und das Desktop-Publishing durch. Erst diese Möglichkeiten verhalfen dem Personal Computer zum Erfolg – auch wenn mittlerweile Gates’ Windows die Verkaufszahlen des Macintosh übertroffen hatte.

Käufer eines PCs hatten zu dieser Zeit das erste Mal die Möglichkeit sich in einem digitalen Umfeld zu verwirklichen; sei es Tabellenkalkulation durchzuführen, Korrespondenzen zu schreiben oder auch zu gestalten. Die Bildbearbeitung und -kreation durch Pixel-Manipulation wurde schnell von Amateuren und Professionellen aufgegriffen, entsprechend experimentiert und genutzt. Auch das Desktop-Publishing wurde von der Design-Branche rasch adaptiert, wenn auch die Qualität aufgrund niedrig aufgelöster Drucker dem professionellen Druck nicht gerecht werden konnte.35 Trotzdem standen die Möglichkeit einer breiteren Schicht mehr als jemals zuvor offen.

Datenbanken

Aufgrund der Tatsache, dass Daten bis anhin relativ starr und somit unflexibel abgelegt wurden, waren sie für weitere Anwendungen als die ursprünglich erdachten mühselig wieder zu gebrauchen. Für jeden neuen Fall mussten sie umkopiert respektive umstrukturiert werden. Um diese Problematik zu lösen, wurden in den 1960er Jahren die Datenbanken entwickelt. Nebst ihrer Aufgabe, effizient, dauerhaft und widerspruchsfrei zu speichern36, wurden die Daten in einer virtuellen Form abstrahiert und in Fragmente unterteilt. Fortan konnte man einzelne Datenbestandteile in nahezu beliebiger Kombination neu anordnen und in Relation37 bringen. Auch im Verbund mit anderen Datenbanken. Des somit ausgehenden Potenzials bewusst, beschrieben etwa Boyd und Crowford:

«This is especially true when researchers combine multiple large data sets. This does not mean that combining data does not offer valuable insights – studies like those by Acquisti and Gross (2009) are powerful, as they reveal how public databases can be combined to produce serious privacy violations, such as revealing an individual’s Social Security number.»38

Diese Entwicklung ebnete neue Möglichkeiten in der Datenverarbeitung, wie etwa den gleichzeitigen Zugriff mehrerer Benutzer, die Kontrolle der Zugriffsrechte, Massnahmen gegen den Datenverlust, als auch die Optimierung der Suchanfragen durch Indexierung oder die Speicherung von Metadaten.39 Insofern wurde somit der Grundstein für die späteren Möglichkeiten von Big Data, wie auch die der Geheimdienste und Suchmaschinen gelegt.

World Wide Web

Das Internet ist nicht zu verwechseln mit dem World Wide Web. Während Internet einen Obergriff darstellt und abgekürzt für internetwork steht40, ist das World Wide Web ein mittlerweile bedeutender Teilbereich davon. Anwendungen wie E-Mail, das bereits erwähnte Usenet oder FTP41 existierten bereits vor dem WWW. Doch waren alle textbasiert, wenig benutzerfreundlich und somit für Laien schwer zugänglich.42 Während die Hürde für Normalverbraucher dank der grafischen Benutzeroberfläche beim PC heruntergesetzt wurde, geschah im Internet lange Zeit nichts dergleichen.

Tim Berners-Lee, seinerzeit Forscher am CERN, sah den Nutzen vernetzter Computer, wusste jedoch um deren Nachteil Bescheid. Um seinen Kollegen den Zugriff auf Forschungsergebnisse und Dokumente zu vereinfachen und allen die Partizipation (also der Inhaltsgenerierung und -editierung) zu ermöglichen, fing er 1990 mit einigen Kollegen an, das WWW zu entwickeln. Während das ARPANET relativ hierarchisch organisiert war und den Inhalt quasi vorgab, sollte das WWW offen sein und allen ermöglichen eigene Inhalte online zu stellen.43

Bereits 1974 beschrieb Ted Nelson ein organisiertes System verbundener (verlinkter) Informationen – das er Hypertext bezeichnete.44 Berners-Lee kombinierte diese Idee mit multimedialen Inhalten, entwickelte so HTML, die Hypertext Markup Language als Darstellungsbeschrieb von Webseiten, HTTP, das Hypertext Transfer Protocol zur Übertragung dieser und schliesslich auch die URL, den Uniform Resource Locator – damit diese Seiten adressiert und angesteuert werden konnten. Sowohl der erste Webserver httpd, als auch der erste Browser mit dem schlichten Namen WorldWideWeb wurden im gleichen Zeitraum von ihm und seinem Team entwickelt.

Im Dezember 1990 veröffentlichte er schliesslich CERN-intern die erste Version des WWW. Acht Monate später, also im August 1991, stellte er per Usenet das am CERN entstandene Projekt der Öffentlichkeit zur Verfügung. Auf der allerersten Webseite begrüsste er:

«The WorldWideWeb (W3) is a wide-area hypermedia information retrieval initiative aiming to give universal access to a large universe of documents.»45

Die neu erhaltene Möglichkeit das Internet visuell zu durchforsten (zu browsen, oder surfen), auf eigene Initiative private Rechner in dieses Netz einbinden zu können, sowie Inhalte selber zu erfassen führten schliesslich zur grossen Medienrevolution, an der wir noch heute teilhaben.

«The Web completed the Internet’s transformation from a research tool to a popular medium by providing an application attractive enough to draw the masses of potential Internet users into active participation.»46

Suchmaschinen

Genau dieser Aspekt, dass Jedermann Seiten im WWW veröffentlichen und untereinander verlinken konnte führte in den nächsten Jahren zum exponentiellen Anstieg an Inhalt und Information. Anfänglich musste man eine URL besuchen, welche wiederum auf andere Seiten verwies und man sich so zum gesuchten Inhalt durchklicken konnte.47 Natürlich war das kein sonderlich befriedigender Weg wenn man zielorientiert gerichtet war; auch wenn man so getreu dem Motto «Der Weg ist das Ziel» auch auf viele interessante Nebenwege stossen konnte. Vieles blieb schlicht und einfach verborgen; die Übersicht war nicht gegeben.

Um diese Problematik zu lösen wurden neue Programme entwickelt: die Suchmaschinen. Diese verbanden das Prinzip der Datenbanken mit dem WWW. Seiten werden nacheinander durch Webcrawler48 be- und durchsucht, allen Links der Reihe nach gefolgt und auf der Reise entsprechende Reisenotizen angelegt – die bereits erwähnten Metadaten und Indizes.49 Die so gewonnen Resultate werden in eine Relation gebracht und nach Schlüsselwörtern priorisiert. Durchsucht man nun also eine solche Datenbank, werden einem verschiedene Ergebnisse sortiert präsentiert. Da sich der Inhalt auf Webseite je nachdem öfter oder seltener ändert, wird dieser Prozess in regelmässigen Abständen wiederholt. Im Prinzip funktioniert jede Suchmaschine im Web auch heute noch nach dieser Funktionsweise, auch wenn verschiedene Anbieter andere Algorithmen verwenden und somit heterogene Ergebnisse generieren. Genau darin jedoch liegt die Problematik versteckt. Der Historiker David Gugerli schreibt dazu:50

«Die Geschichte der Suchmaschinen ist die Geschichte der Übersichten, die sie erzeugen, der Prioritäten, die sie festlegen, und der Differenzen, die sie schaffen zwischen dem, was dazugehört, und jenem, was ausgeschlossen wird. Ihre Geschichte ist deshalb eminent politisch, weil Suchmaschinen die Aufmerksamkeit der ihrer Nutzer regelhaft einschränken – beim Aufbau ihrer Datenräume, bei der Strukturierung ihrer Programme und bei der Präsentation ihrer Resultate.»

Web 2.0 und das quantifizierte Selbst

Das Web war im Grundgedanken von Berners-Lee zwar schon kollaborativ angedacht, doch wurde der meiste Inhalt von vergleichsweise wenigen Individuen oder Medienunternehmen erstellt. Das lag unter anderem daran, dass die Umsetzung von Webseiten technisches Wissen erforderte, was nicht für Jedermann intuitiv verständlich war – auch wenn bspw. der erste Browser nebst dem gewohnten Darstellungsmodus bereits eine Editierfunktion aufwies. Der entscheidenden Wechsel in dieser Entwicklung wurde nach der Jahrtausendwende durch den vagen Modebegriff Web 2.0 beschrieben. Dieser deutet analog zur Softwareentwicklung einen grossen Versionssprung und somit eine höhere Anzahl von Funktionen an.51 Vage deshalb, weil der Begriff verschieden interpretiert wird: die Bandbreite reicht von neuen Technologien oder Standards bis zu der veränderten Wahrnehmung der Internetnutzer durch neue Möglichkeiten der Kollaboration.

Die sozialen Medien

Eine dieser Möglichkeiten wird wiederum durch ein weiteres Schlagwort definiert: soziale Medien oder den gängigeren Anglizismus: Social Media. Genau genommen stellten schon das Usenet oder E-Mail frühe Formen dieser vermeintlich neuen Welt dar. Auch Freundeslisten, Benutzerprofile sowie ein Nachrichtensystem entstanden bereits Mitte 1990 im WWW, wie auch Diskussionsforen als konzeptionelle Nachfolger des Usenet.52 Folglich kann beim Begriff Web 2.0 in Zusammenhang mit Social Media kaum von einem ausschliesslich technologischen Wandel gesprochen werden. Vielmehr ist damit das Phänomen der massenhaft freiwilligen Preisgabe persönlicher und privater Daten gemeint.

Tim O’Reilly fasst dieses Prinzip als architecture of participation zusammen.53 Dieser partizipative Gedanke ist nun auch der Hauptunterschied zum nachträglich getauften Web 1.0. Dies hat zur Folge, dass ein erheblicher Teil an Inhalt in Text-, Bild- und Videoform fast ausschliesslich von den Nutzern der jeweiligen Plattform generiert wird. Sei es aus Gründen der Pflege eines sozialen Netzwerks, der Konstruktion einer öffentlichen Identität54, der Publikation erfasster Eigendaten (dem quantifiziertem Selbst, oder Quantified Self ), als auch idealistischer Ursachen zur Weitergabe von Wissen oder Informationen. Dieser entscheidende Wechsel führt schliesslich zu einem ständigen Datenstrom, der in Datenbanken hinterlegt und für kommerzielle Zwecke gebraucht werden kann – und oft auch wird. Schliesslich basiert die Einkommensstruktur der meisten Web 2.0 Plattformen auf Werbeeinnahmen – und diese steigen, je zielgerechter Werbung geschaltet werden kann. Dieser Effekt lässt sich verstärken, indem mehrere Datensätze eines Individuums gebündelt werden.55

«Web 2.0/Social media platforms are web-based platforms that predominantly support online social networking, online community-building, and maintenance, collaborative information production and sharing, and user-generated content production, diffusion, and consumption. No Matter if we agree that important transformations of the Internet have taken place or not, it is clear that a principle that underlies such platforms is the massive provision and storage of personal data that are systematically evaluated, marketed, and used for targeting users with advertising. Therefore surveillance is an important topic in the context of web 2.0 studies.»56

Nebst wirtschaftlichen Gründen diesen konstanten Datenstrom zu sammeln und auszuwerten, können auch politische oder Sicherheits-präventive Ursachen im Namen der Terrorbekämpfung genannt werden.57 Allem Voran im Zusammenhang mit Geheimdiensten oder staatlichen Behörden.

Big Data

Einhergehend mit Web 2.0 wird in den letzten fünf Jahren fast immer der Begriff Big Data genannt. Meist deshalb, weil heutige soziale Medien enorm viele Daten produzieren und somit Big Data generieren. Dabei gibt es keine eindeutige Definition, was der Begriff eigentlich umfasst. Generell ist damit gemeint, dass eine Datenmenge dermassen gross und unübersichtlich geworden ist, dass eine einzelne Rechnerinstanz – etwa ein handelsüblicher Personal Computer – nicht genügt um diese erfassen, geschweige denn bearbeiten zu können. Andererseits weist der Begriff darauf hin, dass neue Erkenntnisse in einem grösseren Mass gewonnen werden können, die in einem konventionellen Rahmen nicht möglich gewesen wären.58 Boyd und Crowford beschreiben es als «Big Data is less about data that is big than it is about a capacity to search, aggregate, and cross-reference large data sets.»59 Damit werden Prinzipien der althergebrachten Suche nach dem Warum durch die neue Suche nach dem Was ersetzt. Oder wie Chris Anderson schreibt:

«This is a world where massive amounts of data and applied mathematics replace every other tool that might be brought to bear. Out with every theory of human behavior, from linguistics to sociology. Forget taxonomy, ontology, and psychology. Who knows why people do what they do? The point is they do it, and we can track and measure it with unprecedented fidelity. With enough data, the numbers speak for themselves.»60

Somit sei eine neue Ära eingeleitet worden, nämlich die Petabyte-Age.61 Im Vergleich zur Vergangenheit, wo bspw. galt «[…] the more we learn about biology, the further we find ourselves from a model that can explain it.» greift nun das Prinzip des «Correlation is enough.». Anderson meint damit, dass die Verfügbarkeit grosser Daten in Kombination mit statistischen Werkzeugen – wie bei der Volkszählung – eine neue Möglichkeit bietet, die Welt zu verstehen. Korrelation ersetzt Kausalität, sodass die Wissenschaft auch ohne genaue Modelle, Theorien und Verständnis der Mechanismen fortschreiten könne.62 Boyd und Crowford aber mahnen zur Vorsicht:

«[…] it is still necessary to ask critical questions about what all this data means, who gets access to what data, how data analysis is deployed, and to what ends.»63

Big Data sei subjektiv, weil der Untersuchende durch die Auswahl, Interpretation und der gewählten Tiefe dies direkt beeinflusst. Ausserdem wird davor gewarnt, Muster zu sehen wo keine sind. Dies führe dazu, dass Ergebnisse zwangsläufig voreingenommen sind. Aber auch die wichtige Frage der Daten-Ethik solle gestellt werden. Denn, es sei problematisch nur aufgrund der Verfügbarkeit von Daten die Untersuchung dieser in jedem Fall gerecht zu fertigen. Forscher, welche dieses Gebiet untersuchen, würden selten den Unterschied von in der Öffentlichkeit stattfindend und öffentlich bedenken.64

Der Begriff Big Data wird somit zur ultimativen Symbiose von Datenerfassung, Grossrechner, Datenbank, Konnektivität, Suchmaschine und Individualität in einem hyperverbundenem, sozialen Umfeld das zum Labor und zum Gegenstand computerbasierter Simulation wird. Und dies in einem kontinuierlichem Wandel, also ständig live, mit gelegentlichen Schnappschüssen als Zwischenhalt.

«Sixty years ago, digital computers made information readable. Twenty years ago, the Internet made it reachable. Ten years ago, the first search engine crawlers made it a single database. Now Google and like-minded companies are sifting through the most measured age in history, treating this massive corpus as a laboratory of the human condition. They are the children of the Petabyte Age.»65

Risiken von Big Data

Big Data löst wie andere sozio-technologische Phänomene sowohl utopische wie auch dystopische Szenarien aus. Nebst der Gewinnung neuer Erkenntnisse in der Forschung wird auch die Manifestation von Big Brother66 als Eingriff in die Privatsphäre mit eingeschränkter Freiheit und erhöhter staatlicher Kontrolle herangezogen.67 Es kommt sehr darauf an, wer welchen Datensatz für welche Zwecke in die Hände bekommt. So meint etwa Manovich, sei zu unterscheiden zwischen:68

«[…] those who create data (both consciously and by leaving digital footprints), those who have the means to collect it, and those who have expertise to analyze it.»

Diejenigen welche Daten generieren sind meistens wir selbst. Dabei spricht man oft von persönlichen Daten und unterscheidet dabei einerseits, auf welche Art wir Daten generieren (Internet, Telefon, Computer, Kreditkarten, Transport, usw.), als auch wie bewusst wir Spuren hinterlassen. Soziale Netzwerke stellen dabei eine eher bewusste Form dar, während etwa ein Einkauf oder eine Fahrt mit dem Auto die tendenziell unterbewusste Seite repräsentiert. Analog zur Spurensuche bei der Jagd oder Forensik wird in diesem Zusammenhang oft vom digital footprint gesprochen – Bewegung im (virtuellen) Raum erzeugt zwangsläufig Spuren.69 Ausserdem gibt es die Möglichkeit, dass Daten über uns von anderen erstellt werden.

Und auch wenn diese Spuren vorerst nicht sagen können wer wird sind: richtig interpretiert und verfolgt führen sie den Jäger meist zum Ziel – stellen also eine Gefahr dar. Nicht nur könnte jemand anhand solcher Spuren ein Individuum überwachen, verfolgen, kriminelle Absichten hegen, ihn materiell berauben oder seine Identität stehlen – es ist auch denkbar dass im Zuge politischer, staatlicher oder weiterer Interessen einem Opfer übel nachgeredet wird. Exponentiell höher wird das Risiko, wenn mehrere dieser Daten kombiniert werden um ein gesamthafteres Profil einer Person zu erhalten. So wird etwa am Beispiel70 von Kreditkartenkäufen in Kombination mit Bank- oder Telekommunikationsdaten ersichtlich, dass relativ rasch ein eindeutiges Bewegungsmuster zu einer einzigen Person führen kann. Dabei geht es nicht einmal um den Inhalt der gesammelten Daten – Metadaten (sogar mit Anonymisierung) reichen hierbei schon aus. Erst recht kann ein Profil vervollständigt werden, wenn zusätzlich zum digital footprint mehr persönliche Daten freiwillig preisgeben werden. Oder wie Latour beobachtet: «It is as if the inner workings of private worlds have been pried open because their inputs and outputs have become thoroughly traceable.»71

Hierin liegt auch der Unterschied zum Dia-Abend unserer Eltern: Unsere Bilder sind automatisch von Metadaten umgeben. So sind etwa Ort, Zeit oder begleitende Personen bereits erfasst und dem Datensatz hinzugefügt worden. Des weiteren ist durch die Enthüllungen von Edward Snowden und WikiLeaks das erste Mal beweisbar geworden, was Aktivisten und Sicherheitsspezialisten seit Jahren vermutet haben: Daten werden von den Geheimdiensten praktisch aus jedem Kanal angezapft und archiviert. Müssen wir also Angst um willkürliche Jurisdiktion haben? Nicht unbedingt, es sei jedoch zu bedenken dass fast alle Daten irgendwann einmal aufgrund übergeordneter Interessen entsprechend neu kombiniert und interpretiert werden können, sodass auch im Nachhinein etwas negativ ausgelegt werden kann oder als Erpressungsgrundlage dient.72 Dies ist zum Zeitpunk der Datenspeicherung nicht immer abzusehen.73 Hierzu gehört auch die etwas fragliche Vorhersage und Prävention «schlechter» Taten. So schreibt etwa Adam Rogers:

«That universe of information contains early warnings about everything from natural disasters to political unrest — if you can read the data. […] Essentially, it's understanding the verbs as well as the nouns. Because once you know how people feel about something, you're a step closer to being able to guess what they'll do next.»74

Chancen und Visualisierung von Big Data

«The effect [of big data] is being felt everywhere, from business to science, from government to the arts»75 zitiert Lev Manovich einleitend. Interessant ist hierbei der Aspekt der Künste. Wie schon angedeutet, erfordert eine grosse Menge Daten auch eine Visualisierung.76 Wie definiert sich also die Rolle der Künstler und Designer in Zeiten von Big Data? Richard Mortier vertritt etwa die Meinung, dass das Potenzial der Datenvisualisierung darin bestünde, Aspekte der zugrunde liegenden Modelle und Algorithmen aufzuzeigen. Eine der möglichen Zugänge sei eben, Künstler zu beauftragen diese abstrakten Konzepte dem Betrachter leserlich näher zu bringen.77 Nicola Triscott führt diesen Gedanken weiter und spricht sogar von: «[…] to create meaning and poetry from these vast data fields.».78 Oder auch Jen Graves: «If researchers figure out what technology can do, artists can reveal how and ask what it's for.»79 Denn: «Wichtig sei ein Bewusstsein dafür, dass durch die Kraft der Bilder nüchterne Daten auf emotionale, subtile Weise bewertet werden können.»80

Dass dabei nicht eine komplette Datenbank oder Technologie visualisiert werden kann, scheint im Anbetracht der vorhin erwähnten Definition von Big Data naheliegend. Doch sowohl in der Wissenschaft, wie auch in Kunst und Design kann in gewissen Fällen eine Reduktion mehr Einsicht bieten. Komplexe Zusammenhänge können durch Weglassen besser verständlich gemacht werden.81 Entsprechend kann es wertvoller sein, sich im Fall personenbezogener Datensätze auf ein Individuum zu fokussieren. Die Anzahl Daten sollte der nachgegangen Fragestellung entsprechen und manchmal ist weniger die bessere Wahl.82

Interessant wird es beispielsweise auch an der Grenze zwischen Suchmaschinen, Datenbanken, Überwachung und sozialen Medien im Wechselspiel zur Realität. So fragt der Künstler Robert Twomey im Artikel von Jen Graves offen: «What's the messy humanity left over on the edges? What does Google know about me, and what will Google never know? What can never be captured by the systems?».83 James George, ein weiterer Künstler im gleichen Artikel nimmt Stellung zu den Geheimdiensten: Im heutigen Umfeld des rasanten technologischen Wachstums seien soziale Normen teilweise nicht gesetzt, sodass es an uns liegt das Unsichtbare sichtbar zu machen. So wie auch wir es sind, die in einer Post-Snowden-Ära über Privatsphäre sprechen können. Unternehmen wollen, dass die zugrundeliegende Technologie nahtlos erscheint, doch wir können dahinter-stehendes aufdecken. Unsere Relevanz liege also nicht unbedingt im Anspruch etwas zeitloses zu erschaffen – manchmal sei Rechtzeitigkeit relevanter. Dies stelle natürlich die Kunst mit ihrem Anspruch an Unsterblichkeit in Frage, wie es einst die Perfomance-Kunst getan hatte, doch hätten wir somit die Fähigkeit die Zukunft mitzugestalten und den Menschen zu Entscheidungen zu verhelfen. Als Führer oder Übersetzer unserer Welt.84 Aber auch als Geschichtenerzähler, denn: «Die technischen Möglichkeiten sind gigantisch, die menschlichen Bedürfnisse vielfältig, aber im Einzelnen sehr überschaubar. Die größte Herausforderung ist, relevante Geschichten aus den Datenmengen zu extrahieren. Es ist weder damit getan, irgendwelche Daten zu visualisieren, noch damit, Daten irgendwie zu visualisieren.»85

Fazit

Genau hier liegt auch das Potenzial des Künstler und Designers. Als Übersetzer, Guide, Geschichtenerzähler oder Poet auf dieser Reise in Zeiten von und durch Big Data. Er muss gar nicht den Anspruch erheben, wissenschaftlich korrekt Zahlen wiederzugeben oder die Gesamtheit der Daten visuell erfassen zu können. Er kann. Und genau hier liegt auch der Vorteil. Während seine wissenschaftliche Konkurrenz um statistische Genauigkeit bemüht ist oder um Signifikanz und Anerkennung buhlt; darf sich der Designer oder Künstler einen interessanten Aspekt heraussuchen und diesen betonen. Als auch kritisieren oder hinterfragen – also eine Art Narrenfreiheit; und dies vor allem in Bereichen der Datensammlung, Geheimdienste, Suchmaschinen und sozialen Medien. Vielleicht sind sogar Künstler und Designer die einzigen, die in diesem Feld effektiv kritisieren und aufzeigen können, worum es wirklich geht und was hinter der Oberfläche verborgen liegt. Doch erfordert ebendiese Gratwanderung auch Vorsicht und Sensibilität im Umgang mit der Thematik.

Big Data ist sowieso einem permanentem Wandel unterzogen, sodass eine korrekte Repräsentation an sich schwierig erscheint. Man könnte sagen, Big Data lebt. Entweder kann in diesem Bezug eine interaktive, sich ständig veränderte Darstellungsform gewählt werden, oder man entscheidet sich für eine fixierte Momentaufnahme. Wie auch die Möglichkeit gegeben ist, die Gesamtheit eines Datensatzes oder eine kleine Untermenge davon zu wählen; als auch den Grad der Tiefe zu bestimmen. Die Geschichte der Datenvisualisierung war schon immer die einer abstrahierten Darstellungsform, daher darf die optische Repräsentation entsprechend der kreativen Freiheit auch experimenteller umgesetzt werden. Idealerweise eröffnet sich dadurch ein anderes Verständnis, ein neuer Zugang oder eine neue Einsicht/Ansicht zur behandelnden Thematik. Zusätzlich kann eine Geschichte (wie bspw. mit eigenen Daten) erzählt werden, als auch in Grenzgebieten nach Antworten gesucht werden. Entsprechend sind die Möglichkeiten der kreativ-tätigen vielfältig.

Entsprechend bleibt noch die Frage nach den digital fingerprints unbeantwortet. Die mehrfach erwähnten digital footprints sind ja Spuren, welche wir sowieso hinterlassen. Sie deuten an wohin wir uns bewegen, aber nicht wer wir sind. Erst in Kombination mit weiteren Daten werden sie nach Möglichkeit identitätsstiftend. Mein Vorschlag wäre nun, dass die digitalen Fingerabdrücke ähnlich ihrer analogen Äquivalenz eine abstrakte Form der Visualisierung darstellen und somit eindeutig einen Rückschluss auf unsere Identität liefern können. Im Gegensatz zum technisch relativ trockenen digital footprint, der aus (Meta-)Daten besteht, würde der digitale Fingerabdruck eine visuelle Repräsentation darbieten. Dieser soll nun im nächsten Schritt während der gestalterischen Thesis herausgearbeitet werden.

Literaturverzeichnis

  • Abbate, Janet. 1999. Inventing the Internet. Cambridge, Massachusetts, USA: The MIT Press
  • Boyd, Danah und Kate Crawford. 2013. «Critical Questions for Big Data» Information, Communication & Society, Vol. 15, No. 5: S. 662-679.
  • Fuchs, Christian, Kees Boersma, Anders Albrechtslund und Marisol Sandoval. 2012. Internet and Surveillance: The Challenges of Web 2.0 and Social Media. New York, USA und Oxon, UK: Routledge.
  • Gugerli, David. 2009. Suchmaschinen. Die Welt als Datenbank. Frankfurt am Main: Suhrkamp.
  • Hauben, Michael u. Ronda Hauben. 1997. NETIZENS : On the History and Impact of Usenet and the Internet. Los Alamitos, CA, USA: IEEE Computer Society Press.
  • Kittler, Friedrich. 2002. «Rockmusik – Ein Missbrauch von Heeresgut». In Short Cuts, hrsg. v. Peter Gente u. Martin Weinmann, S. 7-30. 1. Aufl. Frankfurt am Main.
  • Lang, Wiebke. 2013. «Visual Data» PAGE 02.13, S. 32-33.
  • Latour, Bruno. 6. April 2007. «Beware, your imagination leaves digital traces» Times Higher Literary Supplement.
  • Manovich, Lev. 28. April 2011. Trending: The Promises and the Challenge of Big Social Data. (Zugriff: 13. Januar 2015)
  • Mayer-Schönberger, Viktor und Kenneth Cukier. 2013. Big Data. New York, USA: Houghton Mifflin Harcourt Publishing.
  • Miyazaki, Shintaro. 2013. Algorhythmisiert : Eine Medienarchäologie digitaler Signale und (un)erhörter Zeiteffekte. Berlin: Kulturverlag Kadmos.
  • Mortier, Richard, Hamed Haddadi, Tristan Hernderson, Derek McAuley und Jon Crowcroft. 6. Oktober 2014. Human-Data Interaction: The Human Face of the Data-Driven Society. (Zugriff: 8. Januar 2015)

Literatur online

Abbildungsverzeichnis

  • Abb. 3: Zuse Z3. (Zugriff: 25. Januar 2015)

  • Abb. 7: Apple I. (Zugriff: 11. Februar 2015)