Rainer
Rilling

18.Juli 1996

Erschienen in: E. Bulmahn u.a.: Informations-
gesellschaft, Medien und Demokratie, Marburg 1996, S. 234-241

home  texte

 

Politik im Netz

1
Welche politische Strukturen und Bewegungsformen finden sich im neuen Informationsraum "Netz"? Leichte Zugänglichkeit zu lokal verfügbarer Datenverarbeitung und dezentralisierten Datenbeständen, soziale Dekontextualisierung, polydirektionale Kommunikationsmuster und staatliche Regulierungsschwächen haben seit langem bei Akteuren verschiedenster Provenienz zum Teil weitreichende Gleichheits- und darauf aufbauende Demokratievermutungen provoziert.

2
Demgegenüber muß auf grundlegende Ungleichheiten verwiesen werden, die den neuen Informationsraum signifikant auszeichnen und die nur in wenigen Fällen als Übergangsphänomen der Konstitutionsphase des Netzes begriffen werden können. Es geht um Ungleichheit

  • in der geographischen Verteilung der Standorte der Netzwerkcomputer weltweit und innergesellschaftlich
  • in der Geschlechter-, Sozial- und Qualifikationsstruktur der NetznutzerInnen und individuellen Provider
  • im Eigentum an Übertragungsnetzen, Servern, Operationssystemen, Routern usw.,
  • in der Finanzierung und
  • in den Zugangskontrollen zu Netzen
  • in den Zugängen zu Bandbreiten bzw. Übertragungsgeschwindigkeiten
  • in der Produktion und Nutzung interaktiver Dienste, insbesondere hinsichtlich der Nutzungsmöglichkeit des Standards WWW und den darauf aufbauenden Orientierungsmedien sowie insgesamt der Ressourcenungleichheit zwischen den vormals das Netz dominierenden privat-individuellen und akademischen Anbietern und den heute das Netz beherrschenden ökonomischen Providern
  • in den neuen selbstorganisierten Zugangsfiltern der NutzerInnen
  • in den Möglichkeiten, an neuen hochschwelligen Netzkreisläufen teilhaben zu können
  • in der technischen und kommunikativen Kompetenz und der Beherrschung der englischen Sprache.

3
Dieses Gewebe struktureller Ungleichheit mitsamt der daraus resultierenden Dimension politischer Ungleichheit realisiert sich im Wirkungsraum der politische Grundidee des Netzes, die sich in allen Texten auf dem Netz und über es gleichermaßen zeigt: das Wort kommt nur im Singular vor. Der Rede ist vom "Cyberspace", vom "Netz", vom "Internet" und vom "Netz der Netze". Die Grundidee ist nicht die der Interaktion oder gar Verständigung, sondern zunächst die der Verbindung aller Netzwerke, die eine Kommunikation und Interaktion aller mit allen erlaubt. Dass die - geschichtlich neue - Fülle der Netze miteinander zu verbinden seien, ist technologisch möglich geworden, aber natürlich nicht zwingend. Zwingend wird es durch - auch politische - Entscheidungen. Daher ist das politische Konzept des Netzes der Gedanke der Ausdehnung und des Universalismus. Die Form, auf die abgezielt wird, nennt man im gewöhnlichen Leben Monopol. Nur wenn es kein Exit und keine Freiheit vom Netz mehr gibt, ist die politische Grundidee des Cyberspace realisiert.

4
Die politische Soziologie des neuen Informationsraums wird davon ausgehen müssen, dass das World Wide Web in der gegenwärtigen Transformationsphase des Netzes zum Massenmedium als zentrale Plattform - als Interface des Internet - fungiert, in der frühere Dienste aufgegangen sind und welche noch geraume Zeit als die Basis für neue Anwendungen fungieren wird. Als auszeichnende Eigenschaft des WWW - nicht des Usenet oder der E-Mail-Praxis - wird die Hypertext-, also Verweistruktur angesehen. Das Revolutionäre an Verweisen ist die Transzendierung der Fußnote. Mit dem WWW erhält die Fußnote mindestens eine weitere Fußnote und noch eine und noch eine - etwas, was kein Textverarbeitungsprogramm des Herrn Bill Gates jemals konnte. Was bedeutet diese Verweispraxis und welche politische Bedeutung hat sie?
Das Web generiert den eigenartigen, systemspezifischen Zwang, Kenntnis vorhandener Präsenzen durch Links auszuweisen, somit das Bemühen, in einem Raum eigene Zentralität zu demonstrieren, dessen einfachste Grundstruktur eben durch das Verhältnis von Zentrum und Peripherie gebildet wird. Die grassierenden Hotlists, die es in anderen Medien so eben nicht gibt - dass es keine politischen Hotlists gibt, indiziert, dass dieser Bereich zu peripher ist; aber cool political sites of the day und ähnliches gibt es wohl - stehen für diesen Imperativ. Nur wer Verweiskomptenz demonstriert, verhält sich programmgerecht, systemspezifisch, informationsraumgerecht. Anerkennung durch andere vollzieht sich über einen zweistufigen Bildungsprozess von Zentralität: erstens Nachweis der Kenntnis des Informationsraumes durch Verweise auf andere/s, zweitens Aufbau eines exklusiven Angebots, auf das selbst verwiesen wird, das also ins Zentrum rückt - am Ende steht als Höhepunkt die Namensgebung: ein Angebot wird benannt nach dem Namen des Anbieters. Die Erfassung der Verkehrsdaten, über die solche Bildungsprozesse ablaufen, ist schon lange ein eigenes Geschäft geworden: Firmen wie Web21, I/Pro, NPD oder NetCount, welche ca. 200 kommerzielle Server analysiert, liefern entsprechende Meßdaten und sind selbst zentral geworden, wie das Beispiel der Firma I/Pro zeigt, die den Netzverkehr bei Firmen wie AT&T, CBS, Yahoo!, oder USA Today mißt. Seit 1996 existieren Verzeichnisse, die täglich weltweit Web-Sites nach der Anzahl der Zugriffe auflisten.
Netzidendität - besser nun: Reputation - entsteht durch kompetente Verweise auf andere/s und Verweise anderer auf sich selbst. Beides hat mit dem, worauf inhaltlich, der Sache nach, verwiesen wird, absolut nichts zu tun und ist zu unterscheiden von Sonderfällen wie vor allem jenem der Firma Netscape, die im Juni 1996 angab, täglich 80 Millionen Zugriffe auf ihren Server und zugleich 38 Millionen NutzerInnen ihrer Software aufweisen zu können. Als Schlüsselfaktor für die hohe Zahl der Zugriffe gilt die Nutzung des Browsers: offenbar wird die Grundeinstellung, die auf die Firma Netscape verweist, von zahllosen NutzerInnen nicht geändert. Hier wird die Kontrolle der spezifisch konfigurierten Software zum Schlüssel für Zentralität. Reputation und Zentralität durch Hypertextverweise hängen auf durchaus vertraute wechselseitige Weise miteinander zusammen: Reputation schafft Zentralität, Zentralität generiert Reputation. Es gibt jedoch eine substantielle Differenz zwischen beiden Prozessen. Netzspezifische Reputation kann nur durch Zentralität im Verweissystem entstehen. Ein Prozess, der für die Frühphase der politischen Geschichte des WWW-Netzes bis etwa 1994 typisch ist, in der folglich die verschiedenen - militärischen und privaten - Akteure des right side of the Web gegenüber einem kaum präsenten sonstigen politischen Spektrum harmonisch hegemonial zusammenspielten.
Netzunspezifische Reputation demgegenüber kann irgendwoher kommen und Zentralität herstellen; dafür stehen Organisationen, Institutionen, Parteien usw., die das Netz seitdem in der zweiten Phase seiner politischen Entwicklungsgeschichte kolonisieren und aus ihrer importierten Reputation äußerst schnell Zentralität begründen. Nun beginnt sich das realgesellschaftliche Spektrum auf dem Netz zunehmend spiegelbildlich zu reflektieren: legitime politische Organisationen und Positionen, zivile staatliche Einrichtungen und die politische Mitte werden seit 1994/5 in rasch wachsender Zahl und mit zunehmendem Ressourceneinsatz präsent auf dem Netz: Mainstream-Medien wie "Spiegel" und "Focus", Bundestagsparteien, Großverbände. Dieser Prozess ist noch lange nicht abgeschlossen.
Zunehmend parallel geschaltet verläuft mittlerweile bereits eine dritte Phase: Demonstration von Verweiskompetenz seitens jener, die durch eine - aus der Perspektive des Netzes: geliehene - externe Reputation Zentralität (Fremdverweise auf sich selbst) generierten und diese Verweise nun nutzen, eine eigene Verweisstruktur aufzubauen und damit netzsystemspezifische Verweiskompetenz zu demonstrieren, also zusätzliche - doppelte - Zentralität zu generieren. Damit positionieren sie sich als starke Netzakteure.
In einem Raum, in dem zählt, wer sich zentral positioniert, steht das Verhältnis von Zentrum (oder Zentren) und Peripherie(n) im Mittelpunkt der Operationslogik und damit des subjektiven Akteursinteresses. Diesem Verhältnis können sich jene, die sich auf dem Web zu positionieren suchen, nicht entziehen. Die Konsequenz ist sehr einfach: die Zehntausende von selbst bezahlten und -gemachten Web-Home-Pages, die Verweise auf den "Spiegel" oder das "White House" enthalten, stehen nicht bloß für die in kostenloser Eigenarbeit abgelieferte Anpreisung einer Ware, die die Anmieter und Eigentümer der Webseiten selbst kaufen sollen. Sie sind zugleich ein völlig vergeblicher Versuch, den Zustand des Peripheren, des Außenseitertums zu verlasssen. Der Hyptertextmechanismus ist nichts anderes als ein fast unentrinnbarer Imperativ, Peripherie, Marginalität oder, politisch formuliert, Dissens zugunsten von Zentralität oder, politisch formuliert, Mainstream zu verlassen.
Die These somit, dass das Netz wie anderen Medien auch unmittelbar die Realgesellschaft widerspiegele, ist falsch: sie verkennt den systemspezifischen Mechanismus zur Kohortenbildung im Zentrum. Auf den ersten Blick öffnet das WWW den Raum für eine leicht zugängliche ungeheure Vielfalt der Orte im Informationsraum. Der zweite Blick freilich zeigt: die Vielfalt ist nicht Zweck, sondern bloßes Mittel, Medium auf dem Weg zur Zentralität. Der dritte Blick zeigt: das WWW ist real life: die wirkliche politische Kommunikation ist alles andere als pluralistisch - und ihre monopolistische Verfassung wird durch die technische Logik des Hyptertextmechanismus verdoppelt, mehr noch: verstärkt und befestigt. Die demokratietheoretische Kritik am WWW, als bi- und nicht polydirektionales Medium das demokratiepolitische Potential der Netzinteraktivität zu verfehlen, greift daher zu kurz und fragt nicht nach der politischen Implikation des WWW als globaler Hyptertextmaschine. Zur politischen Logik des WWW gehört daher nicht bloß die historische Dominanz der militärischen und die schon gegenwärtige, erst Recht zukünftige Hegemonie der ökonomischen Eliten; zu ihr gehört auch die gleichsam medientechnische Unterfütterung des realen, im virtuellen duplizierten Elitismus. Somit also die Behauptung: es gibt gute Gründe für die Annahme, dass das WWW strukturell elitär ist.

5
Die politisch bedeutungsvolle technische Logik des Hyptertextmechanismus wird durch die spezielle Funktionsweise der mittlerweile etablierten Orientierungsprozeduren massiv gestützt. Während bis 1994 Kataloge, virtuelle Bibliotheken, Verzeichnisse, Guides und den Browsern beigegebene Sammlungen zur Benutzerführungen das dominierende Orientierungsmittel auf dem Netz waren, haben ihnen seitdem die weit ausgreifenden Suchmaschinen offenbar den Rang abgelaufen, von denen "Internet Sleuth" Anfang 1996 über 900 zusammenstellte. Ihre Nutzung ist zur Standardprozedur geworden, die das sequentielle oder diffuse Abarbeiten von Verweisen weitgehend ersetzt. Die Kapazität dieser Programmkomplexe der Suchmaschinen ist mittlerweile beträchtlich: Alta Vista gibt an, im Frühjahr 1996 21 Millionen Seiten mit mehr als 8 Mrd Wörtern vollindiziert zu haben. Die täglichen Zugriffe auf den Site liegen bei 2 Millionen. Lycos, welches das Netz täglich katalogisiert, hatte Anfang 1996 19 Millionen URL`s (einschließlich Bildern, FTP und Gopher) erfasst, darunter 11,5 Millionen WWW-Seiten, von denen weniger als die Hälfte voll indiziert waren; die Lycos-Datenbasis umfasste im Frühjahr 1996 ca. 2,3 Mrd Wörter. Infoseek gibt an, in den ersten 10 Monaten ca. eine Mrd Suchaktionen unternommen zu haben, täglich ca. 7 Millionen, zuweilen 175 Suchen pro Sekunde. Lycos akzeptiert 4000 Anfragen in der Sekunde. Die Suchmaschinen nutzen Softwareagenten (Spider) um eine URL nach der anderen aufzusuchen. Dort einmal angekommen, verhalten sich die einzelnen Maschinen jedoch unterschiedlich. Einige Maschinen senden ihren Agenten zu jeder Seite und nehmen den Volltext jeder Seite auf. Ein Beitrag in Internet World vom Mai 1996 beschreibt die dann folgende wesentliche Praxis: "Andere analysieren zunächst die Adressen des Datensatzes um zu ermitteln, welche Sites am populärsten sind (typischerweise, indem sie die Anzahl der Links ermitteln, die auf die fraglichen Sites verweisen). Dann schicken sie Programme aus um Informationen nur über diese Sites zu erfassen - und zwar alles von dem einfachen HTMl-Titel bis zu einem Summary des Volltextes eines Sites, das mit einem algorithmischen Verfahren erstellt wird." Ein Beispiel ist die Excite-Suchmaschine, die ca. 1,5 Millionen Seiten indiziert hat: "Die Maschine versucht nicht, alle Web-Seiten zu sammeln, sondern sie baut eine Schätzung der populärsten Seiten auf, indem sie die Links erfasst, die auf Seiten liegen, die bereits als populär bekannt sein. Um Seiten zu finden, die noch nicht populär sind, wird der Spider zu einer Anzahl "What`s New"-Sites geschickt." Zu Lycos vermerkt Internet World: "Lycos baut seine Datenbank kumulativ auf, statt sie periodisch von Neuem zu generieren. Indem Lycos Informationen über neue und bereits existierende URL`s regelmässig updated, stellt die Lycos-Software ein Maß der Popularität jedes Sites her, indem sie nach der Zahl anderer Links schaut, die auf diese Sites verweisen. Die Maschine nutzt dann diesen Popularitätsindex, um jede einzelne Suche durchzuführen....Die Lycos-Datenbank baut nicht auf dem Volltext jeder Seite auf. Stattdessen stellt sie Abstracts der Seiten her, die im wesentlichen auf Headers, Titeln, Links und der ersten Handvoll Wörter von Schlüsselabsätzen basieren - also all dem, was dazu dient, möglichst breite Information zu liefern. Ein Ergebnis dieses Designs ist, dass die Maschine bei Suchen nach kurzen Hinweisen, die in den Dokumenten stehen, nicht gut funktioniert. " Die Suchmaschine Infoseek, die ca. 1 Million Seiten indiziert hat, ordnet die gefundenen Seiten nach "Relevanz", d.h. der Übereinstimmung mit den abgefragten Parametern und ermöglicht eine Anschlussuche nach "ähnlichen Seiten". Open Text, WWW-Worm und Lycos vermerken, wie oft Suchbegriffe gefunden wurden und erstellen so einen zusätzlichen Filter. Auch der Web Crawler fungiert nach dem Popularitätsindex: seine ca. 500 000 Seiten umfassen - neben den selbst angemeldeten - nur solche Seiten, die "gut besucht erscheinen oder Lücken in der vorhandenen Datenbank füllen." Die mittels Generierung und erweiterter Reproduktion von "Popularitätsindexen" funktionierenden Suchmaschinen verdoppeln so die technische und politische Logik des Hypertextmechanismus.

6
Nicht nur, daß die Frage nach der Rolle der Politik in der Informationsgesellschaft, die da auf uns zukommen soll, kein Thema im politischen Diskurs ist, der sich seit 1994 als relevante Angelegenheit im politischen Machtspiel etabliert hat. Auch nicht, dass mittlerweile im Vergleich zu anderen Medien explizit politische Projekte im und auf dem Netz gegenüber wirtschaftlichen und privatistischen Unternehmen nur noch bestenfalls randständige Bedeutung haben, wie sich an der Entwertung der vergleichsweise politischen Mailboxszene, der relativ abnehmenden Rolle politisch informierender und -mobilisierender Netzangebote und der fehlenden Selbstreflexion der Netzakteure auf die politische Funktion des Netzes erkennen läßt (so klammern nahezu alle von Bernard Batinic zusammengetragenen über 100 Umfragen zum Netz Fragen nach Politik völlig aus). Es gibt ein Ineinandergreifen der Faktoren realer Ungleichheit im Kontext des neuen Informationsraums mit zentralen Operationsweisen des Netzes, dessen Analyse für eine demokratische Netzpolitik unerlässlich ist.

Literatur

Steve G. Steinberg: Seek and ye shall find (maybe), in: Wired 4.05 Mai 1996 S.108ff.
Gus Venditto: Search Engine Showdown, in: Internet World, Mai 1996
Steven Rubio: Home Page, in: Bad Subjects Februar 1996
Bernad Batinic: Übersicht zu Untersuchungen im Internet
Kristian Köhntopp: Wer beherrscht das Internet? in: Martin Rost (Hg.): Die Netz-Revolution: Auf dem Weg in die Weltgesellschaft, Frankfurt 1996 S.63ff.
Th. A. Wetzstein u.a.: Datenreisende. Die Kultur der Computernetze, Opladen 1995, bes. S. 123ff.
Horst Bredekamp: Cyberspace, ein Geisterreich, in: FAZ v. 7.2.1996
Computer underground Digest WWW Site
Rainer Rilling: On the other Side of the Web... , in: Forum Wissenschaft 1/1995
Rainer Rilling: EnterNet, in: Georg Ahrweiler, Rainer Rilling, Rolf Schellhase (Hg.): Soziologische Ausflüge. Opladen 1996 [Netzfassung]
Hans-Jürgen Krysmanski: Von den Subjekten einer "linken" Medienpolitik, in: Forum Wissenschaft 1/1995

Texte Home 24.12.04