Rainer
Rilling
18.Juli 1996
Erschienen in: E. Bulmahn u.a.:
Informations-
gesellschaft, Medien und Demokratie, Marburg 1996, S. 234-241
|
Politik im Netz
1
Welche politische Strukturen und Bewegungsformen finden
sich im neuen Informationsraum "Netz"? Leichte
Zugänglichkeit zu lokal verfügbarer Datenverarbeitung
und dezentralisierten Datenbeständen, soziale Dekontextualisierung, polydirektionale
Kommunikationsmuster und staatliche
Regulierungsschwächen haben seit langem bei Akteuren
verschiedenster Provenienz zum Teil weitreichende
Gleichheits- und darauf aufbauende Demokratievermutungen
provoziert.
2
Demgegenüber muß auf grundlegende Ungleichheiten
verwiesen werden, die den neuen Informationsraum
signifikant auszeichnen und die nur in wenigen Fällen
als Übergangsphänomen der Konstitutionsphase des Netzes
begriffen werden können. Es geht um Ungleichheit
- in der geographischen Verteilung der Standorte
der Netzwerkcomputer weltweit und
innergesellschaftlich
- in der Geschlechter-, Sozial- und
Qualifikationsstruktur der NetznutzerInnen und
individuellen Provider
- im Eigentum an Übertragungsnetzen, Servern,
Operationssystemen, Routern usw.,
- in der Finanzierung und
- in den Zugangskontrollen zu Netzen
- in den Zugängen zu Bandbreiten bzw.
Übertragungsgeschwindigkeiten
- in der Produktion und Nutzung interaktiver
Dienste, insbesondere hinsichtlich der
Nutzungsmöglichkeit des Standards WWW und den
darauf aufbauenden Orientierungsmedien sowie
insgesamt der Ressourcenungleichheit zwischen den
vormals das Netz dominierenden
privat-individuellen und akademischen Anbietern
und den heute das Netz beherrschenden
ökonomischen Providern
- in den neuen selbstorganisierten Zugangsfiltern
der NutzerInnen
- in den Möglichkeiten, an neuen hochschwelligen
Netzkreisläufen teilhaben zu können
- in der technischen und kommunikativen Kompetenz
und der Beherrschung der englischen Sprache.
3
Dieses Gewebe struktureller Ungleichheit mitsamt der
daraus resultierenden Dimension politischer Ungleichheit
realisiert sich im Wirkungsraum der politische Grundidee
des Netzes, die sich in allen Texten auf dem Netz und
über es gleichermaßen zeigt: das Wort kommt nur im
Singular vor. Der Rede ist vom "Cyberspace",
vom "Netz", vom "Internet" und vom
"Netz der Netze". Die Grundidee ist nicht die
der Interaktion oder gar Verständigung, sondern
zunächst die der Verbindung aller Netzwerke, die eine
Kommunikation und Interaktion aller mit allen erlaubt.
Dass die - geschichtlich neue - Fülle der Netze
miteinander zu verbinden seien, ist technologisch
möglich geworden, aber natürlich nicht zwingend.
Zwingend wird es durch - auch politische -
Entscheidungen. Daher ist das politische Konzept des
Netzes der Gedanke der Ausdehnung und des Universalismus.
Die Form, auf die abgezielt wird, nennt man im
gewöhnlichen Leben Monopol. Nur wenn es kein Exit und
keine Freiheit vom Netz mehr gibt, ist die politische
Grundidee des Cyberspace realisiert.
4
Die politische Soziologie des neuen Informationsraums
wird davon ausgehen müssen, dass das World Wide Web in
der gegenwärtigen Transformationsphase des Netzes zum
Massenmedium als zentrale Plattform - als Interface des
Internet - fungiert, in der frühere Dienste aufgegangen
sind und welche noch geraume Zeit als die Basis für neue
Anwendungen fungieren wird. Als auszeichnende Eigenschaft
des WWW - nicht des Usenet oder der E-Mail-Praxis - wird
die Hypertext-, also Verweistruktur angesehen. Das
Revolutionäre an Verweisen ist die Transzendierung der
Fußnote. Mit dem WWW erhält die Fußnote mindestens
eine weitere Fußnote und noch eine und noch eine -
etwas, was kein Textverarbeitungsprogramm des Herrn Bill
Gates jemals konnte. Was bedeutet diese Verweispraxis und
welche politische Bedeutung hat sie?
Das Web generiert den eigenartigen, systemspezifischen
Zwang, Kenntnis vorhandener Präsenzen durch Links
auszuweisen, somit das Bemühen, in einem Raum eigene
Zentralität zu demonstrieren, dessen einfachste
Grundstruktur eben durch das Verhältnis von Zentrum und
Peripherie gebildet wird. Die grassierenden Hotlists, die
es in anderen Medien so eben nicht gibt - dass es keine
politischen Hotlists gibt, indiziert, dass dieser Bereich
zu peripher ist; aber cool political sites of the day und
ähnliches gibt es wohl - stehen für diesen Imperativ.
Nur wer Verweiskomptenz demonstriert, verhält sich
programmgerecht, systemspezifisch,
informationsraumgerecht. Anerkennung durch andere
vollzieht sich über einen zweistufigen Bildungsprozess
von Zentralität: erstens Nachweis der Kenntnis des
Informationsraumes durch Verweise auf andere/s, zweitens
Aufbau eines exklusiven Angebots, auf das selbst
verwiesen wird, das also ins Zentrum rückt - am Ende
steht als Höhepunkt die Namensgebung: ein Angebot wird
benannt nach dem Namen des Anbieters. Die Erfassung der
Verkehrsdaten, über die solche Bildungsprozesse
ablaufen, ist schon lange ein eigenes Geschäft geworden:
Firmen wie Web21, I/Pro, NPD oder NetCount, welche ca.
200 kommerzielle Server analysiert, liefern entsprechende
Meßdaten und sind selbst zentral geworden, wie das
Beispiel der Firma I/Pro zeigt, die den Netzverkehr bei
Firmen wie AT&T, CBS, Yahoo!, oder USA Today mißt.
Seit 1996 existieren Verzeichnisse, die täglich weltweit
Web-Sites nach der Anzahl der Zugriffe auflisten.
Netzidendität - besser nun: Reputation - entsteht durch
kompetente Verweise auf andere/s und Verweise anderer auf
sich selbst. Beides hat mit dem, worauf inhaltlich, der
Sache nach, verwiesen wird, absolut nichts zu tun und ist
zu unterscheiden von Sonderfällen wie vor allem jenem
der Firma Netscape, die im Juni 1996 angab, täglich 80
Millionen Zugriffe auf ihren Server und zugleich 38
Millionen NutzerInnen ihrer Software aufweisen zu
können. Als Schlüsselfaktor für die hohe Zahl der
Zugriffe gilt die Nutzung des Browsers: offenbar wird die
Grundeinstellung, die auf die Firma Netscape verweist,
von zahllosen NutzerInnen nicht geändert. Hier wird die
Kontrolle der spezifisch konfigurierten Software zum
Schlüssel für Zentralität. Reputation und Zentralität
durch Hypertextverweise hängen auf durchaus vertraute
wechselseitige Weise miteinander zusammen: Reputation
schafft Zentralität, Zentralität generiert Reputation.
Es gibt jedoch eine substantielle Differenz zwischen
beiden Prozessen. Netzspezifische Reputation kann nur
durch Zentralität im Verweissystem entstehen. Ein
Prozess, der für die Frühphase der politischen
Geschichte des WWW-Netzes bis etwa 1994 typisch ist, in
der folglich die verschiedenen - militärischen und
privaten - Akteure des right side of the Web gegenüber
einem kaum präsenten sonstigen politischen Spektrum
harmonisch hegemonial zusammenspielten.
Netzunspezifische Reputation demgegenüber kann
irgendwoher kommen und Zentralität herstellen; dafür
stehen Organisationen, Institutionen, Parteien usw., die
das Netz seitdem in der zweiten Phase seiner politischen
Entwicklungsgeschichte kolonisieren und aus ihrer
importierten Reputation äußerst schnell Zentralität
begründen. Nun beginnt sich das realgesellschaftliche
Spektrum auf dem Netz zunehmend spiegelbildlich zu
reflektieren: legitime politische Organisationen und
Positionen, zivile staatliche Einrichtungen und die
politische Mitte werden seit 1994/5 in rasch wachsender
Zahl und mit zunehmendem Ressourceneinsatz präsent auf
dem Netz: Mainstream-Medien wie "Spiegel" und
"Focus", Bundestagsparteien, Großverbände.
Dieser Prozess ist noch lange nicht abgeschlossen.
Zunehmend parallel geschaltet verläuft mittlerweile
bereits eine dritte Phase: Demonstration von
Verweiskompetenz seitens jener, die durch eine - aus der
Perspektive des Netzes: geliehene - externe Reputation
Zentralität (Fremdverweise auf sich selbst) generierten
und diese Verweise nun nutzen, eine eigene
Verweisstruktur aufzubauen und damit
netzsystemspezifische Verweiskompetenz zu demonstrieren,
also zusätzliche - doppelte - Zentralität zu
generieren. Damit positionieren sie sich als starke
Netzakteure.
In einem Raum, in dem zählt, wer sich zentral
positioniert, steht das Verhältnis von Zentrum (oder
Zentren) und Peripherie(n) im Mittelpunkt der
Operationslogik und damit des subjektiven
Akteursinteresses. Diesem Verhältnis können sich jene,
die sich auf dem Web zu positionieren suchen, nicht
entziehen. Die Konsequenz ist sehr einfach: die
Zehntausende von selbst bezahlten und -gemachten
Web-Home-Pages, die Verweise auf den "Spiegel"
oder das "White House" enthalten, stehen nicht
bloß für die in kostenloser Eigenarbeit abgelieferte
Anpreisung einer Ware, die die Anmieter und Eigentümer
der Webseiten selbst kaufen sollen. Sie sind zugleich ein
völlig vergeblicher Versuch, den Zustand des Peripheren,
des Außenseitertums zu verlasssen. Der
Hyptertextmechanismus ist nichts anderes als ein fast
unentrinnbarer Imperativ, Peripherie, Marginalität oder,
politisch formuliert, Dissens zugunsten von Zentralität
oder, politisch formuliert, Mainstream zu verlassen.
Die These somit, dass das Netz wie anderen Medien auch
unmittelbar die Realgesellschaft widerspiegele, ist
falsch: sie verkennt den systemspezifischen Mechanismus
zur Kohortenbildung im Zentrum. Auf den ersten Blick
öffnet das WWW den Raum für eine leicht zugängliche
ungeheure Vielfalt der Orte im Informationsraum. Der
zweite Blick freilich zeigt: die Vielfalt ist nicht
Zweck, sondern bloßes Mittel, Medium auf dem Weg zur
Zentralität. Der dritte Blick zeigt: das WWW ist real
life: die wirkliche politische Kommunikation ist alles
andere als pluralistisch - und ihre monopolistische
Verfassung wird durch die technische Logik des
Hyptertextmechanismus verdoppelt, mehr noch: verstärkt
und befestigt. Die demokratietheoretische Kritik am WWW,
als bi- und nicht polydirektionales Medium das
demokratiepolitische Potential der Netzinteraktivität zu
verfehlen, greift daher zu kurz und fragt nicht nach der
politischen Implikation des WWW als globaler
Hyptertextmaschine. Zur politischen Logik des WWW gehört
daher nicht bloß die historische Dominanz der
militärischen und die schon gegenwärtige, erst Recht
zukünftige Hegemonie der ökonomischen Eliten; zu ihr
gehört auch die gleichsam medientechnische
Unterfütterung des realen, im virtuellen duplizierten
Elitismus. Somit also die Behauptung: es gibt gute
Gründe für die Annahme, dass das WWW strukturell
elitär ist.
5
Die politisch bedeutungsvolle technische Logik des
Hyptertextmechanismus wird durch die spezielle
Funktionsweise der mittlerweile etablierten
Orientierungsprozeduren massiv gestützt. Während bis
1994 Kataloge, virtuelle Bibliotheken, Verzeichnisse,
Guides und den Browsern beigegebene Sammlungen zur
Benutzerführungen das dominierende Orientierungsmittel
auf dem Netz waren, haben ihnen seitdem die weit
ausgreifenden Suchmaschinen offenbar den Rang abgelaufen,
von denen "Internet Sleuth" Anfang 1996 über
900 zusammenstellte. Ihre Nutzung ist zur
Standardprozedur geworden, die das sequentielle oder
diffuse Abarbeiten von Verweisen weitgehend ersetzt. Die
Kapazität dieser Programmkomplexe der Suchmaschinen ist
mittlerweile beträchtlich: Alta Vista gibt an, im
Frühjahr 1996 21 Millionen Seiten mit mehr als 8 Mrd
Wörtern vollindiziert zu haben. Die täglichen Zugriffe
auf den Site liegen bei 2 Millionen. Lycos, welches das
Netz täglich katalogisiert, hatte Anfang 1996 19
Millionen URL`s (einschließlich Bildern, FTP und Gopher)
erfasst, darunter 11,5 Millionen WWW-Seiten, von denen
weniger als die Hälfte voll indiziert waren; die
Lycos-Datenbasis umfasste im Frühjahr 1996 ca. 2,3 Mrd
Wörter. Infoseek gibt an, in den ersten 10 Monaten ca.
eine Mrd Suchaktionen unternommen zu haben, täglich ca.
7 Millionen, zuweilen 175 Suchen pro Sekunde. Lycos
akzeptiert 4000 Anfragen in der Sekunde. Die
Suchmaschinen nutzen Softwareagenten (Spider) um eine URL
nach der anderen aufzusuchen. Dort einmal angekommen,
verhalten sich die einzelnen Maschinen jedoch
unterschiedlich. Einige Maschinen senden ihren Agenten zu
jeder Seite und nehmen den Volltext jeder Seite auf. Ein
Beitrag in Internet World vom Mai 1996 beschreibt die
dann folgende wesentliche Praxis: "Andere
analysieren zunächst die Adressen des Datensatzes um zu
ermitteln, welche Sites am populärsten sind
(typischerweise, indem sie die Anzahl der Links
ermitteln, die auf die fraglichen Sites verweisen). Dann
schicken sie Programme aus um Informationen nur über
diese Sites zu erfassen - und zwar alles von dem
einfachen HTMl-Titel bis zu einem Summary des Volltextes
eines Sites, das mit einem algorithmischen Verfahren
erstellt wird." Ein Beispiel ist die
Excite-Suchmaschine, die ca. 1,5 Millionen Seiten
indiziert hat: "Die Maschine versucht nicht, alle
Web-Seiten zu sammeln, sondern sie baut eine Schätzung
der populärsten Seiten auf, indem sie die Links erfasst,
die auf Seiten liegen, die bereits als populär bekannt
sein. Um Seiten zu finden, die noch nicht populär sind,
wird der Spider zu einer Anzahl "What`s
New"-Sites geschickt." Zu Lycos vermerkt
Internet World: "Lycos baut seine Datenbank
kumulativ auf, statt sie periodisch von Neuem zu
generieren. Indem Lycos Informationen über neue und
bereits existierende URL`s regelmässig updated, stellt
die Lycos-Software ein Maß der Popularität jedes Sites
her, indem sie nach der Zahl anderer Links schaut, die
auf diese Sites verweisen. Die Maschine nutzt dann diesen
Popularitätsindex, um jede einzelne Suche
durchzuführen....Die Lycos-Datenbank baut nicht auf dem
Volltext jeder Seite auf. Stattdessen stellt sie
Abstracts der Seiten her, die im wesentlichen auf
Headers, Titeln, Links und der ersten Handvoll Wörter
von Schlüsselabsätzen basieren - also all dem, was dazu
dient, möglichst breite Information zu liefern. Ein
Ergebnis dieses Designs ist, dass die Maschine bei Suchen
nach kurzen Hinweisen, die in den Dokumenten stehen,
nicht gut funktioniert. " Die Suchmaschine Infoseek,
die ca. 1 Million Seiten indiziert hat, ordnet die
gefundenen Seiten nach "Relevanz", d.h. der
Übereinstimmung mit den abgefragten Parametern und
ermöglicht eine Anschlussuche nach "ähnlichen
Seiten". Open Text, WWW-Worm und Lycos vermerken,
wie oft Suchbegriffe gefunden wurden und erstellen so
einen zusätzlichen Filter. Auch der Web Crawler fungiert
nach dem Popularitätsindex: seine ca. 500 000 Seiten
umfassen - neben den selbst angemeldeten - nur solche
Seiten, die "gut besucht erscheinen oder Lücken in
der vorhandenen Datenbank füllen." Die mittels
Generierung und erweiterter Reproduktion von
"Popularitätsindexen" funktionierenden
Suchmaschinen verdoppeln so die technische und politische
Logik des Hypertextmechanismus.
6
Nicht nur, daß die Frage nach der Rolle der Politik in
der Informationsgesellschaft, die da auf uns zukommen
soll, kein Thema im politischen Diskurs ist, der sich
seit 1994 als relevante Angelegenheit im politischen
Machtspiel etabliert hat. Auch nicht, dass mittlerweile
im Vergleich zu anderen Medien explizit politische
Projekte im und auf dem Netz gegenüber wirtschaftlichen
und privatistischen Unternehmen nur noch bestenfalls
randständige Bedeutung haben, wie sich an der Entwertung
der vergleichsweise politischen Mailboxszene, der relativ
abnehmenden Rolle politisch informierender und
-mobilisierender Netzangebote und der fehlenden
Selbstreflexion der Netzakteure auf die politische
Funktion des Netzes erkennen läßt (so klammern nahezu
alle von Bernard Batinic zusammengetragenen über 100
Umfragen zum Netz Fragen nach Politik völlig aus). Es
gibt ein Ineinandergreifen der Faktoren realer
Ungleichheit im Kontext des neuen Informationsraums mit
zentralen Operationsweisen des Netzes, dessen Analyse
für eine demokratische Netzpolitik unerlässlich ist.
Steve G. Steinberg: Seek and ye shall find
(maybe),
in: Wired 4.05 Mai 1996 S.108ff.
Gus Venditto: Search Engine Showdown, in: Internet World,
Mai 1996
Steven Rubio: Home Page, in: Bad
Subjects Februar 1996
Bernad Batinic: Übersicht zu Untersuchungen
im Internet
Kristian Köhntopp: Wer beherrscht das Internet? in:
Martin Rost (Hg.): Die Netz-Revolution: Auf dem Weg in
die Weltgesellschaft, Frankfurt 1996 S.63ff.
Th. A. Wetzstein u.a.: Datenreisende. Die Kultur der
Computernetze, Opladen 1995, bes. S. 123ff.
Horst Bredekamp: Cyberspace, ein Geisterreich, in: FAZ v.
7.2.1996
Computer underground Digest WWW Site
Rainer Rilling: On the other Side of the Web... , in: Forum Wissenschaft 1/1995
Rainer Rilling: EnterNet, in: Georg Ahrweiler, Rainer Rilling, Rolf Schellhase (Hg.): Soziologische Ausflüge.
Opladen 1996 [Netzfassung]
Hans-Jürgen Krysmanski: Von den Subjekten einer
"linken" Medienpolitik, in: Forum
Wissenschaft 1/1995
|