Wesentliches Merkmal der Informationsverbreitung im Internet ist die Umkehrung des Informationsflusses. Bisher herrschte in der Gesellschaft eine ,,top-down``-Struktur vor, Informationen wurden von wenigen zusammengetragen und von den (Massen-)Medien verteilt. Dies bedeutet zum einen, daß wenige die Informationen für eine breite Masse auswählen und so eine Vorauswahl treffen, und zum anderen daß die Informationsmenge oft aus Platz- und Zeitgründen beschränkt ist.
Im Internet kommen Informationen dagegen ,,von unten``. Informationen können von jedem angeboten werden, Randthemen von Minderheiten (Religionen, Homosexualität, ausgefallene Hobbys) finden auch hier ihren Platz. Hintergrundinfos können sehr viel detaillierter werden, und Informationen lassen sich schneller verbreiten. IRC wurde bereits oft genutzt, um bei aktuellen Ereignisse Augenzeugenberichte direkt weltweit zu verteilen (z.B. Fall der Mauer 1989, Putsch in Moskau 1991, Erdbeben in Los Angeles).
Darüber hinaus können Informationen sehr viel billiger angeboten werden, da Produktions- und Vertriebskosten minimal sind. In dem von Michael S. Hart initiierten Projekt Gutenberg soll Literatur im großen Maßstab elektronisch verfügbar gemacht werden (die Texte sind von verschiedenen Rechnern auf der Welt abrufbar).
Das Internet erlaubt den Zugriff auf eine so große Vielfalt an Informationen, daß man davon regelrecht überschwemmt wird. Diese Informationsflut ist allerdings nicht nur ein Phänomen des Internets. Im alltäglichen Leben hält in vielen Fällen eine gewisse Zugangsschwelle diese Flut in Grenzen (Bücher und Zeitschriften müssen erst gekauft werden oder in der Bibliothek ausgeliehen werden), zum anderen ist der Informationsfluß durch die Struktur der Medien noch einigermaßen überschaubar.
Im Internet dagegen ermöglichen Werkzeuge wie Mosaic für das World Wide Web einen sehr einfachen Zugang zu dem Meer an Informationen, dessen Struktur nicht mehr überschaubar ist, und in dem man per Mausklick untergehen kann. Wer im Internet auf Entdeckungsreise gehen will, wird sehr viel Zeit benötigen.
Durch das dezentrale Informationsangebot gibt es keine Hierarchie, über die man darauf zugreifen könnte, so daß man lange suchen (oder fragen) muß oder eher zufällig interessante Adressen entdeckt. Eine Auswertung der Mosaic-Hotlists (eine Liste, mit der der WWW-Browser Mosaic einmal gefundene Links zum schnelleren Anwählen speichern kann) [36] hat ergeben, daß fast 80% der Einträge nur bei einer einzigen Person auftraten. Offenbar haben viele Netz-Anwender auf langen Entdeckungsreisen einen großen Erfahrungsschatz angesammelt habe. Wenn man diese Erfahrungen strukturieren würde, in dem man Links zu bestimmten Themen sammelt und zur Verfügung stellt, könnte das Potential des Internets deutlich gesteigert werden.
Bei der Vielzahl der Informationen, z.T. aus verschiedenen Quellen, ist sicherlich die Frage berechtigt, ob die Information dadurch besser wird, vor allem dann, wenn diese Informationen nicht von ausgebildeten Journalisten zur Verfügung gestellt werden.
Allerdings mögen Journalisten zwar das handwerkliche Geschick besitzen, Artikel zu schreiben und geeignete Worte zu finden, ob die Inhalte aber gut sind, ist eine andere Frage (siehe jüngste Berichte zum Internet). Solange Artikel im Rahmen von Zeitungen, Magazinen etc. erscheinen, kann zumindest anhand des jeweiligen Images oder der bisher gemachten Erfahrungen ein Anhaltspunkt gefunden werden.
Wenn Informationen wie im Internet dagegen von teils unbekannten Quellen und in einer solchen Vielfalt verfügbar sind, wird die Fähigkeit die Qualität von Informationen einschätzen zu können, noch wichtiger als bisher.
Eine wichtige Konsequenz der Information ,,von unten `` ist die fehlende Kontrollierbarkeit, die bei einer Verbreitung über Presseagenturen eventuell möglich ist. Z.B. überlegte die deutsche Regierung 1986 noch, ob sie die Information über den Tschernobyl-Unfall überhaupt an die Öffentlichkeit weitergeben sollte, als sich die Meldung über Computernetze bereits verbreitet hatte.
Das Internet bleibt von Mißbrauch nicht verschont, was von den Massenmedien gerne zu spektakulären Skandalgeschichten verarbeitet wird. Genausogut könnte man die Vorwürfe aber auch an die Telekom richten, weil das Telefonnetz zu kriminellen Handlungen verwendet werden kann. Das Internet ist lediglich ein Medium, wie es genutzt wird, ob zu wissenschaftlichen, spielerischen oder eben kriminellen Zwecken, ist ausschließlich von den Motiven und Zielen der Nutzer abhängig (,,Das Übel kommt nicht von der Technik, sondern von denen die sie mißbrauchen, mutwillig oder auch nur fahrlässig``, Jaques-Yves Cousteau, frz. Ozeanograph).
Zwar gibt es immer wieder Versuche, unerlaubte oder unerwünschte Nutzung des Netzes zu unterbinden, aber Kontrolle oder Zensur ist schwierig bis unmöglich (,,The Net interprets censorship as damage and routes around it``, Internet-Pionier John Gilmore).
Einen derartigen Versuch unternahm im September 1993 das niedersächsische Ministerium für Wissenschaft und Kultur, indem es die Hochschulen aufforderte, ,,Maßnahmen zur Verhinderung des Mißbrauchs von Computern und Computernetzen, der durch Übertragung und Verbreitung von Informationen rassistischer, sexistischer und krimineller Art entsteht, zu ergreifen``. Dies ist aber genauso aussichtslos wie der Versuch einer derartigen Kontrolle des Telefonnetzes der Telekom. Die Verantwortlichen des Rechenzentrums der Uni Hannover haben daraufhin in einer recht hilflosen Reaktion den Bezug aller Newsgruppen eingestellt, in deren Namen ,,sex``, ,,erotica`` oder ähnliches vorkam. Mit ,,sexistischen Informationen`` kann man aber deshalb noch lange nicht jede dieser Gruppen in Verbindung bringen, und zu leiden hatte auch eine Gruppe, in der auf z.T. hohem Niveau über Themen wie Computer-Pornographie diskutiert wird. Offenbar hat man aber keine passenden Suchwörter für rassistische oder kriminelle Informationen finden können, zu diesbezüglichen Konsequenzen haben die Anordnungen des Ministeriums nämlich nicht geführt.
Zudem kann eine solche Maßnahme auch unerwünschte Konsequenzen nach sich ziehen. Da ein weltweites Verbot einer Newsgroup unmöglich ist (es gibt keine Zentrale im Usenet), wird es immer Server geben, die diese Gruppen weiterhin beziehen. Ein Newsreader kann ohne Probleme auf die News eines weiter entfernten Servers zugreifen und transportiert so sämtliche Artikel erst über das Netz, anstatt sie vom lokalen Newsserver zu beziehen. Zwar steigt dadurch die Zugriffsschwelle geringfügig, da die für die Umkonfiguration notwendigen Kenntnisse erst angeeignet werden müssen, wenn aber viele den lokalen Server umgehen, kann die Netzbelastung deutlich steigen.
Während auf die lokal zur Verfügung gestellten News noch ein Einfluß ausgeübt werden kann, so ist eine Kontrolle sämtlicher Plattenspeicher, d.h. der Verzeichnisse der einzelnen Anwender deutlich schwieriger und zudem problematisch in bezug auf den Datenschutz.
Eine Überwachung der ein- und ausgehenden Datenbytes ist technisch und praktisch unmöglich. Ein menschlicher Prüfer kann kaum über 200.000 Zeichen pro Sekunde überprüfen (bei einem 2MBit/s- Zugang), und auch ein Rechner könnte, wenn er schnell genug wäre, höchstens auf wenige Schlüsselwörter achten. Bei Bildern (graphische Auswertungen von Messungen, Wetterbilder oder Cindy Crawford) ist eine Unterscheidung auf Bitebene völlig unmöglich. Machbar ist allenfalls eine Protokollierung aller FTP-Vorgänge (,,Big Brother is watching you``), doch wer sollte die einzelnen Vorgänge auf ihren wissenschaftlichen Nutzen untersuchen?
Ein weiteres Problem, das durch die weltweite Vernetzung hervorgerufen wird, ist der persönliche Datenschutz bzw. die Sicherheit von privaten oder geheimen Daten.
Persönliche Daten sind sehr leicht sammelbar, speicherbar und sehr schnell und einfach verteilbar. Den Mißbrauch von persönlichen Daten zu verhindern, zählt zu den wichtigen zukünftigen Aufgaben. In den USA beschäftigt sich die Electronic Frontier Foundation (EFF, ftp.eff.org) intensiv mit diesem Thema.
Ebenso bedeutsam ist es, Daten vor unauthorisiertem Zugriff zu schützen, einerseits durch Schutz der angeschlossenen Rechnersysteme gegen Einbruchversuche, andererseits durch geeignete Verschlüsselungsmethoden.
Ein weiterer Aspekt, besonders bei der zunehmenden Zahl von Geschäftsabwicklungen über das Internet, ist die sichere Authentifikation des Absenders, wofür geeignete Verfahren (z.B. DSA, Digital Signature Standard) eingesetzt werden müßten.
Das Betriebssystem UNIX, mit dem die Mehrzahl der ans Internet angeschlossenen Rechner arbeitet, stammt aus einer Zeit, als Sicherheitsaspekte noch nicht die heutige Bedeutung hatten. Zugriffsrechte für Dateien lassen sich nur in drei Kategorien einteilen (Rechte für alle, für eine Gruppe oder nur für den Eigentümer der Datei), darüberhinaus hat ein Superuser uneingeschränkte Zugriffsrechte, die mißbraucht werden können. Aufgrund einiger Sicherheitslücken in UNIX ist bzw. war es für einen Eindringling möglich, diesen Superuserstatus zu erlangen, was in der Vergangenheit mehrfach erhebliches Aufsehen erregt hat.
Der bisher spektakulärste Fall war der ,,Internet Worm``. Am 2. November 1988 schickte Robert Morris jr., Student an der University of Cornwell und pikanterweise Sohn eines wichtigen Beauftragten der US-Regierung für Computersicherheit, ein Programm mit Hilfe gleich mehrerer Fehler im UNIX-System in fremde Rechner, wo es sich vervielfältigte und dann weitere Rechner angriff. Zwar veränderte das Programm keine Daten und enthielt auch sonst keine bösartigen Teile, doch belastete es die befallenen Rechner derart, daß Tausende von Rechnern an Universitäten, Militär- und Forschungseinrichtungen für mehrere Tage lahmgelegt waren.
Ein aufsehenerregender Spionagefall wurde von Clifford Stoll aufgedeckt, der im August 1986 am Lawrence Berkeley Laboratory einen Einbruch in einen Rechner des Instituts bemerkt hatte. Anstatt den Zugang sofort zu sperren, verfolgte Stoll den Hacker über 10 Monate und beobachtete 400 weitere Einbruchversuche, darunter 30 erfolgreiche. Die Spur, die schließlich von FBI, CIA, NSA und deutschen Behörden verfolgt wurde, führte zu einer Gruppe von Hackern in Hannover, die das gefundene Material an den KGB verkauft hatten. Das Buch ,,Cuckoo's Egg`` von Clifford Stoll ist nach diesem Fall entstanden.
Viele Sicherheitslücken sind durchaus bekannt, erfordern aber Maßnahmen seitens der Systemadministratoren und Benutzer, die oft nicht beachtet werden. Einfachstes Beispiel sind unsichere Paßwörter. Unter UNIX ist die Paßwortdatei, in der die verschlüsselten Paßwörter stehen, frei lesbar, allerdings ist der Verschlüsselungsalgorithmus nicht umkehrbar. Durch Verschlüsseln von Einträgen eines Lexikons oder von Namensverzeichnissen und Vergleich mit der Paßwortdatei können aber zu einfache Paßwörter geknackt werden.
Neben der Wahl eines geeignet sicheren Paßwortes können private oder geheime Daten auch durch geeignete Verschlüsselungsmaßnahmen vor unerlaubtem fremden Zugriff gesichert werden.
Der Wunsch nach hochwertiger Verschlüsselung für kommerzielle und private Zwecke erschwert allerdings auch die autorisierte Überwachung durch Justiz und Regierung. In den USA wird derzeit deshalb heftig über ein neues Verfahren (,,key escrow encryption``) diskutiert, bei dem die Schlüssel für die symmetrische Ver- und Entschlüsselung der Daten von zwei verschiedenen und unabhängigen Organisationen verwaltet werden, die diese nur auf gerichtliche Anordnung zur Verfügung stellen dürfen. Der vorgesehene Standard verhindert zwar in keiner Weise, daß andere Verschlüsselungstechnologien eingesetzt werden, einen Anreiz für die Verwendung des von der NSA (National Security Agency) entwickelten geheimen Algorithmus soll aber die hohe Sicherheit (angeblich 16 Millionen mal sicherer als der DES-Standard) und die preiswerte Hardware-Realisierung (,,Clipper- Chip``) bieten.