Die Zukunft der drahtlosen Technologie. Die Zukunft gehört dem Internet der Dinge und den Netzwerktechnologien der nächsten Generation




Vorwort Der revolutionäre Einfluss des Internets auf die Computer- und Kommunikationswelt hat keine historische Parallele. Die Erfindung des Telegrafen, des Telefons, des Radios und des Computers bereitete den Grundstein für die beispiellose Integration, die jetzt stattfindet. Das Internet ist gleichzeitig ein Mittel zur weltweiten Verbreitung, ein Mechanismus zur Verbreitung von Informationen und ein Medium für die Zusammenarbeit und Kommunikation zwischen Menschen, das den gesamten Globus abdeckt. Das Internet ist ein globales Computernetzwerk. Es besteht aus einer Vielzahl von Computernetzwerken, die durch Standardvereinbarungen über Methoden des Informationsaustauschs und ein einheitliches Adressierungssystem verbunden sind. Das Internet verwendet die TCP/IP-Protokollfamilie. Sie sind gut, weil sie eine relativ kostengünstige Möglichkeit bieten, Informationen auch über nicht sehr zuverlässige Kommunikationsleitungen zuverlässig und schnell zu übertragen und Software zu erstellen, die für die Arbeit an beliebigen Geräten geeignet ist. Das Adressierungssystem (URL-Adressen) stellt jedem Computer (genauer gesagt fast jeder Computerressource) und jedem Internetbenutzer eindeutige Koordinaten zur Verfügung und bietet so die Möglichkeit, genau das zu nehmen, was Sie benötigen, und es genau dorthin zu übertragen, wo Sie es benötigen.


Geschichtlicher Hintergrund Vor etwa 40 Jahren schuf das US-Verteidigungsministerium ein Netzwerk, das als Vorläufer des Internets galt – es hieß ARPAnet. ARPAnet war ein experimentelles Netzwerk – es wurde geschaffen, um die wissenschaftliche Forschung im militärisch-industriellen Bereich zu unterstützen – insbesondere um Methoden zum Aufbau von Netzwerken zu untersuchen, die gegen Teilschäden, beispielsweise durch Luftangriffe, resistent waren und weiterhin normal funktionieren konnten unter solchen Bedingungen. Diese Anforderung liefert den Schlüssel zum Verständnis der Aufbau- und Strukturprinzipien des Internets. Im ARPAnet-Modell gab es immer eine Kommunikation zwischen dem Quellcomputer und dem Zielcomputer (Zielstation). Das Netzwerk galt als unzuverlässig: Jeder Teil des Netzwerks konnte jederzeit verschwinden. Die kommunizierenden Computer – nicht nur das Netzwerk selbst – sind auch für den Aufbau und die Aufrechterhaltung der Kommunikation verantwortlich. Das Grundprinzip bestand darin, dass jeder Computer Peer-to-Peer mit jedem anderen Computer kommunizieren konnte.


Die Datenübertragung im Netzwerk wurde auf Basis des Internetprotokolls IP organisiert. Das IP-Protokoll ist die Regeln und Beschreibung der Funktionsweise eines Netzwerks. Dieser Satz umfasst Regeln für den Aufbau und die Aufrechterhaltung der Kommunikation im Netzwerk, Regeln für die Handhabung und Verarbeitung von IP-Paketen, Beschreibungen von Netzwerkpaketen der IP-Familie (ihre Struktur usw.). Das Netzwerk wurde so konzipiert und gestaltet, dass die Benutzer keine Informationen über die spezifische Struktur des Netzwerks benötigen. Um eine Nachricht über das Netzwerk zu senden, muss der Computer Daten in einen bestimmten „Umschlag“ namens beispielsweise IP legen, auf diesem „Umschlag“ eine bestimmte Netzwerkadresse angeben und die resultierenden Pakete an das Netzwerk übertragen. Diese Entscheidungen mögen seltsam erscheinen, wie die Annahme eines „nicht vertrauenswürdigen“ Netzwerks, aber die Erfahrung hat gezeigt, dass die meisten dieser Entscheidungen durchaus vernünftig und richtig sind. Während die Organisation für internationale Normung (ISO) Jahre damit verbracht hat, den endgültigen Standard für Computernetzwerke zu erstellen, Benutzer wollten nicht warten. Internetaktivisten begannen, IP-Software auf allen möglichen Computertypen zu installieren. Dies wurde bald zur einzig akzeptablen Möglichkeit, unterschiedliche Computer miteinander zu verbinden. Dieses Vorhaben gefiel der Regierung und den Universitäten, die eine Politik verfolgten, Computer von verschiedenen zu kaufen Jeder kaufte den Computer, der ihm gefiel, und hatte das Recht zu erwarten, dass er in einem Netzwerk mit anderen Computern zusammenarbeiten konnte.


Ungefähr 10 Jahre nach dem Aufkommen von ARPAnet erschienen beispielsweise lokale Netzwerke (LANs) wie Ethernet usw. Gleichzeitig erschienen Computer, die als Workstations bezeichnet wurden. Auf den meisten Workstations war das Betriebssystem UNIX installiert. Dieses Betriebssystem war in der Lage, in einem Netzwerk mit dem Internet Protocol (IP) zu arbeiten. Im Zusammenhang mit der Entstehung grundlegend neuer Probleme und Methoden zu deren Lösung entstand ein neuer Bedarf: Organisationen wollten sich mit ihrem lokalen Netzwerk mit ARPAnet verbinden. Etwa zur gleichen Zeit entstanden andere Organisationen und begannen, ihre eigenen Netzwerke mithilfe von IP-ähnlichen Kommunikationsprotokollen aufzubauen. Es wurde klar, dass alle davon profitieren würden, wenn diese Netzwerke alle miteinander kommunizieren könnten, da dann Benutzer in einem Netzwerk mit Benutzern in einem anderen Netzwerk kommunizieren könnten. Eines der wichtigsten dieser neuen Netzwerke war NSFNET, das auf Initiative der National Science Foundation (NSF) entwickelt wurde. In den späten 1980er Jahren richtete die NSF fünf Supercomputing-Zentren ein, die jeder wissenschaftlichen Einrichtung zur Verfügung standen. Es wurden nur fünf Zentren geschaffen, weil sie selbst für das reiche Amerika sehr teuer sind. Deshalb hätten sie kooperativ genutzt werden müssen. Es entstand ein Kommunikationsproblem: Es musste eine Möglichkeit gefunden werden, diese Zentren zu verbinden und verschiedenen Benutzern Zugriff darauf zu ermöglichen. Zunächst wurde versucht, ARPAnet-Kommunikation zu nutzen, diese Lösung scheiterte jedoch an der Bürokratie der Verteidigungsindustrie und an Personalproblemen.


NSF beschloss daraufhin, ein eigenes Netzwerk auf Basis der ARPAnet-IP-Technologie aufzubauen. Die Zentren waren über spezielle Telefonleitungen mit einer Kapazität von 56 KBPS (7 KB/s) verbunden. Es war jedoch offensichtlich, dass es sich nicht einmal lohnte, alle Universitäten und Forschungseinrichtungen direkt mit den Zentren zu verbinden, denn Die Verlegung einer solchen Kabelmenge ist nicht nur sehr teuer, sondern praktisch unmöglich. Daher wurde beschlossen, Netzwerke auf regionaler Basis zu schaffen. In jedem Teil des Landes sollten die betroffenen Institutionen mit ihren nächsten Nachbarn in Kontakt treten. Die resultierenden Ketten wurden an einem ihrer Punkte mit dem Supercomputer verbunden, so dass die Supercomputerzentren miteinander verbunden waren. In einer solchen Topologie könnte jeder Computer mit jedem anderen kommunizieren, indem er Nachrichten über seine Nachbarn weiterleitet. Diese Entscheidung war erfolgreich, doch es kam die Zeit, in der das Netzwerk den gestiegenen Anforderungen nicht mehr gewachsen war. Durch die gemeinsame Nutzung von Supercomputern konnten verbundene Gemeinschaften viele andere Dinge außerhalb von Supercomputern nutzen. Plötzlich erkannten Universitäten, Schulen und andere Organisationen, dass ihnen ein Meer an Daten und eine Welt von Benutzern zur Verfügung standen. Der Nachrichtenfluss im Netzwerk (Verkehr) wuchs immer schneller, bis er schließlich die Computer, die das Netzwerk verwalten, und die sie verbindenden Telefonleitungen überlastete. 1987 wurde der Auftrag zur Verwaltung und Entwicklung des Netzwerks an Merit Network Inc. vergeben, die das Michigan Educational Network in Partnerschaft mit IBM und MCI betrieb. Das alte physische Netzwerk wurde durch schnellere (etwa 20-mal schnellere) Telefonleitungen ersetzt. Sie wurden durch schnellere und stärker vernetzte Steuerungsmaschinen ersetzt. Der Prozess der Verbesserung des Netzwerks ist im Gange. Die meisten dieser Änderungen erfolgen jedoch unbemerkt für die Benutzer. Wenn Sie Ihren Computer einschalten, wird Ihnen keine Anzeige angezeigt, dass das Internet aufgrund der Modernisierung in den nächsten sechs Monaten nicht verfügbar sein wird. Vielleicht noch wichtiger ist, dass durch Netzwerküberlastung und Verbesserungen eine ausgereifte und praktische Technologie entstanden ist. Probleme wurden gelöst und Entwicklungsideen in der Praxis getestet.


Methoden für den Zugriff auf das Internet ausschließlich per E-Mail. Mit dieser Methode können Sie nur Nachrichten empfangen und an andere Benutzer senden. Über spezielle Gateways können Sie auch andere Dienste des Internets nutzen. Diese Gateways ermöglichen jedoch keinen interaktiven Betrieb und können recht schwierig zu bedienen sein. Remote-Terminal-Modus. Sie stellen als Remote-Benutzer eine Verbindung zu einem anderen Computer her, der mit dem Internet verbunden ist. Client-Programme, die Internetdienste nutzen, werden auf dem Remote-Computer gestartet und die Ergebnisse ihrer Arbeit werden auf dem Bildschirm Ihres Terminals angezeigt. Da die Verbindung hauptsächlich Terminalemulationsprogramme verwendet, können Sie nur im Textmodus arbeiten. So können Sie beispielsweise zum Anzeigen von WEB-Sites nur einen Textbrowser verwenden und sehen keine grafischen Bilder. Direkte Verbindung. Dies ist die grundlegende und beste Verbindungsform, wenn Ihr Computer zu einem der Internetknoten wird. Über das TCP/IP-Protokoll kommuniziert es direkt mit anderen Computern im Internet. Der Zugriff auf Internetdienste erfolgt über Programme, die auf Ihrem Computer ausgeführt werden.


Traditionell sind Computer über lokale Netzwerke oder dedizierte Verbindungen direkt mit dem Internet verbunden. Für den Aufbau solcher Verbindungen sind neben dem Computer selbst weitere Netzwerkgeräte (Router, Gateways etc.) erforderlich. Da diese Geräte und Verbindungskanäle recht teuer sind, werden Direktverbindungen nur von Organisationen mit einem großen Volumen an gesendeten und empfangenen Informationen genutzt. Eine Alternative zu einer direkten Verbindung für Einzelpersonen und kleine Organisationen besteht darin, über Telefonleitungen temporäre Verbindungen (Einwahl) zu einem Remote-Computer herzustellen, der mit dem Internet verbunden ist. Was ist SLIP/PPP? Domain Name System Namenssystem


Was ist SLIP/PPP? Bei der Erörterung der verschiedenen Möglichkeiten, auf das Internet zuzugreifen, haben wir argumentiert, dass eine direkte Verbindung die wichtigste und beste ist. Für den Einzelanwender ist es jedoch zu teuer. Das Arbeiten im Remote-Terminal-Modus schränkt die Möglichkeiten des Benutzers erheblich ein. Eine Kompromisslösung ist die Verwendung der Protokolle SLIP (Serial Line Internet Protocol) oder PPP (Point to Point Protocol). Im Folgenden wird der Begriff SLIP/PPP für SLIP und/oder PPP verwendet, da sie in vielen Aspekten ähnlich sind. SLIP/PPP ermöglicht die Übertragung von TCP/IP-Paketen über serielle Verbindungen, beispielsweise Telefonleitungen, zwischen zwei Computern. Auf beiden Computern werden Programme ausgeführt, die TCP/IP-Protokolle verwenden. Somit haben einzelne Benutzer die Möglichkeit, von ihrem Computer aus eine direkte Verbindung zum Internet herzustellen, da sie lediglich über ein Modem und einen Telefonanschluss verfügen. Durch die Verbindung über SLIP/PPP können Sie WWW, E-Mail-Clients usw. ausführen. direkt auf Ihrem Computer.


SLIP/PPP ist wirklich eine Möglichkeit, eine direkte Verbindung zum Internet herzustellen, weil: Ihr Computer mit dem Internet verbunden ist. Ihr Computer verwendet Netzwerksoftware, um über TCP/IP mit anderen Computern zu kommunizieren. Ihr Computer verfügt über eine eindeutige IP-Adresse. Was ist der Unterschied zwischen einer SLIP/PPP-Verbindung und dem Remote-Terminal-Modus? Um sowohl eine SLIP/PPP-Verbindung als auch den Remote-Terminal-Modus herzustellen, müssen Sie einen anderen Computer mit direkter Internetverbindung (Provider) anrufen und sich dort registrieren. Der wesentliche Unterschied besteht darin, dass Ihr Computer bei einer SLIP/PPP-Verbindung eine eindeutige IP-Adresse erhält und über das TCP/IP-Protokoll direkt mit anderen Computern kommuniziert. Im Remote-Terminal-Modus ist Ihr Computer lediglich ein Gerät zum Anzeigen der Ergebnisse eines Programms, das auf dem Computer des Anbieters ausgeführt wird.


Die Netzwerksoftware „Domain Name System“ benötigt 32-Bit-IP-Adressen, um Verbindungen herzustellen. Benutzer bevorzugen jedoch die Verwendung von Computernamen, da diese leichter zu merken sind. Daher ist eine Möglichkeit erforderlich, Namen in IP-Adressen aufzulösen und umgekehrt. Als das Internet noch klein war, war das einfach. Jeder Computer verfügte über Dateien, die die Korrespondenz zwischen Namen und Adressen beschrieben. Von Zeit zu Zeit wurden an diesen Dateien Änderungen vorgenommen. Derzeit ist diese Methode veraltet, da die Anzahl der Computer im Internet sehr groß ist. Die Dateien wurden durch ein System von Nameservern ersetzt, die Übereinstimmungen zwischen Namen und Netzwerkadressen von Computern verfolgen (tatsächlich ist dies nur einer der vom Nameserversystem bereitgestellten Dienste). Dabei ist zu beachten, dass ein ganzes Netzwerk von Nameservern zum Einsatz kommt und nicht nur ein zentraler. Nameserver sind in einer Baumstruktur organisiert, die der Organisationsstruktur des Netzwerks entspricht. Auch Computernamen bilden eine entsprechende Struktur. Beispiel: Der Computername ist BORAX.LCS.MIT.EDU. Dabei handelt es sich um einen Computer, der im Laboratory of Computer Science (LCS) am Massachusetts Institute of Technology (MIT) installiert ist.


Dafür. Um die Netzwerkadresse zu ermitteln, müssen theoretisch Informationen von vier verschiedenen Servern eingeholt werden. Zunächst müssen Sie Kontakt zu einem der EDU-Server aufnehmen, die Bildungseinrichtungen bedienen (um die Zuverlässigkeit zu gewährleisten, wird jede Ebene der Namenshierarchie von mehreren Servern bedient). Auf diesem Server müssen Sie die Adressen der MIT-Server abrufen. Auf einem der MIT-Server können Sie die Adresse des/der LCS-Server(s) abrufen. Abschließend können Sie auf dem LCS-Server die Adresse des BORAX-Rechners herausfinden. Jede dieser Ebenen wird als Domäne bezeichnet. Der vollständige Name BORAX.LCS.MIT.EDU ist daher ein Domänenname (ebenso wie die Domänennamen LCS.MIT.EDU, MIT.EDU und EDU). Glücklicherweise ist es eigentlich nicht notwendig, jedes Mal alle aufgeführten Server zu kontaktieren. Die auf dem Benutzer installierte Software kontaktiert den Nameserver in seiner Domäne und kontaktiert bei Bedarf andere Nameserver und liefert als Antwort das Endergebnis der Umwandlung des Domänennamens in eine IP-Adresse. Das Domänensystem speichert nicht nur Informationen über Namen und Adressen von Computern. Es speichert auch eine große Menge anderer nützlicher Informationen: Informationen über Benutzer, Mailserveradressen usw.


Netzwerkprotokolle Protokolle der Anwendungsschicht werden in bestimmten Anwendungsprogrammen verwendet. Ihre Gesamtzahl ist groß und nimmt ständig zu. Einige Anwendungen gibt es bereits seit den Anfängen des Internets, beispielsweise TELNET und FTP. Andere erschienen später: HTTP, NNTP, POP3, SMTP. TELNET-Protokoll HTTP-Protokoll NNTP POP3 FTP-Protokoll SMTP-Protokoll


Das TELNET-Protokoll ermöglicht es dem Server, alle Remote-Computer als Standard-Texttyp-„Netzwerkterminals“ zu behandeln. Die Arbeit mit TELNET ist wie das Wählen einer Telefonnummer. Der Benutzer gibt auf der Tastatur etwas wie „Telnet Delta“ ein und erhält auf dem Bildschirm eine Einladung, sich am Delta-Computer anzumelden. Das TELNET-Protokoll gibt es schon seit langer Zeit. Es ist gut erprobt und weit verbreitet. Viele Implementierungen wurden für eine Vielzahl von Betriebssystemen erstellt.


Das FTP-Protokoll (File Transfer Protocol) ist ebenso verbreitet wie TELNET. Es ist eines der ältesten Protokolle der TCP/IP-Familie. Genau wie TELNET nutzt es TCP-Transportdienste. Es gibt viele Implementierungen für verschiedene Betriebssysteme, die gut zusammenarbeiten. Ein FTP-Benutzer kann mehrere Befehle aufrufen, die es ihm ermöglichen, das Verzeichnis eines Remote-Computers anzuzeigen, von einem Verzeichnis in ein anderes zu wechseln und eine oder mehrere Dateien zu kopieren.


Das SMTP-Protokoll (Simple Mail Transfer Protocol) unterstützt die Übertragung von Nachrichten (E-Mail) zwischen beliebigen Knoten im Internet. Mit Mechanismen zur Mail-Bereitstellung und Mechanismen zur Verbesserung der Zustellungszuverlässigkeit ermöglicht SMTP die Nutzung verschiedener Transportdienste. Das SMTP-Protokoll ermöglicht sowohl die Gruppierung von Nachrichten an denselben Empfänger als auch die Vervielfältigung mehrerer Kopien einer Nachricht zur Übertragung an verschiedene Adressen. Oberhalb des SMTP-Moduls befindet sich der Maildienst eines bestimmten Computers. In typischen Client-Programmen wird es hauptsächlich zum Versenden ausgehender Nachrichten verwendet.


Das HTTP-Protokoll (Hyper Text Transfer Protocol) wird zum Austausch von Informationen zwischen WWW-Servern (World Wide Web) und Programmen zum Anzeigen von Hypertextseiten – WWW-Browsern – verwendet. Ermöglicht die Übertragung verschiedenster Informationen – Text, Grafik, Audio und Video. Derzeit in einer Phase der kontinuierlichen Verbesserung.


POP3 (Post Office Protocol, Version 3) ermöglicht E-Mail-Client-Programmen den Empfang und die Übertragung von Nachrichten von/an Mailserver. Es verfügt über recht flexible Funktionen zur Verwaltung des Inhalts von Postfächern, die sich auf dem Mail-Knoten befinden. In typischen Client-Programmen wird es hauptsächlich zum Empfang eingehender Nachrichten verwendet.


Das Network News Transfer Protocol (NNTP) ermöglicht die Kommunikation zwischen Newsservern und Clientprogrammen – das Verteilen, Abfragen, Abrufen und Übertragen von Nachrichten an Newsgroups. Neue Nachrichten werden in einer zentralen Datenbank gespeichert, die es dem Benutzer ermöglicht, Nachrichten von Interesse auszuwählen. Es bietet außerdem die Möglichkeit, veraltete Nachrichten zu indizieren, zu verknüpfen und zu löschen.


Internetdienste Server sind Netzwerkknoten, die dazu dienen, Anfragen von Clients zu bearbeiten – Software-Agenten, die Informationen abrufen oder an das Netzwerk übertragen und unter der direkten Kontrolle der Benutzer arbeiten. Clients stellen Informationen in einer verständlichen und benutzerfreundlichen Form bereit, während Server Servicefunktionen zum Speichern, Verteilen, Verwalten von Informationen und deren Ausgabe auf Anfrage von Clients ausführen. Jeder Diensttyp im Internet wird von entsprechenden Servern bereitgestellt und kann über entsprechende Clients genutzt werden. WWW-Proxyserver FTPTelnet NEWS/USENET


Der WWW-Dienst, das World Wide Web, ermöglicht die Präsentation und Verbindung einer großen Anzahl von Hypertextdokumenten, einschließlich Text, Grafiken, Ton und Video, die sich auf verschiedenen Servern auf der ganzen Welt befinden und über Links in Dokumenten miteinander verbunden sind. Die Entstehung dieses Dienstes vereinfachte den Zugang zu Informationen erheblich und wurde zu einem der Hauptgründe für das explosionsartige Wachstum des Internets seit 1990. Der WWW-Dienst arbeitet mit dem HTTP-Protokoll. Zur Nutzung dieses Dienstes werden Browserprogramme verwendet, von denen derzeit Netscape Navigator und Internet Explorer am beliebtesten sind. „Webbrowser“ sind nichts anderes als Anzeigetools; Sie basieren auf einem kostenlosen Kommunikationsprogramm namens „Mosaic“, das 1993 am National Center for Supercomputing Applications der University of California entwickelt wurde. Illinois, um den Zugang zum WWW zu erleichtern. Was können Sie mit WWW erreichen? Fast alles, was mit dem Begriff „Arbeiten im Internet“ verbunden ist – von aktuellen Finanznachrichten bis hin zu Informationen zu Medizin und Gesundheitswesen, Musik und Literatur, Haustieren und Zimmerpflanzen, Kochen und Automobilwirtschaft.


Sie können Flugtickets in jeden Teil der Welt (real, nicht virtuell) buchen, Reisebroschüren buchen, die notwendige Software und Hardware für Ihren PC finden, Spiele mit entfernten (und unbekannten) Partnern spielen und Sport- und politische Ereignisse auf der Welt verfolgen. Schließlich können Sie mit Hilfe der meisten Programme mit Zugang zum WWW auch auf Newsgroups zugreifen (es gibt einige davon), in denen Nachrichten zu jedem Thema gepostet werden – von Astrologie bis Linguistik, sowie Nachrichten per E-Mail austauschen. Post. Dank der WWW-Browsing-Tools nimmt der chaotische Informationsdschungel im Internet die Form bekannter, übersichtlich gestalteter Seiten mit Text und Fotos und in manchen Fällen sogar Video und Ton an. Attraktive Homepages helfen Ihnen sofort zu verstehen, welche Informationen als nächstes kommen. Es sind alle notwendigen Überschriften und Unterüberschriften vorhanden, die wie auf einem normalen Windows- oder Macintosh-Bildschirm mithilfe von Bildlaufleisten ausgewählt werden können. Jedes Schlüsselwort ist über Hypertext-Links mit den entsprechenden Informationsdateien verbunden. Und lassen Sie sich von dem Begriff „Hypertext“ nicht abschrecken: Hypertext-Links sind in etwa dasselbe wie eine Fußnote in einem Enzyklopädieartikel, die mit den Worten „siehe auch ...“ beginnt. Anstatt durch die Seiten eines Buches zu blättern, können Sie einfach Sie müssen auf das gewünschte Schlüsselwort klicken (der Einfachheit halber wird es auf dem Bildschirm in Farbe oder Schriftart hervorgehoben), und das erforderliche Material wird vor Ihnen angezeigt. Es ist sehr praktisch, dass Sie mit dem Programm zu zuvor angezeigten Materialien zurückkehren oder per Mausklick weitermachen können.


- E-Mail. Mit der Hilfe können Sie persönliche oder geschäftliche Nachrichten zwischen Empfängern austauschen, die über eine Adresse verfügen. Ihre E-Mail-Adresse ist im Anschlussvertrag angegeben. Der E-Mail-Server, auf dem Ihr Postfach eingerichtet ist, funktioniert wie ein normales Postamt, bei dem Ihre Post ankommt. Ihre E-Mail-Adresse entspricht einem gemieteten Postfach in einer Postfiliale. Von Ihnen gesendete Nachrichten werden sofort an den im Brief angegebenen Adressaten gesendet, und Nachrichten, die Sie erhalten, warten in Ihrem Postfach, bis Sie sie abholen. Sie können E-Mails von jedem mit einer E-Mail-Adresse senden und empfangen. Das SMTP-Protokoll wird hauptsächlich zum Übertragen von Nachrichten und POP3 zum Empfangen von Nachrichten verwendet. Sie können eine Vielzahl von Programmen zum Arbeiten verwenden – spezielle Programme wie Eudora oder in einen Webbrowser integrierte Programme wie Netscape Navigator.


Usenet ist ein weltweites Diskussionsforum. Es besteht aus einer Sammlung von Konferenzen („Newsgroups“), deren Namen hierarchisch nach den besprochenen Themen geordnet sind. Nachrichten („Artikel“ oder „Nachrichten“) werden von Benutzern mithilfe einer speziellen Software an diese Konferenzen gesendet. Nach dem Senden werden Nachrichten an Newsserver gesendet und stehen anderen Benutzern zum Lesen zur Verfügung. Sie können eine Nachricht senden und die Antworten darauf anzeigen, die in Zukunft erscheinen werden. Da viele Menschen das gleiche Material lesen, häufen sich die Rezensionen. Alle Nachrichten zum gleichen Thema bilden einen Thread („Thread“) (im Russischen wird das Wort „Thema“ auch in der gleichen Bedeutung verwendet); Obwohl die Antworten möglicherweise zu unterschiedlichen Zeitpunkten verfasst und mit anderen Nachrichten vermischt wurden, bilden sie dennoch eine zusammenhängende Diskussion. Sie können jede Konferenz abonnieren, die Kopfzeilen der darin enthaltenen Nachrichten mit einem Newsreader anzeigen, Nachrichten nach Themen sortieren, um das Verfolgen der Diskussion zu erleichtern, eigene Nachrichten mit Kommentaren hinzufügen und Fragen stellen. Verwenden Sie zum Lesen und Senden von Nachrichten Newsreader, z. B. den integrierten Netscape Navigator-Browser – Netscape News oder Internet News von Microsoft, der mit den neuesten Versionen von Internet Explorer geliefert wird.


FTP ist eine Methode zum Übertragen von Dateien zwischen Computern. Kontinuierliche Softwareentwicklung und die Veröffentlichung einzigartiger textbasierter Informationsquellen sorgen dafür, dass die FTP-Archive der Welt eine faszinierende und sich ständig verändernde Schatzkammer bleiben. Es ist unwahrscheinlich, dass Sie kommerzielle Programme in FTP-Archiven finden, da Lizenzvereinbarungen ihre offene Verbreitung verbieten. Aber Sie finden Shareware und öffentlich verfügbare Software. Hierbei handelt es sich um verschiedene Kategorien: Public-Domain-Programme sind wirklich kostenlos, während bei Shareware eine Zahlung an den Autor erforderlich ist, wenn Sie sich nach einer Testphase dazu entschließen, das Programm zu behalten und zu nutzen. Sie werden auch auf sogenannte kostenlose Programme stoßen; Ihre Urheber behalten das Urheberrecht, gestatten jedoch die Nutzung ihrer Werke ohne Bezahlung. Um FTP-Archive anzuzeigen und die darauf gespeicherten Dateien abzurufen, können Sie spezielle Programme verwenden – WS_FTP, CuteFTP oder die WWW-Browser Netscape Navigator und Internet Explorer – sie enthalten integrierte Tools für die Arbeit mit FTP-Servern.


Remote-Anmeldung – Fernzugriff – Arbeiten auf einem Remote-Computer in einem Modus, in dem Ihr Computer das Terminal des Remote-Computers emuliert, d. h. Sie können alles (oder fast alles) tun, was Sie von einem normalen Terminal aus auf dem Computer tun können, mit dem Sie eine Fernzugriffssitzung eingerichtet haben. Das Programm, das Remote-Sitzungen verwaltet, heißt Telnet. Telnet verfügt über eine Reihe von Befehlen, die die Kommunikationssitzung und ihre Parameter steuern. Die Sitzung wird durch die gemeinsame Arbeit der Software auf dem Remote-Computer und Ihrem sichergestellt. Sie bauen eine TCP-Verbindung auf und kommunizieren über TCP- und UDP-Pakete. Das Telnet-Programm ist in Windows enthalten und wird zusammen mit der Unterstützung für das TCP/IP-Protokoll installiert.


Ein Proxy-Server („Near-Server“) dient zum Speichern von Informationen, auf die Benutzer häufig auf einem lokalen System zugreifen. Wenn Sie über einen Proxyserver eine Verbindung zum Internet herstellen, werden Ihre Anfragen zunächst an dieses lokale System weitergeleitet. Der Server holt sich die benötigten Ressourcen und stellt sie Ihnen zur Verfügung, während gleichzeitig eine Kopie gespeichert wird. Wenn Sie erneut auf dieselbe Ressource zugreifen, wird eine gespeicherte Kopie bereitgestellt. Dadurch wird die Anzahl der Remote-Verbindungen reduziert. Der Einsatz eines Proxyservers kann die Zugriffsgeschwindigkeit leicht erhöhen, wenn der Kommunikationskanal Ihres Internetproviders nicht effizient genug ist. Wenn der Kommunikationskanal leistungsstark genug ist, kann die Zugriffsgeschwindigkeit sogar etwas sinken, da beim Abrufen einer Ressource statt einer Verbindung vom Benutzer zum Remotecomputer zwei hergestellt werden: vom Benutzer zum Proxyserver und vom Proxyserver zum Remote-Computer.
Der Begriff TCP/IP bezieht sich normalerweise auf alles, was mit den TCP- und IP-Protokollen zusammenhängt. Es deckt eine ganze Familie von Protokollen, Anwendungsprogrammen und sogar das Netzwerk selbst ab. Die Familie umfasst die Protokolle UDP, ARP, ICMP, TELNET, FTP und viele andere. TCP/IP ist eine Internetworking-Technologie. Das IP-Modul erstellt ein einziges logisches Netzwerk. Die TCP/IP-Protokollarchitektur ist für ein integriertes Netzwerk konzipiert, das aus separaten heterogenen Paket-Subnetzen besteht, die durch Gateways miteinander verbunden sind, an die heterogene Maschinen angeschlossen sind. Jedes der Teilnetze agiert nach seinen eigenen spezifischen Anforderungen und verfügt über eine eigene Art von Kommunikationsmedien. Es wird jedoch davon ausgegangen, dass jedes Subnetz ein Informationspaket (Daten mit dem entsprechenden Netzwerk-Header) annehmen und an eine angegebene Adresse in diesem bestimmten Subnetz senden kann. Das Subnetz muss keine obligatorische Paketzustellung gewährleisten und über ein zuverlässiges Übertragungsprotokoll verfügen. Auf diese Weise können zwei Maschinen, die mit demselben Subnetz verbunden sind, Pakete austauschen. Wenn ein Paket zwischen Maschinen übertragen werden muss, die mit verschiedenen Subnetzen verbunden sind, sendet die sendende Maschine das Paket an das entsprechende Gateway (das Gateway ist wie ein normaler Knoten mit dem Subnetz verbunden). Von dort aus wird das Paket entlang einer bestimmten Route durch ein System von Gateways und Subnetzen geleitet, bis es ein Gateway erreicht, das mit demselben Subnetz wie der empfangende Computer verbunden ist. dort wird das Paket zum Empfänger weitergeleitet. Das Problem der Paketzustellung in einem solchen System wird durch die Implementierung des Internet Protocol IP in allen Knoten und Gateways gelöst. Die Internetwork-Schicht ist im Wesentlichen das Grundelement der gesamten Protokollarchitektur und bietet die Möglichkeit, Protokolle der oberen Schicht zu standardisieren.


Die logische Struktur der Netzwerksoftware, die die TCP/IP-Protokollfamilie in jedem Knoten des Internetnetzwerks implementiert, ist in Abb. dargestellt. 1. Die Rechtecke stellen die Datenverarbeitung dar, und die die Rechtecke verbindenden Linien stellen Datenübertragungspfade dar. Die horizontale Linie unten in der Abbildung stellt ein Ethernet-Kabel dar, das als Beispiel für ein physisches Medium dient. Das Verständnis dieser logischen Struktur ist die Grundlage für das Verständnis aller Internettechnologien. Reis. 1 Aufbau von Protokollmodulen in einem TCP/IP-Netzwerkknoten


Lassen Sie uns einige Grundbegriffe einführen, die wir später verwenden werden. Ein Treiber ist ein Programm, das direkt mit einem Netzwerkadapter interagiert. Ein Modul ist ein Programm, das mit einem Treiber, Netzwerkanwendungen oder anderen Modulen interagiert. Der Netzwerkadaptertreiber und möglicherweise andere für das physische Datennetzwerk spezifische Module stellen eine Netzwerkschnittstelle für die TCP/IP-Protokollmodulfamilie bereit. Der Name eines über ein Netzwerk übertragenen Datenblocks hängt davon ab, auf welcher Ebene des Protokollstapels er sich befindet. Der Datenblock, den die Netzwerkschnittstelle verarbeitet, wird Frame genannt. Befindet sich der Datenblock zwischen der Netzwerkschnittstelle und dem IP-Modul, spricht man von einem IP-Paket. liegt es zwischen einem IP-Modul und einem UDP-Modul, dann handelt es sich um ein UDP-Datagramm; wenn zwischen einem IP-Modul und einem TCP-Modul, dann – ein TCP-Segment (oder eine Transportnachricht); Befindet sich der Datenblock schließlich auf der Ebene von Netzwerkanwendungsprozessen, wird er als Anwendungsnachricht bezeichnet. Diese Definitionen sind natürlich unvollkommen und unvollständig. Darüber hinaus ändern sie sich von Veröffentlichung zu Veröffentlichung. Betrachten wir die Datenflüsse, die den in Abb. gezeigten Protokollstapel durchlaufen. 1. Bei Verwendung des TCP-Protokolls (Transmission Control Protocol) werden Daten zwischen dem Anwendungsprozess und dem TCP-Modul übertragen. Ein typischer Anwendungsprozess, der das TCP-Protokoll verwendet, ist das FTP-Modul (File Transfer Protocol). Der Protokollstapel ist in diesem Fall FTP/TCP/IP/ENET. Bei Verwendung des UDP (User Datagram Protocol) werden Daten zwischen dem Bewerbungsprozess und dem UDP-Modul übertragen. Beispielsweise nutzt SNMP (Simple Network Management Protocol) UDP-Transportdienste. Sein Protokollstapel sieht folgendermaßen aus: SNMP/UDP/IP/ENET. Lassen Sie uns einige Grundbegriffe einführen, die wir später verwenden werden.


Wenn ein Ethernet-Frame in den Ethernet-Netzwerkschnittstellentreiber gelangt, kann er entweder an das ARP-Modul (Address Resolution Protocol) oder das IP-Modul (Internet Protocol) gesendet werden. Wohin ein Ethernet-Frame gesendet werden soll, wird durch den Wert des Typfelds im Frame-Header angezeigt. Erreicht ein IP-Paket das IP-Modul, können die darin enthaltenen Daten entweder an das TCP- oder UDP-Modul übertragen werden, was durch das Protokollfeld im IP-Paket-Header bestimmt wird. Wenn ein UDP-Datagramm in ein UDP-Modul gelangt, bestimmt der Wert des Portfelds im Datagramm-Header das Anwendungsprogramm, an das die Anwendungsnachricht gesendet werden soll. Wenn eine TCP-Nachricht das TCP-Modul erreicht, wird das Anwendungsprogramm, an das die Nachricht gesendet werden soll, basierend auf dem Wert des Portfelds im TCP-Nachrichtenheader ausgewählt. Die Datenübertragung in die entgegengesetzte Richtung ist recht einfach, da es von jedem Modul nur einen Weg nach unten gibt. Jedes Protokollmodul fügt dem Paket seinen eigenen Header hinzu, auf dessen Grundlage die Maschine, die das Paket empfangen hat, das Demultiplexen durchführt. Daten aus dem Anwendungsprozess durchlaufen die TCP- oder UDP-Module, gelangen dann in das IP-Modul und von dort zur Netzwerkschnittstellenschicht. Obwohl die Internettechnologie viele verschiedene Kommunikationsmedien unterstützt, gehen wir hier von der Verwendung von Ethernet aus, da dieses Medium am häufigsten als physische Basis für ein IP-Netzwerk dient. Die Maschine in Abb. 1 verfügt über einen Ethernet-Anschlusspunkt. Die sechs Byte lange Ethernet-Adresse ist für jeden Netzwerkadapter eindeutig und wird vom Treiber erkannt. Das Gerät verfügt außerdem über eine vier Byte lange IP-Adresse. Diese Adresse bezeichnet den Netzwerkzugangspunkt auf der IP-Modulschnittstelle mit dem Treiber. Die IP-Adresse muss im gesamten Internet eindeutig sein. Eine laufende Maschine kennt immer ihre IP-Adresse und Ethernet-Adresse.


Nachwort Die Möglichkeiten des Internets sind so vielfältig, wie die Vorstellungskraft eines Menschen nur reicht. Die Netzwerktechnologie hat sich bereits ernsthaft als beste Informationsquelle etabliert. Denken Sie nicht, dass alle Veränderungen im Internet hinter uns liegen. Dem Namen und der geografischen Lage nach ist das Internet ein Netzwerk, aber es ist ein Produkt der Computerindustrie und nicht der traditionellen Telefon- oder Fernsehindustrie. Damit das Internet auf dem neuesten Stand bleibt, muss und wird sich der Wandel fortsetzen, und die weitere Entwicklung wird im gleichen Tempo wie die Computerindustrie weitergehen. Die heutigen Veränderungen zielen auf die Bereitstellung neuer Dienste wie der Echtzeit-Datenübertragung ab. Die flächendeckende Verfügbarkeit von Netzwerken und vor allem des Internets in Kombination mit leistungsstarken, kompakten und erschwinglichen Computer- und Kommunikationstools (PC-Notebooks, bidirektionale Pager, persönliche digitale Assistenten, Mobiltelefone usw.) ermöglicht die Entwicklung neuer Methoden des mobilen Computings und Kommunikation. Deshalb ist es heute besonders wichtig, unsere Aufmerksamkeit auf diese technologische Perspektive zu richten und zu versuchen, alles dafür zu tun, dass das Internet im Bildungsbereich umfassend genutzt wird. Literatur


Informationen wurden vom globalen Netzwerk unter den folgenden Adressen erhalten: support/internet.htm museums/internet/index.htm

Zu den am häufigsten diskutierten Themen in der Informationstechnologiebranche (IT): Gigabit-Ethernet vs. ATM, Windows NT vs. alle anderen, Intranets usw. An der Diskussion nahmen teil: Daniel Brier und Christine Heckart, Präsident und Direktor von TeleChoice, jeweils; Scott Bradner, Berater für Informationstechnologie an der Harvard University; Tom Noll, Präsident der CIMI Corporation; Mark Gibbs, Präsident von Gibbs & Co.; Dave Kerns ist ein freiberuflicher Journalist und Berater mit Sitz in Austin, NY. Texas.

NW: Vielen Lesern fällt es schwer, sich für eine Strategie zum Aufbau eines lokalen Netzwerk-(LAN-)Backbones zu entscheiden. Gigabit-Ethernet, ATM, Fast Ethernet, IP-Switching – Technologien gibt es genügend, doch die Hauptentwicklungsrichtung in diesem Bereich ist unklar. Welche Aspekte sollten Netzwerkadministratoren bei der Planung ihres Netzwerks der nächsten Generation berücksichtigen?

Noll: Das zentrale Thema ist die Skalierbarkeit. Die beste Backbone-Technologie wird eine sein, die ohne großen Zeit- und Geldaufwand in bestehende Netzwerke integriert werden kann. Das bedeutet, dass sowohl ATM als auch Gigabit-Ethernet Verwendung finden werden, wenn sie etwa gleich viel kosten. Die Kostenkontrolle wird zu einem wichtigen Anliegen.

Gibbs: Die Hauptfrage ist: Können Sie es sich leisten? Allen größeren Umsetzungen müssen Pilotprojekte vorausgehen. In den nächsten sechs Monaten werden die wichtigsten Aspekte der neuen Ära der Hocdeutlicher zum Vorschein kommen. Wir werden herausfinden, welche Standards verabschiedet werden, welche Hersteller stabil sein werden und wie problematisch diese Technologien hinsichtlich der Implementierung und der anschließenden Wartung sind.

Heckart: Bei einer Entscheidung in diesem Bereich sind nur drei Hauptaspekte zu berücksichtigen: Preis, Leistung und Haltbarkeit. Das Problem besteht darin, dass Analysten über diese Dinge in absoluten Zahlen sprechen, Netzwerkadministratoren jedoch nicht. Es hängt alles von der spezifischen Netzwerkumgebung, den verwendeten Anwendungen, den Aufgaben, dem zugewiesenen Budget usw. ab.

Was für ein Unternehmen (oder sogar eine Gruppe von Benutzern) gut genug funktioniert, ist für ein anderes Unternehmen möglicherweise nicht stichhaltig. Sie müssen definieren, was „gut genug“ bedeutet, und dann eine Lösung implementieren, die kostengünstig genug ist, gut genug funktioniert und lange genug hält, um den Herausforderungen von heute und der absehbaren Zukunft gerecht zu werden. Die Probleme, auf die viele Benutzer stoßen, werden durch ihre Versuche verursacht, herauszufinden, was das Beste ist. Aber das „Beste“ ändert sich jede Woche und kann nicht realisiert werden, weil es dann nicht mehr das Beste sein wird.

Dornbusch: Zu viele Manager versuchen, homogene Lösungen zu finden, während die besten Ergebnisse normalerweise durch die Kombination verschiedener Technologien erzielt werden. Viele Unternehmen werden eine Kombination aus ATM, Fast Ethernet und Ethernet (oder einer anderen Kombination) finden, da unterschiedliche Büros und Benutzergruppen unterschiedliche Anforderungen haben. Die Hauptsache ist, dass die Wahl der Lösung auf tatsächlichen Bedürfnissen basiert und nicht auf dem Versuch, die neueste und beste Technologie zu implementieren.

Steinhaufen: Die überwiegende Mehrheit der bestehenden Netzwerkverbindungen basiert auf der Ethernet-Technologie, und dies wird auch in Zukunft so bleiben. Derzeit gibt es keine zwingenden Gründe, auf eine andere Technologie zur Organisation von Autobahnen umzusteigen. Zehn Megabit für Desktop-Verbindungen und 100 Mbit/s für Backbone-Verbindungen „funktionieren“ (und sind nicht schlecht) in den meisten bestehenden Netzwerken weiterhin. Die Planung, für das Backbone auf Gigabit-Ethernet und für die Hauptteile des Netzwerks (und schließlich auch für Desktop-Systeme) auf 100 Mbit/s umzusteigen, erscheint durchaus sinnvoll.

Der Trick besteht darin, dass die Netzwerkbandbreite nicht immer der Engpass ist. Die Leistung von Servern, Routern, Switches, Festplattenkanälen, Busgeschwindigkeit, Puffervolumina und fünf oder sechs anderen Dingen erfordern nicht weniger große Aufmerksamkeit. Zu „fette“ Kanäle verschwenden einfach Ressourcen.

Bradner: Ich würde sagen, dass das größte Problem für Netzwerkdesigner die Kombination aus teilweisem Bewusstsein und völliger Überzeugung ist, dass sie Recht haben. Zu viele Entscheidungen über die Richtung der Unternehmensvernetzung wurden auf der Grundlage allgemeiner Überlegungen getroffen und nicht auf der Grundlage einer Analyse der tatsächlichen Bedürfnisse der bestehenden Netzwerkgemeinschaft. Jemand im Management las einen Bericht eines großen Beratungsunternehmens, in dem es hieß: „ATM ist die Antwort“ (was genau war die Frage?) und traf eine entsprechende Entscheidung. In Wirklichkeit hätte eine technische Analyse der spezifischen Netzwerkanforderungen und ein Design entsprechend den Ergebnissen dieser Analyse durchgeführt werden sollen. Viele Technologien sind vielversprechend, weil jedes Netzwerk anders ist.

NW: ATM vs. Gigabit Ethernet – echte Rivalität oder Unsinn?

Noll: In Wirklichkeit handelt es sich um einen Wettbewerb verschiedener Netzwerkplanungsparadigmen, der oft als Technologiewettbewerb dargestellt wird. Das Gigabit-Ethernet-Paradigma besagt: „Investieren Sie in Bandbreite, nicht in deren Verwaltung, denn sie ist kostengünstig genug, um die Anforderungen Ihres Netzwerks mehr als zu erfüllen.“ Und das ATM-Paradigma lautet: „Die Verwaltung der Bandbreite ist sehr wichtig; die Bandbreite darf nicht dem Zufall überlassen werden, daher benötigen Sie eine Netzwerkarchitektur, die es Ihnen ermöglicht, sie zu kontrollieren.“ Der Preis mag zwar ein entscheidender Faktor sein, Käufer werden jedoch stark von der Einfachheit des Ansatzes von Gigabit-Ethernet angezogen. Das Problem ist, dass wir uns wünschen, dass dieser Wettbewerb auf der Ebene der technischen Möglichkeiten stattfindet, aber in Wirklichkeit kommt es ganz anders.

Gibbs: Diese Rivalität wird durch die enormen Investitionen vorangetrieben, die in bisherige Technologien getätigt wurden. Sollten sich aktuelle Technologien als deutlich einfacher und günstiger erweisen, verspricht der Umstieg auf sie solide Erträge für die Hersteller. Die Hersteller von Geldautomatenprodukten möchten nicht, dass das in diese Technologie investierte Geld verschwendet wird, und werden versuchen, die Hersteller von Gigabit-Ethernet-Produkten mit Steinen zu bewerfen.

Heckart: Die Absurdität dieser und anderer Probleme im Zusammenhang mit Geldautomaten besteht darin, dass Aussagen, die nur von der Netzwerkelite wahrgenommen werden konnten, von der breiten Öffentlichkeit zunehmend übertrieben werden. Tatsächlich ist dies eine Frage für ein begrenztes Kontingent. Allerdings hat Gigabit-Ethernet eine stabilere Basis, mehr Unterstützer, bessere Übertragungskanäle und praktisch alles, was man braucht, um den Krieg zu gewinnen. ATM verfügt über eine agilere Armee, die mit ausgefeilteren Waffen ausgestattet ist – aber Zahlen und die richtige Positionierung gewinnen normalerweise.

Für jeden Käufer, der die zusätzlichen Funktionen, die Geldautomaten bieten – wie z. B. garantierte Servicequalität (QoS) – nicht benötigt, besteht die einfachste Lösung darin, eine Technologie zu wählen, die praktisch genug ist, um bestehende Probleme zu lösen. Unbegrenzte Bandbreite löst viele Netzwerkprobleme, wenn auch nicht alle, und Gigabit-Ethernet bietet für die meisten Netzwerkumgebungen genau unbegrenzte Bandbreite.

Dornbusch: Dies ist ein klassisches Beispiel für einen eleganten Ansatz, der mit etablierten Ansichten konkurriert. Um einen Krieg zu gewinnen, reicht es aus, die meisten Schlachten zu gewinnen. Viele Projekte wurden auf Basis von ATM umgesetzt – von Netzwerken von Telekommunikationsunternehmen bis hin zu Firmen- und Homeoffices. Netzbetreiber wie Ameritech, PacBell, SBC und BellSouth haben bereits erkannt, dass die Geldautomatentechnologie für Unternehmen und Heimbüros sehr vielversprechend sein kann. Die Frage ist nun, wie weit diese Technologie in Heim- und Büronetzwerke vordringt. Wenn Sie zu Hause einen Geldautomaten verwenden, um fünf Geräte anzuschließen, handelt es sich dann nicht um ein Heim-LAN? Vielleicht. Deshalb werden Geldautomaten weiter verbreitet sein, als viele denken.

Steinhaufen: Diese Rivalität ist nur aus Marketing-Sicht real, aber wenn man der Werbung keine Beachtung schenkt, liegt die Antwort auf der Hand. Gigabit-Ethernet wird aus demselben Grund zur dominierenden Technologie werden, aus dem 10-Mbit/s-Ethernet Token Ring und 100-Mbit/s-Ethernet FDDI besiegt hat. Immer mehr Netzwerkadministratoren erkennen die Vorteile von Ethernet und fühlen sich bei der Verwendung damit wohler.

Bradner: Der Wettbewerb zwischen den betrachteten Technologien besteht im Bereich der Campus-Backbone-Netzwerke. Es ist leicht zu erkennen, dass Gigabit-Ethernet es einfacher und kostengünstiger (im Vergleich zu ATM) machen wird, die meisten (wenn nicht alle) aktuellen Campus-Backbone-Anforderungen zu erfüllen. Der einzige Zweifel ist QoS. Allerdings werden QoS-Funktionen in heutigen Campus-Netzwerken selten genutzt. Dies liegt daran, dass bestehende Anwendungen sowie die Ethernet- und Token-Ring-Netzwerke, an die fast alle Desktop-Systeme angeschlossen sind, keine QoS-Funktionen unterstützen.

Im Bereich Wide Area Networks (WAN) gibt es keine Konkurrenz. Gigabit-Ethernet unterstützt keine Fernverbindungen (maximal 3 km) und erfordert eine eigene Glasfaserleitung. Ich bezweifle auch, dass es im Gebäude-Backbone-Bereich viel Konkurrenz geben wird, wo Fast Ethernet und Gigabit Ethernet das Potenzial haben, ATM vollständig zu verdrängen.

NW: Heutzutage sprechen viele Leute über netzwerkzentriertes Computing und argumentieren, dass wir von anwendungsintensiven Desktop-Computern zu schlankeren Clients übergehen, auf denen Java-Applets und ActiveX ausgeführt werden. Lohnt es sich, daran zu glauben?

Noll: Unsinn! Nichts weiter als ein weiterer Versuch, die alte Idee der plattenlosen Workstations wiederzubeleben, was bedeutet, „dumme“ Terminals durch „halbdumme“ Netzwerkcomputer zu ersetzen und „intelligente“ PCs zu ersetzen.

Gibbs: Im Prinzip ist alles richtig, allerdings sind damit einige Probleme verbunden. Der Übergang zu Thin Clients ist komplex und es wird lange dauern, bis führende Softwareanbieter ernsthafte Schritte unternehmen, um ihre Produkte auf neue Plattformen zu portieren. Die Idee eines vernetzten Computers ist gut, aber es mangelt ihr an Praktikabilität: Benutzer werden ihren PC nicht in weniger als drei Jahren verlassen können, bis die nächste Generation von Desktop-Anwendungen ausgereift sein wird.

Nicht alle Probleme hängen mit der Verwendung von „fetten“ Anwendungen zusammen. Vernetzte Computer benötigen mehr Netzwerkbandbreite als moderne Anwendungen. Darüber hinaus werden die Anforderungen an die Serverleistung und die Größe des Festplattenspeichers deutlich steigen. Und natürlich – Schutz, Schutz und Schutz. Es ist noch nicht ganz klar, welches Schutzniveau Java-Applets und ActiveX bieten können, obwohl letztere in dieser Hinsicht offenbar weitaus weniger überzeugend sind.

Heckart: Ich würde eher sagen, dass darin etwas Wahres steckt. Jeder weiß, dass das Problem, das vernetzte Computer zu lösen versuchen, tatsächlich existiert. Wir haben es satt, neue Programme zu installieren und dabei festzustellen, dass sie die letzten Zentimeter Speicherplatz auf unserem Computer verschlingen, der vor einem Jahr als der neueste Stand der Technik galt (besonders enttäuschend, wenn man bedenkt, dass 90 % der Funktionalität in diesen unzähligen Codezeilen eingebettet sind). wird in 98 % der Fälle nicht genutzt). Es ist eine großartige Idee, das, was Sie brauchen, genau dann zu laden, wenn Sie es brauchen. Ich denke, vernetzte Computer können die Netzwerkarchitektur, die Art und Weise, wie Software verkauft wird, und Netzwerkdienste verändern. Vielleicht ist das alles zum Besseren.

Dornbusch: Meiner Meinung nach wird die Situation überdramatisiert. Einige unserer Kunden möchten Faxgeräte der nächsten Generation einsetzen, die IP-Netzwerke als Transportmechanismus nutzen. Diese Geräte enthalten Elemente der Computer, von denen Sie sprechen. Wie sollen wir sie nennen – „Thin“-Clients, „schwache“ PCs oder anders? Aber wir nennen sie immer noch Faxgeräte, die ganz spezifische Probleme lösen. Ich möchte noch einmal betonen, dass die Elemente eines Geräts sehr unterschiedliche Eigenschaften haben können und die Kennzeichnung nur Verwirrung stiftet.

Steinhaufen: Heutige Programmierer denken nicht mehr an die Kompaktheit des resultierenden Codes, wie sie es beispielsweise vor 10 bis 15 Jahren taten. Dies führt dazu, dass Benutzer viel Zeit damit verbringen, darauf zu warten, dass einzelne Module moderner Anwendungen aus dem Netzwerk geladen werden, und schließlich aufgeben, sie zu verwenden.

Bradner: An diesen Urteilen ist alles richtig – außer dass die Orientierung an einem homogenen Anforderungskatalog nachvollziehbar ist. Es scheint dringend notwendig zu sein, eine Antwort auf alle bestehenden Fragen zu finden – vielleicht weil die reale Welt zu komplex und chaotisch ist. Vielerorts laufen Anwendungen auf „dummen“ Terminals oder X-Window-Terminals, und das Thin-Client-zu-Netzwerk-Modell funktioniert einwandfrei. Aber es gibt auch viele andere Orte, an denen Benutzer ihre Arbeit perfekt auf lokalen Computern erledigen, die perfekt für ihre Anforderungen geeignet sind und nicht ersetzt werden müssen.

NW: Ein weiteres heißes Thema, das viel diskutiert wird, ist Quality of Service (QoS). Was sind die wichtigsten QoS-Funktionen, die Netzwerkadministratoren berücksichtigen sollten, und was sollten sie tun, um sie zu implementieren?

Bradner: Dies ist eine sehr alte Geschichte, die mindestens bis ins Jahr 1964 zurückreicht, als die Möglichkeit der Schaffung von Datennetzwerken, die auf Paketübertragung statt auf Verbindungsaufbauten basieren, erstmals ausführlich diskutiert wurde. Befürworter des traditionellen Ansatzes verurteilten schon damals die Idee von Netzwerken, die auf der Paketübertragung basieren. Viele Jahre lang (zum Glück liegen sie in der Vergangenheit) argumentierten IBM-Spezialisten, dass es unmöglich sei, ein Unternehmensdatennetzwerk auf Basis von TCP/IP aufzubauen, da dieses Protokoll auf der Übertragung von gerouteten oder vermittelten Paketen basiert; Das Unternehmensnetzwerk, so argumentieren sie, benötige eine garantierte QoS, die nur in verbindungsorientierten Netzwerken erreichbar sei.

Es macht Sinn, über drei Arten von QoS zu sprechen: probabilistische QoS, die mit hoher Wahrscheinlichkeit die Bereitstellung ausreichender Netzwerk- und Serverressourcen garantiert, um bestimmte Aufgaben zu einem bestimmten Zeitpunkt auszuführen; Anwendungsbasiertes QoS, das spezifische Ressourcen für jeden IP-Anruf oder jede ressourcenintensive Anwendung (beim Start) reserviert; Klassenbasierte QoS, die verschiedene Ebenen (Klassen) der Netzwerknutzung definiert und den Netzwerkverkehr für jede Klasse unterschiedlich behandelt.

Probabilistisches QoS wird in modernen Netzwerken recht aktiv eingesetzt und funktioniert besonders gut in Campus-Netzwerken mit hoher Bandbreite. Ich würde klassenbasiertes QoS als den nächsten Schritt in der QoS und On-Demand-QoS als eine spannende Perspektive sehen, bei der es viele Skalierbarkeits-, Authentifizierungs- und Abrechnungsprobleme zu lösen gilt.

Noll: Das Konzept von QoS ist ziemlich klar definiert, obwohl nicht jeder damit einverstanden ist. Spitzen- und durchschnittliche Datenraten, Latenz und ihre zulässigen Schwankungen, akzeptable Fehlerquoten – all dies wird als Schlüsselparameter angesehen. Die Frage ist nicht, was QoS ist, sondern was getan werden muss, um dies sicherzustellen. Es gibt zwei Möglichkeiten: die Bandbreite verwalten oder Geld für den Ausbau ausgeben. Der Netzwerkadministrator muss die Kosten jedes Ansatzes bewerten und deren Vor- und Nachteile abwägen. Er muss jedoch bedenken, dass die Verteilung von Ressourcen wie eine Besteuerung ist – um einigen etwas zu geben, muss man es anderen wegnehmen. Aus diesem Grund ist der Kauf zusätzlicher Bits pro Sekunde für Benutzer ein attraktiver Ansatz.

Heckart: In letzter Zeit hat der Begriff QoS eine sehr unterschiedliche Bedeutung. Leider definieren viele Dienstanbieter QoS auf eine Weise, für deren Verständnis ein Doktortitel erforderlich wäre, und sie benötigen mindestens einen Protokollanalysator, um die QoS-Bereitstellung zu überprüfen. Über welche Vorteile für Endverbraucher können wir dann sprechen?

Sprint hat eine gute Idee, eine bestimmte Servicequalität bereitzustellen, die den spezifischen Anwendungen eines Benutzers entspricht. Und obwohl das Modell selbst noch verbesserungswürdig ist, sollten sich alle Anbieter an das BSP-Prinzip (Keep It Simple, Blockhead!) erinnern. Viele Manager sind besorgt über die Netzwerkverfügbarkeit (Verfügbarkeit), Reaktionszeit und Leistung. Bei einigen Anwendungen, beispielsweise Echtzeit-Sprachübertragung, kann dieser Liste die Netzwerklatenz hinzugefügt werden.

Eine der größten Sorgen von Netzwerkadministratoren im Hinblick auf die neuesten QoS-Spezifikationen besteht darin, dass es praktisch unmöglich ist, nachzuverfolgen, ob das, was Sie erhalten, das ist, was Ihnen versprochen wurde. Ein idealer Anbieter sollte klar definieren, was er unter dem Konzept von QoS versteht, dem Kunden die Möglichkeit bieten, die Umsetzung der Servicequalität zu überprüfen, sowie ein System automatischer Strafen für die Nichterbringung des vereinbarten Serviceniveaus. Der Vorteil von QoS besteht darin, dass Benutzer Dienste intelligenter auswählen und besser verstehen können, welche Verbindungstypen (Frame Relay, Mietleitungen oder ATM) den Anforderungen eines bestimmten Büros oder einer bestimmten Anwendung am besten entsprechen.

Dornbusch: Ich betrachte QoS im Zusammenhang mit ATM/WAN-Netzwerken, bei denen einzelnen Anwendungen unterschiedlicher Zugriff auf Ressourcen gewährt wird, je nachdem, was sie tun möchten. Um QoS nutzen zu können, müssen Netzwerkadministratoren ihre Anforderungen quantifizieren. Dadurch erlangen sie wieder ein wirkliches Verständnis für die Bedürfnisse jedes einzelnen Büros und jeder Anwendung und machen ihnen klar, dass es keine Lösung gibt, die für alle passt.

Steinhaufen: Für den Benutzer bedeutet QoS: „Kann ich tun, was ich will, wann ich will?“ Für einen Netzwerkadministrator bedeutet dies Begriffe wie „Zugriff“ (100-prozentige Verfügbarkeit aller Dienste durch Clustering und Redundanz), „Leistung“ (vorhersehbarer Durchsatz jederzeit und überall) und „Verzeichnisdienste“ (einfacher Zugriff auf Objekte und Dienste). . .

NW: Kommen wir noch einmal kurz auf die Frage der „Thin Clients“ zurück. Hersteller von NetPC und NC versprechen, die Kosten für die Verwaltung von Netzwerken und Systemen zu senken. Werden sie wirklich in der Lage sein, die erwarteten großen Einsparungen zu erzielen, oder werden sie die Kosten einfach auf Netzwerke und Server verlagern?

Steinhaufen: Es gibt einen großen Unterschied zwischen NetPC und NC. NC erfordert leistungsfähigere Server und eine höhere Netzwerkbandbreite. Aber in jedem Fall sind Ausgaben unvermeidlich – für neue Ausrüstung und Infrastruktur, für Schulung und Support.

Noll: Schicken Sie NetPC und NC nach plattenlosen Workstations auf den Müllhaufen. Verwandeln Sie sich in Heizkörper oder lustige Hightech-Metallcollagen, die auf Betonsockeln vor der Firmenzentrale montiert sind. NC ist ein Ersatz für „dumme“ Terminals und NetPC ist nichts weiter als ein Werbehype.

Gibbs: Es gibt noch keinen Katalog von Anwendungen und Werkzeugen, die uns an die Realität der Existenz vernetzter Computer glauben lassen könnten. Darüber hinaus ist mit sehr hohen Kosten für die Modernisierung der Infrastruktur zu rechnen. Da die meisten Unternehmen zwei bis drei Jahre benötigen, bis sich ihre Investition vollständig amortisiert hat, ist der Einsatz vernetzter Computer vorerst nur auf Testsystemebene sinnvoll. Echte Experimente wurden noch nicht durchgeführt und könnten sich als von unschätzbarem Wert erweisen. Natürlich müssen wir die Marktentwicklung weiterhin beobachten, aber ich würde empfehlen, nicht zu aufgeregt zu sein, bis es echte Anwendungen und fertige Systeme auf Basis von NC oder NetPC gibt und nicht nur nackte Boxen.

Bradner: Ich sehe keinen großen Unterschied zwischen NetPC, NC und Terminals und bezweifle, dass es große Preisunterschiede geben wird. Es ist unwahrscheinlich, dass das Unternehmen wirklich Geld sparen kann, wenn es die alten 3270-Terminals wegwirft und durch NC-Computer ersetzt (es sei denn, man berücksichtigt die Einsparungen, die durch die Nichtreparatur des 3270 entstehen). Ich bezweifle auch, dass der Umstieg von „echten“ PCs auf NetPC oder NC nennenswerte Einsparungen bringen wird. Die allgemeinen Kosten sind bekannt – Schulung, Software usw. Ich denke, diese und viele andere Kosten werden alles ins Gleichgewicht bringen.

NW: Einigen Leuten zufolge scheint es, als seien Intranets die heutige Unternehmens-Computing-Plattform. Welche Schritte sollten relevante Fachleute unternehmen, um der Erstellung eines Intranets nahe zu kommen? Welche Anwendungen bleiben für immer „hinter“ dem Intranet? Was ist der größte Fehler, wenn es um Intranets geht?

Heckart: Intranets eignen sich gut für Organisationen, die einer großen Anzahl von Mitarbeitern Zugriff auf Informationen ermöglichen oder die elektronische Kommunikation organisieren müssen. Aus diesem Grund müssen Sie zunächst das Netzwerk selbst erstellen. Der größte Fehler beim Aufbau eines Intranets ist das Fehlen eines klaren Verständnisses darüber, was erreicht werden muss und was dementsprechend getan werden muss. Dies führt dazu, dass viele separate Intranets für unterschiedliche Benutzergruppen erstellt werden und unterschiedliche Netzwerkressourcen nutzen, wodurch die Gesamtkosteneinsparungen reduziert oder ganz eliminiert werden.

Noll: Ich weiß nicht, wer ein Intranet als Unternehmens-Computing-Plattform betrachten würde. Nach der Durchführung spezieller Umfragen haben wir herausgefunden, dass zwar mehr als 90 % der Unternehmen behaupten, der Idee von Intranets verpflichtet zu sein, aber nur 7 % wirklich verstehen, was ein Intranet ist und wie es sich von regulären Unternehmensinformationen oder IP unterscheidet Netzwerk. Wenn man versucht, objektiv zu bewerten, was ein Intranet ist, wird deutlich, dass es keine Einschränkungen für die Nutzung von Anwendungen auferlegt (die in anderen Datennetzen inhärenten davon ausgenommen), mit Ausnahme der Kosten.

Gibbs: Anwendungen mit erheblichen Datenbankanforderungen und Anwendungen mit sehr komplexer Funktionalität, wie z. B. Echtzeit-Multimedia, werden niemals Intranet-kompatibel sein.

Dornbusch: Der größte Fehler bei Intranets besteht darin, anzunehmen, dass Details übersehen werden. Meiner Meinung nach sollte ein guter Manager das Intranet ganz allgemein definieren – als die Sammlung von Informationen, die innerhalb einer Organisation ausgetauscht werden – und beginnen, die Vorteile zu priorisieren, die am schnellsten und effektivsten durch die Umstellung auf die interne Informationsautobahn erreicht werden können Intranet.

Steinhaufen: Ein Intranet ist eine gute Möglichkeit, den Papierverbrauch zu reduzieren und den zeitnahen Zugriff auf die benötigten Informationen sicherzustellen. Zu den besten Einsatzmöglichkeiten für Intranets gehören heute Personalwesen, Marketingkommunikation, die Automatisierung von Fragebögen (z. B. Reiseberichte oder Urlaubsanträge) und Projektmanagement – ​​Bereiche, in denen Sie herkömmliche Betriebsinformationen mit Data Warehouses kombinieren können. Dateneingabeanwendungen sind jedoch noch nicht für den Einsatz in Intranets geeignet.

Ein Intranet sollte Benutzer nicht weniger anziehen als Internetseiten. Dazu ist es notwendig, den Designaspekten und der Qualität der erbrachten Dienstleistung besondere Aufmerksamkeit zu schenken. Schlechtes Design ist ein schwerwiegender Fehler.

Bradner: Intranets sind ein weiteres Beispiel dafür, dass etwas als Einheitslösung präsentiert wird, ohne die tatsächlichen Bedürfnisse zu berücksichtigen. Für die meisten Menschen sind Intranets webbasierte Netzwerkdienste. Heute versuchen sie jedoch, sie als eine einzige Antwort auf alle Fragen darzustellen. Ich denke, dass TCP/IP in den nächsten Jahren das primäre Netzwerkprotokoll für praktisch alle Unternehmensnetzwerke werden wird; Die Alternative wäre nur SNA (in Altsystemen). Aber ich bin nicht bereit, mit der gleichen Zuversicht darüber zu sprechen, welche Anwendungen verwendet werden. Grundsätzlich können Anwendungen mit komplexer Datenverarbeitung in Web- und Java-basierten Systemen untergebracht werden, in vielen Fällen wird jedoch eine dedizierte Desktop-Software die weitaus geeignetere Lösung bleiben.

NW: Viele unserer Leser möchten langfristig dazu übergehen, das Internet als Rückgrat für ein verteiltes Unternehmensnetzwerk zu nutzen. Ist das eine vernünftige Aufgabe?

Noll: Diese Ansicht basiert auf einer Reihe unrealistischer wirtschaftlicher Annahmen. Die Leute sehen, dass sie für 20 US-Dollar unbegrenzten Internetzugang erhalten können. pro Monat und denke: „Wenn ich für 20 Dollar eine Geschwindigkeit von 28 kbps bekomme, dann sollte ich für 140 Dollar einen T-1-Kanal bekommen können.“ Bandbreite „kostet Geld“ und irgendjemand zahlt immer dieses Geld. Im Internet findet eine Art Subventionierung statt: Nutzer, die das Internet nutzen, zahlen wenig für diejenigen, die es aktiv nutzen. Wenn amerikanische Unternehmen uneingeschränkten Zugang zum Internet erhalten, werden die Dienstanbieter innerhalb einer Woche pleitegehen. Die Internetpreise sollten nicht sinken. Einigen Kunden werden ermäßigte Tarife angeboten, dies ist jedoch nur möglich, wenn eine begrenzte Anzahl von Personen davon profitiert.

Gibbs: Ja, der wirtschaftliche Reiz ist vorhanden, und in Kombination mit virtuellen privaten Netzwerken (VPNs) und der Bereitschaft von Internetanbietern, Verträge für garantierte QoS abzuschließen, sieht das alles sehr plausibel aus. Unternehmen müssen sich so schnell wie möglich von ihren privaten Netzwerkinfrastrukturen verabschieden.

Heckart: Unternehmen möchten ihr Netzwerk kostengünstig und allgegenwärtig machen, damit es für viele Aufgaben genutzt werden kann. Für einige Remote-Büros ist das Internet in dieser Funktion gut geeignet, für andere Büros und Anwendungen jedoch nicht, aber morgen könnte sich diese Situation ändern.

Die Branche wird wahrscheinlich mehrere miteinander verbundene Intranets, Extranets und Internets schaffen, die darauf ausgelegt sind, unterschiedliche Anwendungen und Benutzergemeinschaften zu unterstützen. Ähnliche Netze werden in den nächsten Jahren entstehen und die heute genutzten privaten und öffentlichen Netze für Sprache, Fax, Video und Daten weitgehend ersetzen. Die von diesen Netzwerken bereitgestellten Dienste werden nicht billig sein, aber ihre Kosten werden um mehrere Größenordnungen niedriger sein als die aktuellen Kosten privater Netzwerke.

Das Haupthindernis für diese glänzende Zukunft ist nicht die Technologie, sondern die enormen Gewinne der derzeitigen Dienstleister, deren Aktivitäten durch den Übergang zu internetbasierten Diensten erheblich eingeschränkt werden.

Dornbusch: Es gibt keinen Grund, warum Intranetanwendungen nicht auf die gleiche Weise über Frame Relay- und ATM-Netzwerke aufgerufen werden können. Warum sie aufgeben? Sie verfügen über Lösungen, auf die aus verschiedenen Netzwerken zugegriffen werden kann, und es wäre ein Fehler, dafür nur das Internet zu verwenden. Dies ist nur ein möglicher Transportmechanismus.

Steinhaufen: Es ist zum jetzigen Zeitpunkt nicht ratsam, dies zu tun, da Sie sonst die Kontrolle des Unternehmens über die Nutzung des Unternehmens-Backbones verlieren. Das Internet sollte bestenfalls als Backup-Kanal betrachtet werden, der im Falle eines Ausfalls des privaten Backbones genutzt werden kann. Ein paar Dollar zu sparen ist es nicht wert, auf die Zuverlässigkeit, Kontrolle und Sicherheit zu verzichten, die private Netzwerke bieten. Das ist so, als würde der CIO sein Auto stehen lassen und den Bus nehmen ...

Bradner: Würden wir uns besser fühlen, wenn das Internet als nationale Informationsinfrastruktur bezeichnet würde, die von einem Telekommunikationsunternehmen bereitgestellt wird? Das ist genau das, was das Internet wird, und genau das, was die Befürworter der Nationalen Informationsinfrastruktur, die vor einigen Jahren von Regierung und Presse so stark vorangetrieben wurde, als Ersatz für das Internet vorgeschlagen haben. Ich stimme der Behauptung nicht zu, dass private Netzwerke über einige Fähigkeiten verfügen, die das Internet nicht bieten kann – insbesondere wenn man bedenkt, dass fast alle Weitverkehrsnetzwerke von Unternehmen TCP/IP verwenden. Aufgrund des Funktionsumfangs ist es sehr schwierig, zwischen privaten Netzwerken und öffentlichen TCP/IP-Netzwerken zu unterscheiden. Ich gehe davon aus, dass klassenbasierte QoS-Funktionen in den nächsten Jahren im Internet weit verbreitet sein werden und damit einen der letzten wesentlichen Vorteile privater Datennetze gegenüber öffentlichen zunichte machen werden.

NW: Wird Windows NT die Welt erobern? Gibt es wesentliche Nachteile dieses Betriebssystems?

Noll: NT hat bereits die Welt erobert, aber die Hersteller von Unix-Systemen wissen noch nicht, dass sie aus dem Spiel sind. Das Erkennen von Fehlern ist wichtig, aber das wichtigste Merkmal jedes Betriebssystems ist die Einstellung der Benutzer dazu. Und sie behandeln NT besser als alle anderen Server oder Mehrbenutzersysteme. Unix-Fans, schickt eure bösen E-Mails in die ganze Welt! Ich sage nur die Zukunft voraus, aber ich schaffe sie nicht.

Gibbs: Das Anti-Microsoft-Lager, das die „Java“-Flagge hisst, ist sehr aktiv, und indirekt schadet dies NT. Es besteht kein Zweifel daran, dass NT 4.0 ein großartiges Betriebssystem ist, aber es kann nicht alle Anforderungen erfüllen, indem es NetWare und Unix ersetzt. Ich würde NT eine dominante Stellung zugestehen, aber den endgültigen Sieg nicht zusprechen.

Steinhaufen: NT ist ein guter Ersatz für Unix auf dem Anwendungsservermarkt. Aber dieses Betriebssystem ist noch weit davon entfernt, eine beherrschende Stellung auf dem Markt für Netzwerk-Betriebssysteme einzunehmen. Dies kann jedoch nicht der Fall sein, da es den Anschein hat, dass Microsoft sich noch nicht mit der Vernetzung beschäftigt hat. Dieser Desktop-Softwarehersteller wird es immer bleiben.

Der Bereich Teder Internationalen Fernmeldeunion (ITU-T) geht davon aus, dass zukünftige Netzwerke, FN (Future Networks), vor 2020 erscheinen sollten.

Ihr grundlegender Unterschied zu modernen Netzen (NGN) besteht darin, dass sie in der Lage sind, neue Informations- und Kommunikationsdienste bereitzustellen, die mit bestehenden Netzwerktechnologien nur schwer umzusetzen sind.

Seitdem die ersten beiden ITU-T-Empfehlungen – Y.2001 und Y.2011 – bezüglich der neuen Entwicklungsrichtung der Telekommunikation, Netze der nächsten Generation, NGN (Next Generation Networks) auf den Seiten von „ICS“ analysiert wurden () , diese Netzwerke sind in den ITU-T-Vorschriften ziemlich vollständig standardisiert (in der speziellen Y.2000-Reihe gibt es bereits 124 Empfehlungen für diese Netzwerke*), Betreiber bauen und betreiben sie erfolgreich**.

Die Arbeit an der Standardisierung zukünftiger FNs wurde 2009 von der ITU-T initiiert. Die Studiengruppe SG13 entwickelte die ersten FN-Empfehlungen in einer neuen Reihe von ITU-T-Empfehlungen, Y.3000-3499. Derzeit wurden in dieser Reihe bereits neun Empfehlungen ausgesprochen, vier weitere Dokumente sind in der Diskussion***. Der Artikel ist einem kurzen Überblick über die ITU-T-Empfehlungen für zukünftige Netzwerke gewidmet.

Aufgaben und Ziele für den Aufbau zukünftiger Netzwerke

Die Empfehlung Y.3001 beschreibt die wichtigsten Bestimmungen künftiger Netzwerke und 12 Ziele für deren Schaffung, die in vier Grundsegmente unterteilt sind (Abb. 1). Einige Aufgaben wie Netzwerkmanagement, Mobilität, Identifizierung sowie Zuverlässigkeit und Sicherheit gehören möglicherweise zu mehreren Segmenten. Die Abbildung zeigt jedoch die Beziehungen zwischen einem Segment und den Aufgaben, die für dieses am relevantesten sind.

Dienstleistungssegment gekennzeichnet durch die Tatsache, dass die Netzwerke der Zukunft eine große Anzahl von Diensten/Anwendungen bereitstellen werden, um nahezu alle Verbraucherbedürfnisse zu befriedigen. Es wird erwartet, dass in zukünftigen Netzwerken die Anzahl der Dienste und deren Umfang exponentiell zunehmen werden. Darüber hinaus wird erwartet, dass neue Dienste ohne nennenswerte Kapitalinvestitionen und steigende Betriebskosten eingeführt werden können und gleichzeitig deren hohe Zuverlässigkeit und die Sicherheit künftiger Netzwerke gewährleistet werden.

Datensegment sorgt für die Optimierung zukünftiger Netzwerke im Zusammenhang mit den gigantischen Mengen an übertragenen und verarbeiteten Informationen. Daten beziehen sich auf alle im zukünftigen Netzwerk verfügbaren Informationen. Es wird außerdem davon ausgegangen, dass der Zugang zu den Diensten zukünftiger Netze unabhängig vom Standort des Nutzers einfach, schnell und von hoher Qualität sein wird. Jede Person im zukünftigen Netzwerk erhält eine eigene, eindeutige Adresse, über die sie sich überall auf der Welt einloggen und alle Dienste erhalten kann, die sie benötigt.

Ökologisches Segment bedeutet, dass die Netze der Zukunft umweltfreundlich sein werden. Ihre technischen Lösungen sollen die Auswirkungen auf das Ökosystem minimieren, den Material- und Energieverbrauch reduzieren.

Sozioökonomisches Segment sorgt für die Lösung einer Reihe von Aufgaben im Zusammenhang mit der Reduzierung der Kosten für die Bereitstellung des Lebenszyklus von Diensten und der Vereinheitlichung der Bereitstellung von Breitbandzugang zu den Ressourcen künftiger Netze für breite Bevölkerungsschichten, die wiederum als dienen werden Impulse für die Entwicklung der Weltwirtschaft geben und die „digitale Kluft“ beseitigen.

Netzwerkvirtualisierung

Die Unterstützung der Ressourcenvirtualisierung ist das wichtigste Unterscheidungsmerkmal von FN-Netzwerken gegenüber NGN-Netzwerken. Es ermöglicht die logische Aufteilung von Netzwerkressourcen zwischen Diensten und die gleichzeitige gemeinsame Nutzung einer physischen Netzwerkressource durch viele virtuelle Ressourcen.

Die in der Y.3011-Empfehlung vorgestellte Netfür zukünftige Netzwerke enthält drei Schichten (Abbildung 2). Wie jedes Kommunikationsnetzwerk besteht das FN-Netzwerk auf der ersten Ebene aus physischen Ressourcen (Switches, Router, Kommunikationsleitungen, Übertragungssysteme usw.), die Eigentum physischer Netzwerkbetreiber sind und von diesen verwaltet werden. Basierend auf den Ressourcen physischer Netzwerke werden virtuelle Ressourcen organisiert (Bandbreite, Übertragungsweg, Adressraum usw.), die vom entsprechenden Betreiber verwaltet werden können. Und basierend auf diesen virtuellen Netzwerkressourcen erstellt jeder Dienst sein eigenes virtuelles Netzwerk, das als logisch isolierter Teil des Netzwerks bezeichnet wird, LINP (Logically Insulated Network Partition). Durch diese Trennung können mehrere Dienste mit unterschiedlichen Anforderungen an Netzwerkressourcen auf demselben physischen Netzwerk implementiert werden. Bei der Netzwerkvirtualisierung werden Anbieter und Benutzer von Netzwerkressourcen getrennt. Dies bedeutet, dass ein virtueller Netzwerkbenutzer nicht unbedingt über eigene physische Netzwerkressourcen verfügen muss. Auf diese Weise können Sie die erforderlichen Ressourcen in einem virtuellen Netzwerk dynamisch zu einem Pool gemeinsam genutzter virtueller Ressourcen hinzufügen und daraus entfernen, als Reaktion auf darin auftretende Änderungen (Zunahme oder Abnahme des Verkehrsaufkommens, Auftreten von Ausfällen oder Fehlfunktionen von Netzwerkgeräten). , usw.). Da das Hinzufügen virtueller Ressourcen viel schneller und kostengünstiger ist als der Einsatz zusätzlicher physischer Ressourcen, werden zukünftige Netzwerke effizienter und flexibler betrieben und verwaltet.

Energieeinsparungen in zukünftigen Netzwerken

Aufgrund der Bedeutung von Umweltthemen ist der Einsatz energiesparender Technologien eine der Hauptaufgaben bei der Entwicklung zukünftiger Netze. Gemäß der Y.3021-Empfehlung gibt es zwei Möglichkeiten, die negativen Auswirkungen zukünftiger Netzwerke auf die Umwelt zu reduzieren.

1. Nutzen Sie die Fähigkeiten zukünftiger Netzwerke in Wirtschaftsbereichen, die nicht mit Informations- und Kommunikationstechnologien zu tun haben. Zukünftige Netzwerke sollten ein nützliches Instrument sein, um die negativen Umweltauswirkungen anderer Wirtschaftsbereiche zu reduzieren. Beispiele für solche FN-Anwendungen sind intelligente Netze zur Verteilung elektrischer Energie oder USN-Pervasive-Sensornetzwerke, die Veränderungen in der Ökosphäre der Erde überwachen.

2. Reduzieren Sie die Umweltauswirkungen der Netzwerke selbst und machen Sie dies zu einem Grundprinzip der Netzwerke der Zukunft. Die Reduzierung des Energieverbrauchs von Netzwerkressourcen wie Routern, Switches und Servern ist ein Merkmal grüner zukünftiger Netzwerke.

Innerhalb zukünftiger Netzwerke lassen sich drei Ebenen unterscheiden, die jeweils über eigene Energiespartechnologien verfügen:

Geräteebene- Technologien, die für elektronische Geräte wie große integrierte Schaltkreise und Speichergeräte verwendet werden;

Ausstattungsniveau- Technologien, die auf ein einzelnes Gerät (Gerätesatz) angewendet werden, beispielsweise einen Router oder Switch;

Netzwerkebene- Technologien, die im gesamten Netzwerk angewendet werden (z. B. ein Routing-Protokoll, das auf mehrere Router angewendet wird).

Messung des Energieverbrauchs in zukünftigen Netzwerken

Die Empfehlung Y.3022 spezifiziert Anforderungen für die Messung des Energieverbrauchs verschiedener Elemente zukünftiger Netzwerke. Basierend auf diesen Anforderungen werden ein Referenzmessmodell (Abb. 3), eine funktionale Architektur, Energieeffizienzmetriken und Methoden zur Messung des Energieverbrauchs von Netzwerkelementen (Schnittstelle E-Schnittstelle, Knoten E-Knoten, Server E-Server) und dem Netzwerk als Ganzes erstellt ( E-Netz) definiert sind. Um die Kennzahlen zur Energieeffizienz besser zu verstehen, finden Sie im Informationsanhang zur Empfehlung detaillierte Gleichungen, die sie beschreiben.

Identifikation in zukünftigen Netzwerken

Die Empfehlung Y.3031 beschreibt mögliche zukünftige Netzwerkidentifikatoren (IDs) zur Identifizierung von Teilnehmern, Benutzern, Netzwerkelementen, Funktionen, Netzwerkeinheiten, die Dienste/Anwendungen bereitstellen, oder anderen Einheiten (z. B. physischen oder logischen Einheiten). Es wird eine Identifikationsarchitektur für zukünftige Netzwerke vorgestellt, die einen eindeutigen Identifikatorraum verwaltet, eine Verbindung zwischen spezifischen Identifikatoren herstellt, die Netzwerkeinheiten repräsentieren, und bei Bedarf Informationen über die Beziehung zwischen Identifikatoren bereitstellt. Es unterstützt auch die Suche nach Identifikatoren von Netzwerkzielen, um deren Interaktion sicherzustellen.

Die FN-Identitätsarchitektur verbindet verschiedene Kommunikationsobjekte und physikalische Netzwerke und besteht aus vier Komponenten (Abb. 4).

1. ID-Erkennungsdienst, das verschiedene Arten von Identifikatoren erkennt, die Kommunikationsobjekten zugeordnet sind.

2. ID-Bereich, die verschiedene Arten von Identifikatoren definiert und verwaltet: Benutzer, Daten oder Inhalte; Dienst-IDs, Knoten-IDs und Standort-IDs.

3. ID-Anzeigeregister, die Zuordnungsbeziehungen zwischen verschiedenen Arten von Bezeichnern unterstützen.

4. ID-Anzeigedienst, das Identifikatoren einer Kategorie in Identifikatoren anderer Kategorien übersetzt, um einen kontinuierlichen Dienst über heterogene physische Netzwerke wie IP-Netzwerke der Version 6 (IPv6), Version 4 (IPv4) oder Nicht-IP-Netzwerke zu erreichen, die unterschiedliche Protokolle zum Transport von Daten verwenden können Pakete.

__________________________________________________________________________

* ITU-T-Empfehlungen Y.2000-Y.2999: Netzwerke der nächsten Generation [elektronische Ressource]. - Zugriffsmodus: http://www.itu.int/ITU-T/recommendations/index.aspx?ser=Y.

**Netzwerke der nächsten Generation / A.V. Roslyakov, M. Yu. Samsonov, I.V. Shibaeva, S.V. Vanyashin, I.A. Tschetschenien; bearbeitet von EIN V. Rosljakowa. - M.: Eco-Trends, 2008. - 424 S.

*** ITU-T-Empfehlungen Y.3000-Y.3499: Zukünftige Netzwerke [elektronische Ressource]. - Zugriffsmodus: http://www.itu.int/ITU-T/recommendations/index.aspx?ser=Y.

Das Ende des Artikels in der nächsten Ausgabe von ICS.

Es ist unmöglich, die Unermesslichkeit zu erfassen.

Kozma Prutkov

Die Zukunft von Ethernet

Die enormen Investitionen, die weltweit in Ethernet-basierte Netzwerke und Software dafür getätigt werden (statistisch gesehen nutzen mehr als 50 % aller lokalen Netzwerke auf der Welt Ethernet), zwingen Entwickler und Hersteller von Netzwerkgeräten dazu, nach Möglichkeiten zu suchen, deren Lebensdauer zu verlängern. Der Hauptnachteil von Ethernet ist heute seine Langsamkeit. 10 Mbit/s pro Segment, die zudem auf alle angeschlossenen Computer aufgeteilt werden müssen – im Zeitalter von Videokonferenzen und Computergrafik passt das niemandem.

Die erste Lösung, die vor etwa einem Jahr erschien, besteht darin, anstelle des Hubs einen sogenannten Ethernet-Switch zu platzieren. Äußerlich identisch mit dem Hub, verfügt der Switch über einige Eigenschaften einer Multiport-Bridge. Es macht sich die Tatsache zunutze, dass die meisten Ethernet-Pakete explizit die Zieladresse enthalten. Wenn ein solches Paket an den Empfänger übertragen wird, ohne alle anderen Abonnenten im Netzwerk zu benachrichtigen, passiert nichts Schlimmes – es war nicht für ihn bestimmt. So funktionieren Reithosen, allerdings verfügen sie meist nur über zwei Öffnungen.

Ein moderner Ethernet-Switch kann bis zu 16 Ports haben und ein Paket unabhängig voneinander zwischen zwei beliebigen Ports übertragen. Wenn beispielsweise auf Port 1 ein Paket empfangen wurde, dessen Empfänger mit Port 8 verbunden ist (Abb. 6), und gleichzeitig auf Port 6 ein Paket für den Empfänger auf Port 2 empfangen wurde, dann wird der Switch dies tun beide gleichzeitig übertragen. Bei einem herkömmlichen Hub würde dies zu einer Kollision führen und die Pakete müssten nacheinander übertragen werden. Der Spitzendurchsatz eines 8-Port-Switches kann 40 Mbit/s und eines 16-Port-Switches 80 Mbit/s erreichen (4 oder 8 gleichzeitig gesendete Pakete).

Mit dem Switch können Sie die gesamte Netzwerkbandbreite erheblich erweitern, die theoretische Grenze für eine einzelne Verbindung wird jedoch nicht erhöht – an jedem seiner Ports stehen die gleichen 10 Mbit/s zur Verfügung. Zu den Vorteilen dieser Lösung gehört, dass kein Austausch von Netzwerkadaptern in Computern erforderlich ist, sondern nur der Hub. Das bedeutet, dass der Übergang aus finanzieller Sicht nicht allzu belastend sein wird.

Die nächste Lösung, Vollduplex-Ethernet, die sich im Stadium der Standardzulassung befindet, erfordert für ihre Nutzung sowohl einen neuen Hub als auch einen neuen Netzwerkadapter. Die Idee hinter dieser Methode besteht darin, dass 10 Base-T-Ethernet-Pakete über verschiedene Leitungen zum und vom Computer übertragen werden. Dadurch ist es möglich, zwei Pakete gleichzeitig zu versenden, wenn sie in unterschiedliche Richtungen gehen. Auf diese Weise können Sie Ihren Durchsatz nahezu verdoppeln. (Für ein herkömmliches Koaxialkabel ist dies natürlich unmöglich. Es muss gesagt werden, dass der Designgedanke heutzutage wenig Wert auf die Modifizierung eines Systems mit einem Koaxialkabel legt. Die Aufmerksamkeit liegt auf Twisted-Pair-Kabeln.) Die ersten Hubs und Adapter, die diesen Mechanismus verwenden, sollten in den nächsten ein bis zwei Jahren erscheinen.

Der revolutionärste Ansatz, der auch von Normungsgremien erwogen wird, sieht vor, die Übertragungsgeschwindigkeit von Twisted-Pair-Ethernet-Netzwerken auf 100 Mbit/s zu erhöhen. Dies ist möglich, wenn Sie einen Draht entsprechender Qualität verwenden. Es werden zwei Projekte mit unterschiedlichen Ansätzen für den Transfermechanismus geprüft. Obwohl die Arbeiten hier noch nicht so weit fortgeschritten sind, wird der Marktbedarf nach einer solchen Lösung offenbar in den kommenden Jahren zum Erscheinen erster Industriedesigns führen.

Die besprochenen Beispiele können Verwirrung stiften – warum sollte man die Kapazität eines veralteten Netzwerks erhöhen? Sie können auch verstehen, wenn eine solche Steigerung keinen Austausch von Schnittstellen in Computern erfordert, aber wenn diese dennoch geändert werden müssen, warum nicht sofort schnellere (und bereits vorhandene) Netzwerke nutzen, zum Beispiel FDDI? Wir sollten nicht vergessen, dass es neben der Hardware-Fähigkeit zur Datenübertragung auch eine Software-Seite gibt – es gibt immer Programme, die tatsächlich Daten übertragen. Viele bestehende Softwaretools sind für das Ethernet-Protokoll geschrieben und nutzen seine Eigenschaften in erheblichem Maße. Die Aufnahme der Unterstützung neuer Protokolle in naher Zukunft ist unwahrscheinlich (die Nachfrage ist nicht sehr hoch).

Wenn neue Ethernet-Typen genehmigt werden und die entsprechende Hardware erscheint, werden sich die Änderungen hauptsächlich auf den Teil auswirken, in dem sie (Schnittstellen und Hubs) miteinander kommunizieren, also auf die Seite, mit der sie dem Computer und dem Benutzer zugewandt sind, und es werden keine wesentlichen Änderungen vorgenommen (oder ändert sich überhaupt nicht), sodass Sie vorhandene Software verwenden können.

ATM-asynchroner Übertragungsmodus

Beim Schreiben dieses Teils traten ernsthafte Probleme auf – welche neuen Netzwerke sollten wir in Betracht ziehen? Angesichts der Fülle bestehender und neuer Standards – FDDI, Frame Relay, DQDB, SMDS usw. – ist es verständlich, dass es unmöglich ist, sie alle in diesem Testbericht, den wir überhaupt nicht als Nachschlagewerk geplant hatten, auch nur kurz zu beschreiben. Welche sollten Sie dann wählen?

Letztendlich entschied man sich für ATM, erstens wegen der grundlegend neuen Ansätze, die bei seiner Entwicklung zum Einsatz kamen, zweitens wegen der Rolle, die es bei der Umgestaltung der Welt der lokalen Netze spielen sollte, und schließlich aufgrund der Tatsache, dass es sich um Geldautomaten handelt auf die Tatsache, dass es seinen „Vertrauensbeweis“ offenbar bereits erhalten hat und die Hersteller sich beeilten, immer neue Produkte und Entwicklungen anzukündigen (und potenzielle Käufer reiben sich ziemlich die Hände).

ATM (Asynchronous Transfer Mode) entstand 1980 in den AT&T-Labors. als Technologie, die verschiedene Arten von Informationen übertragen kann (damals Telefonsignale und Daten). ATM entwickelte sich lange Zeit als Basisebene für Breitband-ISDN (Breitband-ISDN ist ein Telekommunikationsnetzstandard, der für die Übertragung heterogener Daten mit sehr hohen Geschwindigkeiten (Hunderte von Mbit/s) ausgelegt ist. Im Gegensatz zu Primary Rate ISDN (bis zu 2 Mbit). (/s) und Basic Rate ISDN (144 Kbit/s), die bereits weit verbreitet sind. Breitband-ISDN sollte sich Mitte der 90er Jahre im Zuge der technologischen Weiterentwicklung und der Bedürfnisse der Telekommunikationsnetzteilnehmer weit verbreitet haben.), ist aber mittlerweile eine völlig eigenständige Technologie. Ein spezielles Gremium, das ATM-Forum, wurde gegründet und beteiligt sich aktiv an der Entwicklung von ATM und der Standardisierung von Schnittstellen.

Die Struktur von ATM ist recht einfach (Abb. 7), sie basiert auf einem Netzwerk von ATM-Switches (im einfachsten Fall kann es einen geben), die durch Hochgeschwindigkeits-Kommunikationskanäle (normalerweise Glasfaser) miteinander verbunden sind. Das ATM-Switch-Netzwerk ist ein Hochgeschwindigkeits-Switch für Pakete, die über externe Schnittstellen von externen Geräten – Bridges, Routern, einzelnen Computern oder anderen Geräten – eintreffen.

Was ist der Reiz von Geldautomaten? Alle bestehenden lokalen Netzwerke – Ethernet, Token Ring, FDDI und andere – haben einen Nachteil: Sie haben alle eine feste Bandbreite. Für Ethernet sind es 10 Mbit/s, für Token Ring 4 oder 16 Mbit/s und für FDDI 100 Mbit/s. Alle Netzwerkbenutzer teilen sich diese Bandbreite untereinander, und der Anschluss neuer Benutzer führt unweigerlich zu einer Verringerung des ihnen zugewiesenen Anteils. Nicht so beim Geldautomaten, hier verschlechtert der Anschluss eines neuen Benutzers die Situation überhaupt nicht – jeder erhält eine Schnittstelle mit einer garantierten Bandbreite (typischerweise -100-150 Mbit/s, es kann aber auch weniger und viel mehr sein). hängt nicht von der Aktivität anderer Benutzer ab. Dies wird dadurch erreicht, dass die Geschwindigkeit der Paketvermittlung im ATM-Switch ein bis zwei Größenordnungen höher ist als die Geschwindigkeit von Schnittstellen und mehrere zehn Gbit/s erreicht.

Möglich wurden solch hohe Vermittlungsgeschwindigkeiten sowohl durch die Entwicklung der Technologie als auch durch einen unkonventionellen Ansatz zur Kapselung von Daten in Paketen. ATM verwendet Pakete (in der ATM-Terminologie Zelle) mit einer kleinen und festen Größe – 53 Bytes, von denen 5 Bytes für Dienstinformationen und 48 Bytes für Daten reserviert sind. Die Verwendung von Paketen fester Länge ermöglicht es, Pufferalgorithmen in Netzwerkgeräten erheblich zu vereinfachen und Puffer fester Größe zu verwenden. Durch die Vereinfachung der Pufferalgorithmen können diese in Hardware implementiert werden, wodurch die Leistung erheblich gesteigert wird.

Es ist zu beachten, dass Pakete mit fester Länge zwar praktisch sind und das Erreichen hoher Übertragungsgeschwindigkeiten ermöglichen, die heute existierenden Protokolle, sowohl High-Level-Protokolle (TCP/IP) als auch Low-Level-Protokolle (z. B. Ethernet), Pakete variabler Länge verwenden . Daher erfordert die Anbindung vorhandener Netzwerke an ATM, dass geeignete Geräte – Bridges und Router – für die Paketaufteilung und -zusammenführung sorgen. Daher müssen sie einen erheblichen Teil der Last übernehmen, damit ATM-Switches effizient arbeiten können. Eine weitere Konsequenz der Verwendung kleiner Pakete fester Größe besteht darin, dass die Paketlatenz im Netzwerk gering und gut vorhersehbar ist. Genau diese Anforderung stellen Anwendungen, die Audio- oder Videoinformationen nutzen, an das Übertragungsnetz. ATM ist tatsächlich das erste Netzwerk, das Anwendungen, die Multimedia nutzen, wirklich vollständig unterstützen kann.

Darüber hinaus hat ATM das Potenzial, in Zukunft zahlreiche derzeit bestehende Kommunikationsnetze zu ersetzen. Mit seiner enormen Durchsatzleistung und seiner hervorragenden Eignung für die Übertragung heterogener Informationen (Audio, Video, Fax, Daten etc.) ist ATM in der Lage, sowohl bestehende Telefon- und Computernetze als auch neu entstehende Kommunikationsstrukturen für Telefonkonferenzen und vieles mehr zu kombinieren.

ATM löst nicht nur das drängendste Problem der unzureichenden Kapazität moderner Netzwerke, sondern bietet auch die Möglichkeit, eine weitere Aufgabe zu vereinfachen – die Neukonfiguration des Netzwerks. In modernen Netzwerken sind logische und physikalische Strukturen eng miteinander verbunden. Eine Änderung der physischen Struktur – beispielsweise der Umzug eines Teils einer Abteilung an einen neuen Standort – zieht eine Änderung der logischen Struktur nach sich: Erstellung eines neuen Subnetzes, Neuvergabe von Netzwerkadressen, Neukonfiguration von Routern, Definition neuer Zugriffsrechte usw. In der einen oder anderen Form sind diese Probleme charakteristisch für alle modernen lokalen Netzwerke.

ATM definiert sogenannte virtuelle Verbindungen – logische Verbindungen zwischen Netzwerken, die mit ATM verbunden sind. Zwei oder mehr Netzwerke, die über eine Brücke mit ATM verbunden sind (Abb. 8), bilden logisch ein Netzwerk, ohne dass das Vorhandensein eines Switches zwischen ihnen bemerkt wird.

Somit erweist sich die logische Struktur des Netzwerks als unabhängig von der geografischen Lage seiner Bestandteile. Der Netzwerkadministrator erhält die Möglichkeit, logische Netzwerke zu erstellen, die praktisch in keiner Weise durch den tatsächlichen physischen Standort ihrer Bestandteile eingeschränkt sind.

Experten zufolge werden ATM-Installationen zunächst in lokalen Netzwerken in der Regel als Backbone durchgeführt, wobei ATM FDDI und „Thick“ Ethernet ersetzen wird, obwohl dem Anschluss eines separaten Computers oder der Verwendung von ATM als kein Hindernis entgegensteht globales Netzwerk . In der Zukunft verspricht ATM, die Linie, die heute lokale und globale Netzwerke trennt, vollständig aufzulösen.

(Zentrum für angewandte Computernetzwerkforschung)

TsPIKS ist ein Forschungsprojekt zur Entwicklung von Technologien und Produkten für Computernetzwerke der nächsten Generation in Russland. Wir entwickeln und implementieren die neuesten und vielversprechendsten Technologien im Bereich Computernetzwerke und Internet, demonstrieren und testen die Wirksamkeit dieser Technologien bei industriellen und geschäftlichen Problemen. Bewohner des IT-Clusters der Skolkovo Innovation Foundation.

Trends in der Entwicklung von Computernetzwerken und dem Internet

Das Material wurde speziell für das Magazin aufbereitetSkolkovo-Rezension

Das Internet und die Informationstechnologie sind heute aus unserem Leben nicht mehr wegzudenken. Sie sind fest in unser Leben eingedrungen und haben es erheblich vereinfacht. Mit der Entwicklung der Informationstechnologie stehen uns neue Werkzeuge zur Verfügung, die unsere gewohnten Prozesse schneller, komfortabler und kostengünstiger machen. Allerdings sind die Veränderungen, die wir jetzt erleben, nur die Spitze des Eisbergs. Netzwerktechnologien stehen erst am Anfang ihres Wachstumspfads und wirklich große Innovationen erwarten uns vor uns. Welche Entwicklung lässt sich heute für die kommenden Jahrzehnte vorhersagen, wenn man sieht, in welche Richtung die Entwicklung von Computernetzwerken und des Internets geht?
1. Die Reichweite des Publikums wird wachsen, das Internet wird an den entlegensten Orten der Welt erscheinen.
Ende 2012 erreichte die Zahl der Internetnutzer weltweit 2,4 Milliarden Nutzer. Laut Prognosen der US-amerikanischen National Science Foundation wird die Zahl der Internetnutzer bis 2020 auf 5 Milliarden ansteigen. Das Internet wird geografisch stärker verteilt. Der größte Nutzerzuwachs wird in den nächsten 10 Jahren von Bewohnern der Entwicklungsländer in Afrika (derzeit nicht mehr als 7 %), Asien (ca. 19 %) und dem Nahen Osten (ca. 28 %) kommen. Im Vergleich dazu nutzen derzeit mehr als 72 % der Nordamerikaner das Internet. Dieser Trend führt dazu, dass das Internet bis 2020 nicht nur entlegene Orte auf der ganzen Welt erreichen wird, sondern auch viele weitere Sprachen unterstützen wird und nicht nur das uns bekannte ASCII-Kodierungssystem. Nach Angaben des Ministeriums für Telekommunikation und Massenkommunikation der Russischen Föderation gab es Anfang 2012 70 Millionen russische Internetnutzer. Nach diesem Indikator belegte Russland den ersten Platz in Europa und den sechsten Platz weltweit. Nach den Ergebnissen einer Studie der Agentur RBC.research wird die Internetdurchdringung in Russland im Jahr 2018 über 80 % liegen.
2. Das Zeitalter der Software beginnt in der Informationstechnologie.
Wir erleben derzeit eine Phase der Hardware-Intellektualisierung, in der Software wichtiger wird als die Hardware selbst. Die Softwarebranche wird rasant wachsen: im Jahr 2010. Die jährliche Software-Wachstumsrate betrug mindestens 6 %; im Jahr 2015 wird das Marktvolumen 365 Milliarden US-Dollar erreichen, wovon ein Viertel auf den Markt für Geschäftsanwendungen entfällt. Der Hardware-Markt wird zurückgehen: Das Marktvolumen betrug 2013 608 Milliarden US-Dollar, die Wachstumsrate von 2008 bis 2013 betrug minus -0,7 %. Bis 2018 wird ein Wachstum von 2,1 % prognostiziert, was vor allem auf das Wachstum des PC-Marktes (er wird um 7,5 %) und der Peripheriegeräte (Drucker, Scanner etc.) zurückzuführen ist. Das 21. Jahrhundert ist das Jahrhundert der drahtlosen Technologien. Allein im Jahr 2009 stieg die Zahl der mobilen Breitbandteilnehmer (3G, WiMAX und andere Hochgeschwindigkeits-Datenübertragungstechnologien) um 85 %. Schätzungen zufolge werden bis 2014 weltweit 2,5 Milliarden Menschen mobiles Breitband nutzen.
3. Datenübertragungsgeschwindigkeit und -durchsatz steigen.
Heutzutage beträgt die Datenübertragungsgeschwindigkeit in guten Computern 40 Gbit/s. Beispielsweise haben 4 Bände des Romans „Krieg und Frieden“ von L. Tolstoi etwa 40 Mbit, d. h. 1000 Mal weniger! Diese 4 Volumina können in weniger als 1 Mikrosekunde übertragen werden. Doch in naher Zukunft wird es möglich sein, Daten mit Lichtgeschwindigkeit zu übertragen. Bereits heute gibt es die WiGik-Technologie, die es ermöglicht, Informationen mit einer Geschwindigkeit von 7 Gbit/s über eine Distanz von mehreren Kilometern zu übertragen. Methode zur Kodierung von Informationen auf physischer Ebene. Das Gleiche gilt für die Bandbreite. Laut Cisco gibt es heute über 35 Millionen gleichzeitige Benutzer auf Skype, über 200 Millionen auf Facebook und jede Minute werden 72 Stunden Video auf YouTube hochgeladen. Experten gehen davon aus, dass bis 2015 die Anzahl der Geräte im Netzwerk doppelt so hoch sein wird wie die Weltbevölkerung. Bis 2014 werden etwa 80 % dieses Traffics Videotraffic sein. Bilder und Videodateien, die ständig im World Wide Web ausgetauscht werden, erfordern eine höhere Bandbreite. Und die Technologie wird sich in diese Richtung entwickeln. Benutzer kommunizieren und tauschen Informationen per Video und Sprache in Echtzeit aus. Es entstehen immer mehr vernetzte Anwendungen, die Rollenzeitinteraktion erfordern.
4. Semantisches WEB.
Wir bewegen uns zu Recht in Richtung eines „semantischen Internets“, in dem Informationen eine genau definierte Bedeutung erhalten, die es Computern ermöglicht, sie auf semantischer Ebene zu „verstehen“ und zu verarbeiten. Computer agieren heute auf der syntaktischen Ebene, auf der Ebene der Zeichen; sie lesen und verarbeiten Informationen anhand äußerer Merkmale. Der Begriff „semantisches Web“ wurde erstmals von Sir Tim Berners-Lee (einem der Erfinder des World Wide Web) in der Zeitschrift Scientific American geprägt. Mit Semantic WEB können Sie Informationen finden, indem Sie suchen: „Finden Sie Informationen über Tiere, die die Tonortung nutzen, aber weder eine Fledermaus noch ein Delfin sind.“
5. Neue Übertragungsobjekte.
Dank der Entwicklung neuer Technologien wird es möglich sein, über Computernetzwerke zu übertragen, was bisher unmöglich schien. Zum Beispiel Geruch. Die Maschine analysiert an einer Stelle die molekulare Zusammensetzung der Luft und überträgt diese Daten über das Netzwerk. An einer anderen Stelle im Netzwerk wird diese molekulare Zusammensetzung, d.h. Der Geruch wird synthetisiert. Ein Prototyp eines solchen Geräts wurde bereits von der amerikanischen Firma Mint Foundry herausgebracht, er heißt Olly, ist aber noch nicht in den Handel gekommen. Die Umsetzung dieser Möglichkeiten werden wir jedoch schon bald im Alltag erleben können.
6. Das Internet wird zu einem Netzwerk von Dingen, nicht nur von Computern. Heute gibt es bereits über 700 Millionen Computer im Internet (laut CIA World Factbook 2012). Jedes Jahr verfügt der Benutzer über eine zunehmende Anzahl von Geräten, die eine Verbindung zum Netzwerk herstellen: Computer, Telefone, Tablets usw. Schon heute übersteigt die Zahl der IP-Adressen die Zahl der Weltbevölkerung (IP-Adressen werden für den Betrieb von Haushaltsgeräten benötigt). Mit der neuen Architektur von Computernetzwerken wird die Ära des „Internets der Dinge“ kommen. Dinge und Objekte werden über Netzwerke interagieren, was große Chancen für alle Bereiche des menschlichen Lebens eröffnen wird. Eine der kommenden Entwicklungen ist „Smart Dust“ – großflächig verteilte Sensoren, die Informationen sammeln. Die US-amerikanische National Science Foundation prognostiziert, dass etwa Milliarden Sensoren an Gebäuden, Brücken und Straßen mit dem Internet verbunden sein werden, um beispielsweise den Stromverbrauch zu überwachen, Sicherheit zu gewährleisten und mehr. Insgesamt wird erwartet, dass bis 2020 die Zahl der mit dem Internet verbundenen Sensoren um eine Größenordnung größer sein wird als die Zahl der Nutzer. Als Fortsetzung dieses Gedankens können wir die Gedanken von Vinton Gray Surf (amerikanischer Mathematiker, der als einer der Erfinder des TCP/IP-Protokolls und Vizepräsident von Google gilt) zitieren: „Angenommen, alle Produkte, die Sie in den Kühlschrank stellen, sind …“ Ausgestattet mit einem speziellen Barcode oder einem Mikrochip, sodass der Kühlschrank alles aufzeichnet, was Sie hineingeben. In diesem Fall können Sie während Ihres Studiums oder bei der Arbeit diese Informationen auf Ihrem Telefon abrufen, sich verschiedene Rezeptoptionen ansehen und der Kühlschrank schlägt Ihnen vor, was Sie heute kochen möchten. Wenn wir diese Idee erweitern, erhalten wir etwa das folgende Bild. Du gehst in den Laden und während du dort bist, klingelt dein Handy – es ist der Kühlschrank, der dich ruft und dir sagt, was genau sich zu kaufen lohnt.“ Das Smart Internet wird soziale Netzwerke (wie wir sie heute haben) in Social-Media-Systeme verwandeln. In den Räumlichkeiten werden Kameras und verschiedene Sensoren installiert. Über Ihr eigenes Konto können Sie beispielsweise Ihre Haustiere füttern und Ihre Waschmaschine betreiben.
7. Robotisierung der Gesellschaft.
Bereits heute kennen wir Beispiele für unbemannte Luftfahrzeuge, automatische Staubsauger und Roboterpolizisten, die in Japan „arbeiten“ – alle diese Technologien erfüllen ihre Funktionen ohne menschliches Eingreifen. Und jedes Jahr wird die Verbreitung solcher Maschinen nur zunehmen. Eines der unlösbaren Probleme der Computertechnologie ist das Problem, das Denken eines Computers nachzubilden. Es ist jedoch möglich, das menschliche Gehirn mit einem kybernetischen Computersystem zu verbinden. Erinnern wir uns an den Film „RoboCop“. Bereits heute gibt es ähnliche Experimente, bei denen eine Bein- oder Armprothese einer Person am Rückenmark befestigt wird. Erinnern wir uns an das Beispiel des südafrikanischen Läufers Oscar Pistorius, der seit seiner Kindheit beide Beine verloren hat, aber bei Wettkämpfen dank Carbonprothesen völlig gesunde Konkurrenten überholt. Laut Experten der erste derartige „Superman“ Cyberorganismus wird vor 2030 erscheinen. Er wird sein Körperlich perfekt, resistent gegen Krankheiten, Strahlung und extreme Temperaturen. Und gleichzeitig wird er ein menschliches Gehirn haben.
8. Neuer Status einer Person im Internet.
Das Internet verändert das menschliche Leben. Das World Wide Web wird nicht nur zu einer Plattform zur Informationsbeschaffung und Kommunikation, sondern auch zu einem Werkzeug zur Befriedigung alltäglicher Bedürfnisse: zum Beispiel Einkäufe tätigen, Nebenkosten bezahlen usw. Das Internet hat die Beziehung zwischen Mensch und Staat verändert. Persönliche Kommunikation und persönliche Anrufe bei Sonderdiensten werden minimiert. Dokumente bei einer Universität einreichen, einen Krankenwagen rufen, eine Aussage bei der Polizei verfassen, einen Reisepass beantragen – all das kann bereits elektronisch erfolgen. Der Staat wird weiterhin gezwungen sein, Dienstleistungen über das Internet zu generieren. Schon heute ist die elektronische Dokumentenverwaltung im ganzen Land die wichtigste Priorität des Ministeriums für Kommunikation und Massenmedien der Russischen Föderation. Wir müssen auch über den neuen Status des Menschen in der Welt der Internettechnologien sprechen. Der Zugang zum Internet wird zu einem Bürgerrecht eines jeden Menschen, das zusammen mit anderen bürgerlichen Freiheiten gesetzlich geschützt und kontrolliert wird. Das ist die nahe Zukunft. Damit verändert sich das Konzept der Demokratie in der Gesellschaft. Um den Willen der Bürger zum Ausdruck zu bringen, bedarf es keiner besonderen Plattformen, Stände und Medien mehr. Dabei wird ein Mindestmaß an Anonymität gewährleistet sein. Sie werden sich wahrscheinlich nicht den Luxus leisten können, Passwörter zu ändern und Konten unter nicht existierenden Namen zu erstellen und ätzende Kommentare unter einer unsichtbaren Überschrift zu hinterlassen. Der Login/das Passwort für den Zugang zum Netzwerk kann zur Identifizierung der Person dienen und ihre echten Passdaten werden damit verknüpft. Darüber hinaus wird dies höchstwahrscheinlich nicht „von oben“ als Versuch der Zensur und Kontrolle aufgezwungen. Und der Wunsch der Gesellschaft selbst, das Bedürfnis „von unten“. Weil Je realer das Leben im Internet ist, desto mehr Transparenz wünschen sich die Nutzer. Der Ruf eines Menschen im Leben bestimmt seinen Ruf im globalen Netzwerk; es wird keine erfundenen Biografien geben. Nachdem die Daten einer Person ermittelt wurden, erstellt das Netzwerk selbst Filter und Durchgänge für den Zugriff auf Informationen basierend auf Altersbeschränkungen, privaten Informationen und verschiedenen Diensten entsprechend der Zahlungsfähigkeit und sogar der sozialen Vertrauenswürdigkeit.
9. Veränderungen auf dem Arbeitsmarkt und im Bildungswesen.
Die aktive Durchdringung von Netzwerktechnologien und dem Internet wird zu Veränderungen auf dem Arbeitsmarkt und im Bildungsbereich führen. Das Internet ist bereits zu einem globalen und zentralen Kommunikationsmittel geworden und wandelt sich immer dynamischer von einer Plattform der Unterhaltung zu einer Plattform der Arbeit. Soziale Netzwerke, E-Mail, Skype, Informationsressourcen, Unternehmenswebsites und in Computer integrierte Programme binden Menschen weniger an ein bestimmtes Büro als vielmehr an den Computer selbst. Und jetzt spielt es keine Rolle, wo Sie es verwenden: von der Arbeit, von zu Hause, von einem Café oder von der Küste des Indischen Ozeans. Es wird immer mehr Mitarbeiter geben, die ihre Arbeit aus der Ferne erledigen. Und es wird immer mehr Büros in der „Tasche“ geben, also virtuelle Unternehmen, die nur im Internet existieren. Auch Menschen, die über neue Formate, die das Internet bietet, aus der Ferne Bildung erhalten. Beispielsweise wird heute an der Stanford University eine Vorlesung zweier Professoren von 25.000 Menschen gleichzeitig gehört!
10. Das Internet wird grüner.
Netzwerktechnologien verbrauchen zu viel Energie, die Menge steigt, und Experten sind sich einig, dass zukünftige Computernetzwerkarchitekturen energieeffizienter sein müssen. Nach Angaben des Lawrence Berkeley National Laboratory hat sich der Energieverbrauch des globalen Netzwerks zwischen 2000 und 2006(!) verdoppelt. Das Internet macht 2 % des weltweiten Stromverbrauchs aus, was der Betriebsleistung von 30 Kernkraftwerken entspricht – 30 Milliarden Watt. Der Trend zur „Ökologisierung“ oder „Ökologisierung“ des Internets wird sich mit steigenden Energiepreisen beschleunigen.
11. Cyberwaffen und Cyberkriege.
Die Entwicklung von Internet-Technologien und der Leistungsfähigkeit von Computernetzwerken hat eine andere Seite der Medaille. Angefangen von Cyberkriminalität im Zusammenhang mit der Zunahme des E-Commerce im Internet bis hin zu Cyberwars. Der Cyberspace wird bereits offiziell als das fünfte „Schlachtfeld“ anerkannt (dasselbe wie Land, Meer, Luftraum und Weltraum). Die US-Marine gründete 2010 sogar die Cyber-Truppe CYBERFOR, die direkt dem Kommando der US-Marine untersteht. Heutzutage sind nicht nur die PCs normaler Benutzer, sondern auch industrielle Systeme, die automatisierte Produktionsprozesse steuern, Opfer von Virenangriffen durch Hacker. Der bösartige Wurm kann zur Spionage sowie zur Sabotage von Kraftwerken, Flughäfen und anderen lebenserhaltenden Unternehmen eingesetzt werden. So befiel der Computerwurm Stuxnet im Jahr 2010 die Nuklearanlagen des Iran und warf damit das Atomprogramm des Landes vor zwei Jahren zurück. Der Einsatz des Schadprogramms erwies sich in seiner Wirksamkeit als vergleichbar mit einem vollwertigen Militäreinsatz, jedoch ohne Verluste unter den Menschen. Die Einzigartigkeit dieses Programms bestand darin, dass der Virus zum ersten Mal in der Geschichte der Cyberangriffe die Infrastruktur physisch zerstörte. Erst kürzlich, am 27. März dieses Jahres, kam es zum größten Hackerangriff der Geschichte, der sogar die Geschwindigkeit der Datenübertragung im Internet verringerte. Ziel des Angriffs war das europäische Anti-Spam-Unternehmen Spamhaus. Die Leistung von DDoS-Angriffen betrug 300 Gbit/s, während die Leistung von 50 Gbit/s ausreicht, um die Infrastruktur eines großen Finanzinstituts lahmzulegen. Das Problem der nationalen Sicherheit ist eines der wichtigsten Themen auf der Tagesordnung der entwickelten Länder. Die aktuelle Architektur von Computernetzwerken kann eine solche Sicherheit nicht bieten. Daher werden die Antiviren-/Webschutzbranche und die Entwicklung neuer Sicherheitstechnologien jedes Jahr wachsen
12. Austritt des Internets und der Netzwerktechnologien in den Weltraum.
Heute hat das Internet eine planetarische Dimension. Auf der Agenda stehen der interplanetare Raum und das kosmische Internet.

Die Internationale Raumstation ist mit dem Internet verbunden, was die Betriebsprozesse und Interaktion der Station mit der Erde erheblich beschleunigt. Doch der übliche Kommunikationsaufbau über Glasfaser oder einfache Kabel, der unter terrestrischen Bedingungen sehr effektiv ist, ist im Weltraum unmöglich. Insbesondere aufgrund der Tatsache, dass es unmöglich ist, das übliche TCP/IP-Protokoll im interplanetaren Raum zu verwenden (das Protokoll ist eine spezielle „Sprache“ von Computernetzwerken zur „Kommunikation“ untereinander).

Derzeit laufen Forschungsarbeiten zur Schaffung eines neuen Protokolls, dank dessen das Internet sowohl auf Mondstationen als auch auf dem Mars funktionieren könnte. Eines dieser Protokolle heißt Disruption Tolerant Networking (DTN). Computernetzwerke mit diesem Protokoll wurden bereits für die Kommunikation zwischen der ISS und der Erde genutzt; insbesondere wurden Fotos von Salzen, die im Zustand der Schwerelosigkeit gewonnen wurden, über Kommunikationskanäle versendet. Aber die Experimente in diesem Bereich gehen weiter.

In den zwei Jahrzehnten seiner Entwicklung ist das Internet konzeptionell und architektonisch praktisch unverändert geblieben. Einerseits wurden neue Datenübertragungstechnologien eingeführt, andererseits wurden neue Dienste geschaffen, das Grundkonzept des Netzwerks und die Architektur von Computernetzwerken bleiben jedoch auf dem Niveau der 80er Jahre des letzten Jahrhunderts. Veränderungen sind nicht nur längst überfällig, sondern lebenswichtig. Weil Innovation ist auf der Grundlage alter Architektur unmöglich. Computernetzwerke arbeiten heute bereits an der Grenze ihrer Leistungsfähigkeit und sind möglicherweise einfach nicht in der Lage, der Belastung standzuhalten, die die Netzwerke bei einem derart aktiven Wachstum erfahren werden. Die Entwicklung und Umsetzung all dieser Trends ist erst nach der Einführung einer neuen, flexibleren Computernetzwerkarchitektur möglich. In der gesamten wissenschaftlichen IT-Welt ist dies die Frage Nr. 1.

Die vielversprechendste Technologie/Architektur von Computernetzwerken, die heute aus der Krise führen kann, ist softwaredefinierte Netzwerktechnologie (SoftwaredefiniertNetzwerk). Im Jahr 2007 entwickelten Mitarbeiter der Universitäten Stanford und Berkeley eine neue „Sprache“ für die Kommunikation von Computernetzwerken – OpenFlo-Protokollw und ein neuer Algorithmus für Computernetzwerke – PKS-Technologie . Sein Hauptvorteil besteht darin, dass Sie sich von der „manuellen“ Netzwerkverwaltung lösen können. In modernen Netzwerken werden Steuerungs- und Datenübertragungsfunktionen kombiniert, was die Überwachung und Steuerung sehr komplex macht. Die PKS-Architektur trennt den Steuerungsprozess und den Datenübertragungsprozess. Dies eröffnet enorme Chancen für die Entwicklung von Internet-Technologien, da PKS uns in nichts einschränkt und Software in den Vordergrund rückt. In Russland untersucht das Zentrum für angewandte Computernetzwerkforschung PCN.

gastroguru 2017