KAMPUSY / SIECI KORPORACYJNE / INTRANET

kampus / sieć korporacyjna (CAN): ogólnie obszar lokalny sieć działająca w ramach jednej organizacji, która dzierżawi dostęp do sieci bezpośrednio od przewoźników regionalnych i krajowych.

intranet: sieć TCP / IP znajdująca się w ramach jednej organizacji do celów komunikacji i przetwarzania informacji.

Sieci kampusowe / korporacyjne (CAN) to na ogół sieci lokalne działające w ramach jednej organizacji, takiej jak New York University lub Microsoft Corporation. W rzeczywistości większość dużych organizacji ma setki takich sieci lokalnych. Organizacje te są na tyle duże, że dzierżawią dostęp do sieci bezpośrednio od przewoźników regionalnych i krajowych. Te sieci lokalne zazwyczaj korzystają z sieci Ethernet (protokół sieci lokalnej) i mają sieciowe systemy operacyjne, takie jak Windows Server lub Linux, które umożliwiają klientom stacjonarnym łączenie się z Internetem za pośrednictwem lokalnego serwera internetowego podłączonego do ich sieci kampusowych. Prędkości połączeń w sieciach kampusowych mieszczą się w zakresie 10–100 Mb / s do komputera stacjonarnego.

INTRANETY

Te same technologie internetowe, które umożliwiają obsługę światowej sieci publicznej, mogą być również wykorzystywane przez organizacje prywatne i rządowe jako sieci wewnętrzne. Intranet to sieć TCP / IP znajdująca się w ramach jednej organizacji w celu komunikacji i przetwarzania informacji. Technologie internetowe są generalnie znacznie tańsze niż sieci firmowe, a ponadto istnieje globalne źródło nowych aplikacji, które mogą działać w intranetach. W rzeczywistości wszystkie aplikacje dostępne w publicznym Internecie mogą być używane w prywatnych intranetach. Największym dostawcą oprogramowania do sieci lokalnych jest firma Microsoft, a następnie system Linux o otwartym kodzie źródłowym, z których oba korzystają z protokołu TCP / IP.

KTO ZARZĄDZA INTERNETEM?

Miłośnicy i dziennikarze często twierdzą, że internetem nikt nie rządzi i nie można nim rządzić, i że jest on z natury ponad prawem. Ci ludzie zapominają, że Internet działa przez prywatne i publiczne obiekty telekomunikacyjne, które same podlegają prawu i podlegają takiej samej presji, jak wszyscy operatorzy telekomunikacyjni. W rzeczywistości Internet jest powiązany ze złożoną siecią organów zarządzających, rządów krajowych i międzynarodowych stowarzyszeń zawodowych. Nie ma jednej organizacji zarządzającej, która kontroluje aktywność w Internecie, zamiast tego istnieje szereg organizacji, które mają wpływ na system i monitorują jego działanie. Wśród organów zarządzających Internetem są:

  • Internet Corporation for Assigned Names and Numbers (ICANN), która koordynuje internetowe systemy unikatowych identyfikatorów: adresy IP, rejestry parametrów protokołów i systemy domen najwyższego poziomu. ICANN powstała w 1998 roku jako organizacja non-profit i zarządza Internet Assigned Numbers Authority (IANA), który jest odpowiedzialny za przydzielanie adresów IP.
  • Internet Engineering Task Force (IETF), która jest otwartą międzynarodową społecznością operatorów sieci, sprzedawców i badaczy zajmujących się ewolucją architektury Internetu i jego działaniem. IETF posiada wiele grup roboczych, zorganizowanych w kilka różnych obszarów, które opracowują i promują standardy internetowe, które mają wpływ na sposób korzystania z Internetu i zarządzania nim.
  • Internet Research Task Force (IRTF), który koncentruje się na ewolucji Internetu. IRTF posiada wiele długoterminowych grup badawczych zajmujących się różnymi tematami, takimi jak protokoły internetowe, aplikacje, aplikacje i technologia.
  • Grupa sterująca ds. Inżynierii Internetu (IESG), która jest odpowiedzialna za techniczne zarządzanie działaniami IETF i procesem tworzenia standardów internetowych.
  • Rada Architektury Internetu (IAB), która pomaga zdefiniować ogólną architekturę Internetu i nadzoruje IETF i IRTF.
  • Stowarzyszenie Internet Society (ISOC), które jest konsorcjum korporacji, agencji rządowych i organizacji non-profit, które monitoruje zasady i praktyki internetowe.
  • Forum Zarządzania Internetem (IGF), które jest otwartym forum z udziałem wielu zainteresowanych stron, służącym do debaty na tematy związane z zarządzaniem Internetem.
  • Konsorcjum World Wide Web (W3C), które jest w dużej mierze grupą akademicką, która ustala HTML i inne standardy programowania w sieci.
  • Grupy Operatorów Sieci Internetowych (NOG), które są nieformalnymi grupami, które składają się z ISP, IXP i innych, które omawiają i próbują wpływać na sprawy związane z operacjami i regulacjami internetowymi.

Chociaż żadna z tych organizacji nie ma faktycznej kontroli nad Internetem i jego funkcjonowaniem, mogą one wpływać i wpływają na agencje rządowe, głównych właścicieli sieci, dostawców usług internetowych, korporacje i twórców oprogramowania, mając na celu utrzymanie możliwie jak największej wydajności Internetu. ICANN jest najbliżej zarządzania Internetem i odzwierciedla potężną rolę, jaką Departament Handlu Stanów Zjednoczonych odgrywał w przeszłości w zarządzaniu Internetem. Stany Zjednoczone są odpowiedzialne za funkcję IANA od początku istnienia Internetu. Jednak po utworzeniu ICANN spodziewano się, że funkcja ta zostanie ostatecznie usunięta spod kontroli rządu USA. Jednak w 2006 roku Departament Handlu USA ogłosił, że rząd USA zachowa nadzór nad serwerami głównymi, wbrew początkowym oczekiwaniom. Było kilka powodów takiego posunięcia, w tym wykorzystanie Internetu do podstawowych usług komunikacyjnych przez grupy terrorystyczne oraz niepewność, która mogłaby powstać w przypadku przejęcia władzy przez organ międzynarodowy. W 2008 roku Departament Handlu potwierdził to stanowisko, stwierdzając, że nie planuje przeniesienia zarządzania autorytatywnym plikiem strefy głównej do ICANN (Departament Handlu Stanów Zjednoczonych, 2008). Jednocześnie rosnące potęgi Internetu Chiny i Rosja lobbowały za objęciem większej liczby funkcji Internetu kontrolą ONZ, budząc obawy, że zarządzanie Internetem może stać się jeszcze bardziej upolitycznione (Pfanner, 2012). W 2014 roku Stany Zjednoczone, pod ciągłą presją innych krajów, ostatecznie ogłosiły gotowość do przejęcia kontroli nad IANA, pod warunkiem spełnienia określonych warunków, w tym, że organizacja zarządzająca funkcjami IANA nie jest specjalnie kontrolowana przez żaden inny rząd lub między- organizacja rządowa (np. Organizacja Narodów Zjednoczonych). Przejście miało miejsce 1 października 2016 r. Oprócz tych organizacji zawodowych, Internet musi być również zgodny z prawami suwerennych państw narodowych, w których działa, a także z infrastrukturą techniczną istniejącą w każdym państwie narodowym. Chociaż w pierwszych latach internetu było bardzo niewiele ingerencji ustawodawczej lub wykonawczej, sytuacja się zmienia, ponieważ Internet odgrywa coraz większą rolę w rozpowszechnianiu informacji i wiedzy, w tym treści, które niektórzy uważają za niepożądane.

DOSTAWCY USŁUG INTERNETOWYCH TIER 3

Dostawca usług internetowych warstwy 3: firma, która zapewnia najniższy poziom usług w wielopoziomowej architekturze Internetu poprzez dzierżawę dostępu do Internetu właścicielom domów, małym firmom i niektórym dużym instytucjom.

wąskopasmowe: tradycyjne połączenie modemowe telefoniczne, obecnie działające z szybkością 56,6 Kb / s

szerokopasmowy: odnosi się do dowolnej technologii komunikacyjnej, która umożliwia klientom odtwarzanie strumieniowych plików audio i wideo z akceptowalną prędkością.

Cyfrowa linia abonencka (DSL): zapewnia szybki dostęp za pośrednictwem zwykłych linii telefonicznych znajdujących się w domach lub firmach

FiOS (usługa światłowodowa): forma DSL zapewniająca prędkość do 500 Mb / s

Internet kablowy: cyfrowy dostęp do Internetu poprzez analogowy kabel wideo dostarczający sygnały telewizyjne do domu

T1: międzynarodowy standard telefoniczny dla komunikacji cyfrowej, który zapewnia gwarantowaną przepustowość 1,54 Mb / s

T3: międzynarodowy standard telefoniczny dla komunikacji cyfrowej, który zapewnia gwarantowaną przepustowość 45 Mb / s

Internet satelitarny: szybki, szerokopasmowy dostęp do Internetu za pośrednictwem satelity.

Firmy, które zapewniają najniższy poziom usług w wielopoziomowej architekturze Internetu, dzierżawiąc dostęp do Internetu właścicielom domów, małym firmom i niektórym dużym instytucjom, są czasami nazywane dostawcami usług internetowych trzeciego stopnia (ISP). Dostawcy usług internetowych warstwy 3 są dostawcami detalicznymi. Zajmują się „ostatnią milą usług” przy krawężnikach i biurach handlowych. Dostawcy usług internetowych Tier 3 zazwyczaj łączą się z IXP za pomocą szybkich linii telefonicznych lub kablowych (45 Mb / s i więcej). Trzy firmy, Comcast, Verizon i Time Warner Cable, wspólnie kontrolują prawie połowę infrastruktury przewodowej „ostatniej mili” w Stanach Zjednoczonych. Inni główni dostawcy usług internetowych Tier 3 to AT&T, Charter (który ma zamiar piąć się po drabinie wraz z proponowanym zakupem, obecnie oczekującym na federalne zatwierdzenie, Time Warner Cable i Bright House Networks), Altice (Optimum Online), Cox, Sprint i CenturyLink . Istnieją również tysiące znacznie mniejszych, lokalnych dostawców usług internetowych. Jeśli masz dostęp do Internetu w domu lub w małej firmie, prawdopodobnie usługodawca zapewni Ci tę usługę. (Należy zauważyć, że wielu dostawców usług internetowych warstwy 3 jest również dostawcami usług internetowych warstwy I; te dwie role nie wykluczają się wzajemnie). Firmy satelitarne również oferują dostęp do Internetu, zwłaszcza w odległych obszarach, gdzie usługi szerokopasmowe nie są dostępne. Istnieją dwa rodzaje usług: wąskopasmowe i szerokopasmowe. Usługa wąskopasmowa to tradycyjne połączenie modemowe telefoniczne działające obecnie z szybkością 56,6 Kb / s (chociaż rzeczywista przepustowość oscyluje wokół 30 Kb / s ze względu na zakłócenia linii, które powodują częste ponowne wysyłanie pakietów). Kiedyś była to najpowszechniejsza forma połączenia na świecie, ale w Stanach Zjednoczonych, Europie i Azji w dużej mierze została zastąpiona połączeniami szerokopasmowymi. Usługi szerokopasmowe są oparte na technologiach DSL (w tym szybkich światłowodach), kablowych, telefonicznych (linie T1 i T3) oraz satelitarnych. W kontekście usług internetowych, szerokopasmowe oznacza dowolną technologię komunikacyjną, która umożliwia klientom odtwarzanie strumieniowych plików audio i wideo z akceptowalną prędkością. W styczniu 2015 roku Federalna Komisja Łączności Stanów Zjednoczonych zaktualizowała swoje wzorcowe prędkości szerokopasmowe do 25 Mb / s dla pobierania i 3 Mb / s dla wysyłania. Według Akamai, średnia globalna prędkość połączenia w 2016 r. Wynosiła 6,3 Mb / s, a globalna średnia szczytowa prędkość połączenia wyniosła 34,7 Mb / s. Stany Zjednoczone zajmują 16 miejsce ze średnią szybkością połączenia 15,3 Mb / s (Korea Południowa prowadzi, 29,9 Mb / s) i 22. ze średnią szczytową szybkością łącza 67,8 Mb / s (prowadzi Singapur, 146,9 Mb / s) (Akamai, 2016c). FCC stwierdziła, że ​​17% wszystkich Amerykanów nie ma dostępu do usługi 25 Mb / s / 3 Mb / s, a obszary wiejskie w Ameryce są szczególnie zaniedbane, z czego ponad połowa nie ma takiego dostępu (Federal Communication Commission, 2015). W Stanach Zjednoczonych użytkownicy Internetu szerokopasmowego przekroczyli liczbę użytkowników dial-up w 2004 r., Aw 2016 r. Szacuje się, że 92 mln gospodarstw domowych z dostępem szerokopasmowym (ponad 75% wszystkich gospodarstw domowych) (eMarketer, Inc., 2016e). Rzeczywista przepustowość danych będzie zależeć od wielu czynników, w tym szumu na linii i liczby abonentów żądających usługi. Prędkości na poziomie usług cytowane są zazwyczaj tylko do pobierania treści internetowych; prędkości wysyłania są zwykle niższe, chociaż wielu dostawców usług szerokopasmowych ma plany, które oferują taką samą prędkość wysyłania, jak prędkość pobierania. Linie T1 i T3 to linie użyteczności publicznej podlegające regulacjom publicznym, które zapewniają gwarantowany poziom usług, ale rzeczywista przepustowość innych form usług internetowych nie jest gwarantowana. Usługa cyfrowej linii abonenckiej (DSL) to technologia telefoniczna zapewniająca szybki dostęp do Internetu za pośrednictwem zwykłych linii telefonicznych w domu lub firmie. Poziomy usług zwykle wahają się od około 0,5 do 15 Mb / s. Usługa DSL wymaga, aby klienci mieszkali w promieniu dwóch mil (około 4000 metrów) od najbliższej centrali telefonicznej. Aby konkurować z firmami kablowymi, firmy telekomunikacyjne oferują teraz również zaawansowaną formę DSL o nazwie FiOS (usługa światłowodowa), która zapewnia do 500 Mb / s dla domów i firm. Internet kablowy odnosi się do technologii telewizji kablowej, która łączy cyfrowy dostęp z Internetem za pomocą tego samego analogowego lub cyfrowego kabla wideo dostarczającego sygnały telewizyjne do domu. Internet kablowy jest główną szerokopasmową alternatywą dla usługi DSL, generalnie zapewniającą większe prędkości i abonament „triple play”: telefon, telewizja i Internet za jedną miesięczną opłatą. Jednak dostępna przepustowość Internetu kablowego jest współdzielona z innymi osobami w sąsiedztwie za pomocą tego samego kabla. Gdy wiele osób próbuje jednocześnie uzyskać dostęp do Internetu przez kabel, prędkość może spaść, a wydajność ucierpi. Internetowe usługi kablowe mają zwykle zakres od 1 Mb / s do 500 Mb / s. Comcast, Time Warner Cable, Charter, Cox i Altice (Optimum Online) to jedni z głównych dostawców telewizji kablowej. T1 i T3 to międzynarodowe standardy telefoniczne do komunikacji cyfrowej. Łącza T1 oferują gwarantowaną przepustowość 1,54 Mb / s, natomiast linie T3 oferują 45 Mb / s. Linie T1 kosztują około 200–300 USD miesięcznie, a linie T3 około 2500–6000 USD miesięcznie. Są to linie dzierżawione, dedykowane, gwarantowane, odpowiednie dla korporacji, agencji rządowych i firm, takich jak dostawcy usług internetowych, którzy wymagają gwarantowanych poziomów usług o dużej szybkości. Internet satelitarny jest oferowany przez firmy satelitarne, które zapewniają szybki szerokopasmowy dostęp do Internetu głównie do domów i biur zlokalizowanych na obszarach wiejskich, gdzie nie jest dostępny dostęp do Internetu DSL lub kablowego. Prędkości dostępu i miesięczne koszty są porównywalne z DSL i kablami, ale zazwyczaj wymagają wyższej opłaty początkowej za instalację małej (18-calowej) anteny satelitarnej. Szybkość wysyłania jest zwykle wolniejsza, zwykle wynosi 1–5 Mb / s. Dostawcy satelitarni zazwyczaj mają zasady, które ograniczają całkowitą liczbę megabajtów danych, które pojedyncze konto może pobrać w ustalonym okresie, zwykle miesięcznym. Głównymi dostawcami satelitarnymi są Dish, HughesNet i Exede. W sierpniu 2016 r. Facebook ogłosił plany wystrzelenia satelity mającego na celu zapewnienie łączności z Internetem w niektórych częściach Afryki Subsaharyjskiej, ale plany te zostały wstrzymane, gdy rakieta SpaceX, która miała wystrzelić satelitę, eksplodowała podczas testów podczas działań przed startem . Prawie wszystkie firmy i agencje rządowe mają szerokopasmowe łącza internetowe. Zapotrzebowanie na usługi szerokopasmowe wzrosło tak szybko, ponieważ znacznie przyspiesza proces pobierania stron internetowych oraz dużych plików wideo i audio. Wraz ze wzrostem jakości oferty usług internetowych popyt na dostęp szerokopasmowy będzie nadal rósł.

PUNKTY WYMIANY INTERNETOWEJ

Internet Exchange Point (IXP): hub, w którym sieć szkieletowa przecina się z sieciami lokalnymi i regionalnymi i gdzie właściciele sieci szkieletowej łączą się ze sobą.

W Stanach Zjednoczonych istnieje wiele regionalnych węzłów, w których dostawcy usług internetowych warstwy 1 fizycznie łączą się ze sobą i / lub z dostawcami regionalnymi (warstwy 2). Dostawcy usług internetowych warstwy 2 wymieniają ruch internetowy zarówno za pośrednictwem połączeń peeringowych, jak i kupując tranzyt internetowy, i łączą dostawców usług internetowych warstwy 1 z dostawcami usług internetowych warstwy 3, którzy zapewniają dostęp do Internetu konsumentom i firmom. Dostawcy usług internetowych warstwy 3 są opisani dokładniej w następnej sekcji. Centra te były pierwotnie nazywane punktami dostępu do sieci (NAP) lub giełdami metropolitalnymi (MAE), ale obecnie są częściej nazywane punktami wymiany internetowej (IXP).

SIEĆ SZKIELETOWA INTERNETU

Dostawcy usług internetowych warstwy 1 (dostawcy usług internetowych warstwy 1): posiadają i kontrolują główne światłowodowe sieci kablowe o dużym zasięgu, składające się z podstaw internetu.

szkielet: kabel światłowodowy o dużej przepustowości, który przesyła dane w Internecie

przepustowość: mierzy, ile danych można przesłać przez medium komunikacyjne w określonym czasie; jest zwykle wyrażana w bitach na sekundę (bps), kilobitach na sekundę (Kbps),  megabity na sekundę (Mb / s) lub gigabity na sekundę (Gb / s)

nadmiarowość: wiele zduplikowanych urządzeń i ścieżek w sieci.

Początkowo Internet miał jedną sieć szkieletową, ale dzisiejszy Internet składa się z wielu prywatnych sieci składających się z szerokopasmowych kabli światłowodowych, które są fizycznie połączone ze sobą i przesyłają informacje z jednej sieci prywatnej do drugiej. Te długodystansowe sieci światłowodowe są własnością firm zwanych czasami dostawcami usług internetowych warstwy 1 (ISP warstwy 1) (czasami nazywanymi również dostawcami tranzytowymi). Dostawcy usług internetowych warstwy 1 zawarli umowy „peering” z innymi dostawcami usług internetowych warstwy 1, aby umożliwić przepływ ruchu internetowego przez kable i sprzęt drugiej strony bez opłat. Dostawcy usług internetowych warstwy 1 zajmują się tylko innymi dostawcami usług internetowych warstwy 1 lub 2 (opisanymi w następnej sekcji), a nie konsumentami końcowymi. Dla uproszczenia będziemy nazywać te sieci szkieletowe pojedynczą „siecią szkieletową”. Szkielet został porównany do gigantycznego rurociągu, który transportuje dane na całym świecie w milisekundach. W Stanach Zjednoczonych sieć szkieletowa składa się w całości z kabla światłowodowego o przepustowości od 155 Mb / s do 2,5 Gb / s. Przepustowość mierzy, ile danych można przesłać przez medium komunikacyjne w ustalonym okresie czasu i jest zwykle wyrażana w bitach na sekundę (Bps), kilobitach (tysiące bitów) na sekundę (Kbps), megabitach (miliony bitów) na sekundę (Mbps) lub gigabity (miliardy bitów) na sekundę (Gbps). Połączenia z innymi kontynentami są realizowane za pomocą połączenia podmorskich kabli światłowodowych i łączy satelitarnych. Coraz częściej, zamiast dzierżawić przepustowość od dostawców usług internetowych pierwszego poziomu, giganci internetowi, tacy jak Google, Microsoft i Facebook, zakładają własne sieci światłowodowe. Na przykład Google ma jeden kabel rozciągający się z Kalifornii do Japonii, a drugi łączący Stany Zjednoczone z Brazylią, podczas gdy Facebook i Microsoft sprzymierzyły się, by położyć kabel przez Atlantyk, łączący Wirginię z Hiszpanią. Sieć szkieletowa w innych krajach jest zwykle obsługiwana przez właścicieli prywatnych i publicznych. Sieć szkieletowa ma wbudowaną nadmiarowość, dzięki czemu w przypadku awarii jednej części dane mogą zostać przekierowane do innej części sieci szkieletowej. Nadmiarowość odnosi się do wielu zduplikowanych urządzeń i ścieżek w sieci. Niedawne badanie fizycznej struktury Internetu w Stanach Zjednoczonych stworzyło jedną z pierwszych map istniejącej obecnie sieci światłowodowej dalekiego zasięgu. Mapa pokazuje, że nie jest zaskakujące, że na północno-wschodnich i przybrzeżnych obszarach Stanów Zjednoczonych istnieją gęste sieci światłowodowe, podczas gdy w regionach Upper Plains i Four Corners występuje wyraźny brak infrastruktury. Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych udostępnił mapę, a także dane, na których się ona opiera, badaczom rządowym, prywatnym i publicznym, wierząc, że może to zwiększyć odporność Internetu poprzez poprawę wiedzy

INTERNET DZIŚ

Warstwa podłoża technologii sieciowej: warstwa technologii internetowej, na którą składają się sieci i protokoły telekomunikacyjne

Warstwa usług transportowych i standardów reprezentacji: warstwa architektury internetowej, w której znajduje się protokół TCP / IP

Warstwa aplikacji: warstwa architektury internetowej zawierająca aplikacje klienckie

Warstwa usług oprogramowania pośredniego: „klej”, który wiąże aplikacje z sieciami komunikacyjnymi i obejmuje takie usługi, jak zabezpieczenia, uwierzytelnianie, adresy i repozytoria pamięci.

Szacuje się, że w 2016 r. na świecie  było około 3,3 miliarda użytkowników Internetu, w porównaniu ze 100 milionami użytkowników pod koniec 1997 r. Chociaż jest to ogromna liczba, nadal stanowi mniej niż połowę (około 45%) światowej populacji. Chociaż wzrost liczby użytkowników Internetu spowolnił w Stanach Zjednoczonych i Europie Zachodniej do około 1–2% rocznie na całym świecie, tempo wzrostu wynosi około 7%, przy czym obszarami najwyższego wzrostu są Bliski Wschód / Afryka i Azja-Pacyfik (oba nadal rośnie o ponad 8%). Przewiduje się, że do 2020 r. Na całym świecie będzie ponad 3,9 miliarda użytkowników Internetu. Można by pomyśleć, że Internet byłby przeciążony tak niesamowitym wzrostem; jednakże nie było to prawdą z kilku powodów. Po pierwsze, przetwarzanie typu klient / serwer jest wysoce rozszerzalne. Po prostu dodając serwery i klientów, populacja użytkowników Internetu może rosnąć w nieskończoność. Po drugie, architektura Internetu jest zbudowana z warstw, dzięki czemu każda warstwa może się zmieniać bez zakłócania rozwoju w innych warstwach. Na przykład technologia używana do przesyłania wiadomości przez Internet może ulec radykalnym zmianom, aby przyspieszyć obsługę bez zakłócania działania aplikacji komputerowych działających w Internecie. Internet można postrzegać koncepcyjnie jako mający cztery warstwy: podłoża technologii sieciowych, usługi transportowe i standardy reprezentacji, usługi oprogramowania pośredniego i aplikacje. Warstwa podłoża technologii sieciowej składa się z sieci telekomunikacyjnych i protokołów. Warstwa usług transportowych i standardów reprezentacji zawiera protokół TCP / IP. Warstwa Aplikacje zawiera aplikacje klienckie, takie jak Internet, poczta e-mail i odtwarzanie audio lub wideo. Warstwa usług oprogramowania pośredniego to klej, który wiąże aplikacje z sieciami komunikacyjnymi i obejmuje takie usługi, jak zabezpieczenia, uwierzytelnianie, adresy i repozytoria magazynu. Użytkownicy pracują z aplikacjami (takimi jak poczta e-mail) i rzadko dostrzegają oprogramowanie pośredniczące działające w tle. Ponieważ wszystkie warstwy używają protokołu TCP / IP i innych wspólnych standardów łączących wszystkie cztery warstwy, możliwe są znaczące zmiany w warstwie podłoża technologii sieciowej bez wymuszania zmian w warstwie aplikacji.

INNE PROTOKOŁY INTERNETOWE I PROGRAMY NARZĘDZIOWE

HyperText Transfer Protocol (HTTP): protokół internetowy używany do przesyłania stron internetowych

Simple Mail Transfer Protocol (SMTP): protokół internetowy używany do wysyłania poczty na serwer

Post Office Protocol 3 (POP3): protokół używany przez klienta do pobierania poczty z serwera internetowego

Internet Message Access Protocol (IMAP): bardziej aktualny protokół poczty e-mail, który umożliwia użytkownikom wyszukiwanie, porządkowanie i filtrowanie poczty przed pobraniem jej z serwera

File Transfer Protocol (FTP): jedna z oryginalnych usług internetowych. Część protokołu TCP / IP, która umożliwia użytkownikom przesyłanie plików z serwera na komputer kliencki i odwrotnie

Telnet: program do emulacji terminala działający w protokole TCP / IP Secure Sockets Layer (SSL) / Transport Layer Security (TLS); protokoły zabezpieczające komunikację między klientem a serwerem.

Ping: program, który pozwala sprawdzić połączenie między klientem a serwerem

Tracert: jedno z kilku narzędzi do śledzenia tras, które umożliwiają śledzenie ścieżki wiadomości wysyłanej od klienta do zdalnego komputera w Internecie.

INNE PROTOKOŁY INTERNETOWE I PROGRAMY NARZĘDZIOWE

Istnieje wiele innych protokołów internetowych i programów narzędziowych, które zapewniają użytkownikom usługi w postaci aplikacji internetowych działających na klientach i serwerach internetowych. Te usługi internetowe opierają się na powszechnie akceptowanych protokołach – lub standardach – dostępnych dla każdego, kto korzysta z Internetu. Nie należą do żadnej organizacji, ale są to usługi, które są rozwijane przez wiele lat i udostępniane wszystkim użytkownikom Internetu. HyperText Transfer Protocol (HTTP) to protokół internetowy używany do przesyłania stron internetowych (opisany w następnej sekcji). Protokół HTTP został opracowany przez World Wide Web Consortium (W3C) i Internet Engineering Task Force (IETF). Protokół HTTP działa w warstwie aplikacji protokołu TCP / IP. Sesja HTTP rozpoczyna się, gdy przeglądarka klienta żąda zasobu, takiego jak strona WWW, ze zdalnego serwera internetowego. Gdy serwer odpowie, wysyłając żądaną stronę, sesja HTTP dla tego obiektu kończy się. Ponieważ strony internetowe mogą zawierać wiele obiektów – grafikę, pliki dźwiękowe lub wideo, ramki itd. – każdy obiekt musi być zażądany w oddzielnym komunikacie HTTP. Więcej informacji na temat protokołu HTTP można znaleźć w dokumencie RFC 2616, w którym opisano szczegółowo standardy protokołu HTTP / 1.1, najczęściej używanej obecnie wersji protokołu HTTP (Internet Society, 1999). (RFC to dokument opublikowany przez Internet Society [ISOC] lub jedną z innych organizacji zaangażowanych w zarządzanie Internetem określające standardy dla różnych technologii internetowych. Dowiesz się więcej o organizacjach zaangażowanych w ustanawianie standardów dla Internetu w dalszej części rozdziału.) Zaktualizowana wersja protokołu HTTP, znana jako HTTP / 2, została opublikowana jako RFC 7540 w maju 2015 r. (IETF, 2015). Protokół HTTP / 2 dotyczy wielu protokołów http 1.1 i ma na celu zwiększenie wydajności poprzez wyeliminowanie konieczności otwierania wielu połączeń TCP między klientem a serwerem (tzw. Multipleksowanie), umożliwiając serwerom przekazywanie zasobów do klienta bez konieczności żądania ich przez klienta (tzw. Serwer push), i zmniejszenie rozmiaru nagłówka HTTP (kompresja nagłówka). Protokół HTTP / 2 będzie również zapewniał korzyści w zakresie bezpieczeństwa, zwiększając wydajność zaszyfrowanych danych przesyłanych przez HTTP / 2. Protokół HTTP / 2 jest obsługiwany przez prawie wszystkie wiodące przeglądarki internetowe, ale od sierpnia 2016 r. Został przyjęty tylko przez około 10% z 10 milionów najpopularniejszych witryn, po części ze względu na wyzwania związane z przenoszeniem aplikacji z protokołu HTTP przez organizacje do HTTP / 2. Poczta elektroniczna to jedna z najstarszych, najważniejszych i najczęściej używanych usług internetowych. Podobnie jak HTTP, różne protokoły internetowe używane do obsługi poczty elektronicznej działają w warstwie aplikacji TCP / IP. Simple Mail Transfer Protocol (SMTP) to protokół internetowy używany do wysyłania wiadomości e-mail na serwer. SMTP to stosunkowo prosty protokół tekstowy, który został opracowany na początku lat 80. SMTP obsługuje tylko wysyłanie wiadomości e-mail. Aby pobrać pocztę e-mail z serwera, komputer kliencki używa albo Post Office Protocol 3 (POP3), albo Internet Message Access Protocol (IMAP). Możesz ustawić POP3 tak, aby pobierał wiadomości e-mail z serwera, a następnie usuwał wiadomości z serwera lub zachowywał je na serwerze. IMAP to bardziej aktualny protokół poczty e-mail. IMAP umożliwia użytkownikom wyszukiwanie, porządkowanie i filtrowanie poczty przed pobraniem jej z serwera. Protokół transferu plików (FTP) jest jedną z oryginalnych usług internetowych. Protokół FTP działa w warstwie aplikacji protokołu TCP / IP i umożliwia użytkownikom przesyłanie plików z serwera na komputer kliencki i odwrotnie. Pliki mogą być dokumentami, programami lub dużymi plikami baz danych. FTP to najszybszy i najwygodniejszy sposób przesyłania plików większych niż 1 megabajt, którego niektóre serwery poczty e-mail nie akceptują. Więcej informacji na temat protokołu FTP można znaleźć w dokumencie RFC 959. Telnet to protokół sieciowy, który działa również w warstwie aplikacji protokołu TCP / IP i służy do zdalnego logowania na innym komputerze. Termin Telnet odnosi się również do programu Telnet, który zapewnia część protokołu dla klienta i umożliwia klientowi emulację terminala komputerowego typu mainframe. (Standardowe terminale branżowe zdefiniowane w czasach komputerów mainframe to VT-52, VT-100 i IBM 3250). Następnie można podłączyć się do komputera w Internecie obsługującego usługę Telnet i uruchamiać programy lub pobierać pliki z tego komputera. . Telnet był pierwszym programem do „pracy zdalnej”, który umożliwiał użytkownikom pracę na komputerze z lokalizacji zdalnej. Secure Sockets Layer (SSL) / Transport Layer Security (TLS) to protokoły, które działają między warstwą transportową i aplikacyjną protokołu TCP / IP oraz zapewniają bezpieczną komunikację między klientem a serwerem. SSL / TLS pomaga zabezpieczyć komunikację w handlu elektronicznym i płatności za pomocą różnych technik, takich jak szyfrowanie wiadomości i podpisy cyfrowe. Packet InterNet Groper (Ping) to program narzędziowy, który umożliwia sprawdzenie połączenia między komputerem klienckim a siecią TCP / IP. Ping poinformuje również, ile czasu zajmuje odpowiedź serwera, dając pewne wyobrażenie o szybkości serwera i Internetu w tym momencie. Ping można uruchomić z wiersza polecenia na komputerze osobistym z systemem operacyjnym Windows, wpisując:

ping <nazwa domeny>.

Ping może być również używany do spowolnienia lub nawet awarii serwera domeny, wysyłając do niego miliony żądań ping. Tracert jest jednym z kilku narzędzi do śledzenia tras, które umożliwiają śledzenie ścieżki wiadomości wysyłanej od klienta do zdalnego komputera w Internecie.

MODEL INTERNETOWY „CLOUD COMPUTING”: SPRZĘT I OPROGRAMOWANIE JAKO USŁUGA

przetwarzanie w chmurze: model przetwarzania, w którym przetwarzanie komputerowe, przechowywanie, oprogramowanie i inne usługi są świadczone jako wspólna pula zwirtualizowanych zasobów przez Internet.

chmura publiczna: zewnętrzni dostawcy usług, którzy są właścicielami dużych, skalowalnych centrów danych i zarządzają nimi, oferując przetwarzanie, przechowywanie danych i szybki Internet wielu klientom, którzy płacą tylko za zasoby, z których korzystają.

prywatna chmura L zapewnia podobne opcje jak chmura publiczna, ale tylko do pojedynczego najemcy

chmura hybrydowa: oferuje klientom zarówno chmurę publiczną, jak i prywatną.

Przetwarzanie w chmurze to model przetwarzania, w którym przetwarzanie komputerowe, przechowywanie, oprogramowanie i inne usługi są świadczone jako wspólna pula zwirtualizowanych zasobów przez Internet. Te „chmury” zasobów obliczeniowych mogą być dostępne w razie potrzeby z dowolnego podłączonego urządzenia i lokalizacji.

Amerykański Narodowy Instytut Standardów i Technologii (NIST) definiuje przetwarzanie w chmurze jako mające następujące podstawowe cechy:

  • Samoobsługa na żądanie: konsumenci mogą samodzielnie uzyskiwać funkcje obliczeniowe, takie jak czas serwera lub pamięć sieciowa, w razie potrzeby.
  • Wszechobecny dostęp do sieci: dostęp do zasobów w chmurze można uzyskać za pomocą standardowych urządzeń sieciowych i internetowych, w tym platform mobilnych.
  • Pule zasobów niezależne od lokalizacji: zasoby obliczeniowe są łączone w celu obsługi wielu użytkowników, a różne zasoby wirtualne są dynamicznie przydzielane zgodnie z zapotrzebowaniem użytkowników. Użytkownik na ogół nie wie, gdzie znajdują się zasoby obliczeniowe.
  • Szybka elastyczność: zasoby obliczeniowe można szybko udostępniać, zwiększać lub zmniejszać, aby sprostać zmieniającym się wymaganiom użytkowników.
  • Usługa mierzona: Opłaty za zasoby w chmurze są oparte na ilości faktycznie wykorzystywanych zasobów.

Przetwarzanie w chmurze składa się z trzech podstawowych rodzajów usług:

  • Infrastruktura jako usługa (IaaS): Klienci używają przetwarzania, przechowywania, sieci i innych zasobów obliczeniowych od zewnętrznych dostawców zwanych dostawcami usług w chmurze (CSP) do obsługi swoich systemów informatycznych. Na przykład Amazon wykorzystał wolne moce produkcyjne swojej infrastruktury informatycznej, aby opracować Amazon Web Services (AWS), które oferują środowisko chmurowe dla niezliczonych różnych usług infrastruktury IT.
  • Oprogramowanie jako usługa (SaaS): Klienci używają oprogramowania udostępnianego przez dostawcę w infrastrukturze chmury dostawcy i dostarczanego jako usługa w sieci. Wiodącymi przykładami SaaS są Google Apps, która udostępnia popularne aplikacje biznesowe online, oraz Salesforce.com, która zapewnia zarządzanie relacjami z klientami i powiązane usługi oprogramowania przez Internet. Oba pobierają od użytkowników roczną opłatę subskrypcyjną, chociaż Google Apps ma również zmniejszoną bezpłatną wersję. Użytkownicy uzyskują dostęp do tych aplikacji z przeglądarki internetowej, a dane i oprogramowanie są przechowywane na zdalnych serwerach dostawców.
  • Platforma jako usługa (PaaS): Klienci używają infrastruktury i narzędzi programistycznych obsługiwanych przez dostawcę CSP do tworzenia własnych aplikacji. Na przykład IBM oferuje Bluemix do tworzenia oprogramowania i testowania w infrastrukturze chmury. Innym przykładem jest Force.com firmy Salesforce.com, która umożliwia programistom tworzenie aplikacji hostowanych na jej serwerach jako usługa.

Chmura może być prywatna, publiczna lub hybrydowa. Chmura publiczna jest własnością dostawców CSP, takich jak Amazon Web Services, IBM, HP i Dell, i jest przez nich utrzymywana. Udostępnia stosunkowo bezpieczną niezawodność klasy korporacyjnej przy znacznych oszczędnościach kosztów. Ponieważ organizacje korzystające z chmur publicznych nie są właścicielami infrastruktury, nie muszą dokonywać dużych inwestycji we własny sprzęt i oprogramowanie. Zamiast tego kupują swoje usługi komputerowe od zdalnych dostawców i płacą tylko za ilość mocy obliczeniowej, z której faktycznie korzystają (obliczenia użytkowe) lub są rozliczani na podstawie miesięcznej lub rocznej subskrypcji. Do opisu takich usług używa się również terminu „obliczenia na żądanie”. W związku z tym chmury publiczne są idealnymi środowiskami dla małych i średnich firm, które nie mogą sobie pozwolić na pełny rozwój własnej infrastruktury; dla aplikacji wymagających wysokiej wydajności, skalowalności i dostępności; do tworzenia i testowania nowych aplikacji; i dla firm, które mają sporadyczne duże projekty komputerowe. Firma Gartner szacuje, że wydatki na usługi w chmurze publicznej na całym świecie wzrosną w 2016 r. O ponad 15% do 204 mld USD (Gartner, Inc., 2016a). Firmy takie jak Google, Apple, Dropbox i inne również oferują chmury publiczne jako usługę konsumencką do przechowywania danych, muzyki i zdjęć online. Google Drive, Dropbox i Apple iCloud to wiodące przykłady tego typu konsumenckich usług chmurowych. Chmura prywatna zapewnia podobne możliwości jak chmura publiczna, ale jest obsługiwana wyłącznie dla korzyści jednego najemcy. Może być zarządzany przez organizację lub stronę trzecią i hostowany wewnętrznie lub zewnętrznie.

Podobnie jak chmury publiczne, chmury prywatne mogą bezproblemowo przydzielać pamięć masową, moc obliczeniową lub inne zasoby, aby zapewnić zasoby obliczeniowe w zależności od potrzeb. Firmy, które mają rygorystyczne wymagania dotyczące zgodności z przepisami lub wyspecjalizowane wymagania licencyjne, które wymagają wysokiego poziomu bezpieczeństwa, takie jak usługi finansowe lub firmy medyczne, lub które chcą elastycznych zasobów technologii informacyjnej i modelu usług w chmurze, zachowując kontrolę nad własną infrastrukturą IT, skłaniają się ku takim chmurom prywatnym . Duże firmy najprawdopodobniej przyjmą hybrydowy model przetwarzania w chmurze, w którym wykorzystują własną infrastrukturę do swoich najważniejszych podstawowych działań i przyjmują chmurę publiczną dla mniej krytycznych systemów lub dla dodatkowej mocy obliczeniowej w szczytowych okresach działalności. Przetwarzanie w chmurze będzie stopniowo odsuwać firmy od stałej przepustowości infrastruktury

w kierunku bardziej elastycznej infrastruktury, której część należy do firmy, a część jest wynajmowana od gigantycznych centrów danych należących do dostawców CSP. Przetwarzanie w chmurze ma pewne wady. O ile użytkownicy nie zdecydują się na lokalne przechowywanie danych, odpowiedzialność za przechowywanie i kontrolę danych spoczywa na dostawcy. Niektóre firmy obawiają się zagrożeń bezpieczeństwa związanych z powierzeniem ich krytycznych danych i systemów zewnętrznemu dostawcy, który współpracuje również z innymi firmami. Firmy oczekują, że ich systemy będą dostępne 24 godziny na dobę, 7 dni w tygodniu i nie chcą tracić możliwości biznesowych w przypadku awarii infrastruktury chmury. Niemniej jednak istnieje tendencja do przenoszenia większej części przetwarzania i przechowywania danych komputerowych do jakiejś formy infrastruktury chmurowej. Przetwarzanie w chmurze ma wiele znaczących implikacji dla handlu elektronicznego. W przypadku firm zajmujących się handlem elektronicznym przetwarzanie w chmurze radykalnie obniża koszty budowy i obsługi witryn internetowych, ponieważ niezbędna infrastruktura sprzętowa i oprogramowanie mogą być licencjonowane jako usługa od dostawców CSP za ułamek kosztów zakupu tych usług jako produktów. Oznacza to, że przy tworzeniu witryn internetowych firmy mogą stosować strategie „płać zgodnie z rzeczywistym użyciem” i „płacić w miarę rozwoju”. Na przykład, według Amazon, setki tysięcy klientów korzysta z Amazon Web Services. Dla osób fizycznych przetwarzanie w chmurze oznacza, że ​​nie potrzebujesz już wydajnego laptopa lub komputera stacjonarnego do prowadzenia handlu elektronicznego lub innych działań. Zamiast tego możesz skorzystać ze znacznie tańszych tabletów lub smartfonów, które kosztują kilkaset dolarów. W przypadku korporacji przetwarzanie w chmurze oznacza, że ​​znaczną część kosztów sprzętu i oprogramowania (kosztów infrastruktury) można obniżyć, ponieważ firmy mogą uzyskać te usługi online za ułamek kosztów posiadania i nie muszą zatrudniać personelu IT do obsługi infrastruktura.

NOWY KLIENT: PLATFORMA MOBILNA

W mieście jest nowy klient. Podstawowym sposobem dostępu do Internetu, zarówno w Stanach Zjednoczonych, jak i na całym świecie, są obecnie przenośne smartfony i tablety, a nie tradycyjne komputery stacjonarne lub laptopy. Oznacza to, że podstawowa platforma produktów i usług handlu elektronicznego również zmienia się w platformę mobilną. Zmiana sprzętu osiągnęła punkt krytyczny. Kształt komputerów PC zmienił się z komputerów stacjonarnych na laptopy i tablety, takie jak iPad (i ponad 100 innych konkurentów). Tablety są lżejsze, nie wymagają skomplikowanego systemu operacyjnego i polegają na chmurze internetowej do przetwarzania i przechowywania. W Stanach Zjednoczonych około 155 milionów ludzi korzysta z Internetu za pomocą tabletu. Smartfony to przełomowa technologia, która radykalnie zmienia środowisko komputerów osobistych i handlu elektronicznego. Smartfony spowodowały poważną zmianę w procesorach komputerowych i oprogramowaniu, która zakłóciła podwójny monopol od dawna ustanowiony przez Intela i Microsoft, których chipy, systemy operacyjne i aplikacje zaczęły dominować na rynku komputerów PC w 1982 roku. Niewiele smartfonów używa chipów Intela, które zasilają 90 % komputerów na świecie; tylko niewielki odsetek smartfonów korzysta z systemu operacyjnego firmy Microsoft (Windows Mobile). Zamiast tego producenci smartfonów albo kupują systemy operacyjne, takie jak Symbian, światowy lider, albo tworzą własne, takie jak iPhone iOS firmy Apple, zazwyczaj oparte na platformach Linux i Java. Smartfony nie używają energochłonnych dysków twardych, ale zamiast tego używają układów pamięci flash o pojemności do 128 gigabajtów, które również wymagają znacznie mniej energii. W 2016 roku ponad 210 milionów Amerykanów korzysta z telefonów komórkowych w celu uzyskania dostępu do Internetu. Platforma mobilna ma poważne konsekwencje dla handlu elektronicznego, ponieważ wpływa na to, jak, gdzie i kiedy konsumenci robią i kupują.

CZĘŚCI INTERNETOWYCH PUZZLI : NAZWY I ADRESY

Adresy IP: Każde urządzenie podłączone do Internetu musi mieć unikalny numer adresu zwany adresem protokołu internetowego (IP).

Nazwy domen: system nazw domen umożliwia wyrażeniom takim jak Pearsoned.com (witryna Pearson Education) oznaczanie numerycznych lokalizacji adresów IP.

Serwery DNS: serwery DNS to bazy danych, które śledzą adresy IP i nazwy domen w Internecie.

Serwery główne: serwery główne to centralne katalogi zawierające listę wszystkich nazw domen aktualnie używanych dla określonych domen; na przykład serwer główny .com. Serwery DNS konsultują się z serwerami głównymi w celu wyszukania nieznanych nazw domen podczas kierowania ruchu.

przetwarzanie klient / serwer: model przetwarzania, w którym komputery klienckie są połączone w sieci razem z jednym lub większą liczbą serwerów

klient: potężny komputer stacjonarny będący częścią sieci

serwer: komputer w sieci przeznaczony do wykonywania typowych funkcji, których potrzebują komputery klienckie w sieci.

Komputery typu klient / serwer

Podczas gdy przełączanie pakietów spowodowało eksplozję dostępnej przepustowości komunikacyjnej, a protokół TCP / IP zapewnił zasady i przepisy dotyczące komunikacji, potrzeba było rewolucji w informatyce, aby stworzyć dzisiejszy Internet i Internet. Ta rewolucja nazywa się przetwarzaniem klient / serwer i bez niej Internet – w całym jej bogactwie – by nie istniał. Przetwarzanie klient / serwer to model przetwarzania, w którym komputery klienckie są połączone w sieci z jednym lub większą liczbą serwerów, które są komputerami przeznaczonymi do wykonywania typowych funkcji, których potrzebują komputery klienckie w sieci, takich jak przechowywanie plików, aplikacje , drukowanie i dostęp do Internetu. Komputery klienckie są wystarczająco wydajne, aby wykonywać złożone zadania. Serwery to komputery w sieci przeznaczone do wykonywania typowych funkcji, których potrzebują komputery klienckie w sieci, takich jak przechowywanie plików, aplikacje, programy narzędziowe zapewniające połączenia internetowe i drukarki. Internet jest gigantycznym przykładem przetwarzania typu klient / serwer, w którym miliony serwerów WWW zlokalizowanych na całym świecie są łatwo dostępne dla milionów komputerów klienckich, również zlokalizowanych na całym świecie. Aby docenić możliwości obliczeniowe typu klient / serwer, należy zrozumieć, co je poprzedzało. W środowisku komputerów mainframe w latach 60. i 70. moc obliczeniowa była bardzo droga i ograniczona. Na przykład największe komercyjne komputery typu mainframe z późnych lat 60. miały 128 tys. Pamięci RAM i 10-megabajtowe dyski twarde i zajmowały setki stóp kwadratowych. Moc obliczeniowa była niewystarczająca do obsługi grafiki lub koloru w dokumentach tekstowych, nie mówiąc już o plikach dźwiękowych, wideo lub dokumentach zawierających hiperłącza. W tym okresie obliczenia były całkowicie scentralizowane: cała praca była wykonywana przez jeden komputer typu mainframe, a użytkownicy byli podłączani do komputera mainframe za pomocą terminali. Wraz z rozwojem komputerów osobistych i sieci lokalnych w późnych latach siedemdziesiątych i wczesnych osiemdziesiątych XX wieku przetwarzanie danych typu klient / serwer stało się możliwe. Przetwarzanie typu klient / serwer ma wiele zalet w porównaniu ze scentralizowanymi komputerami typu mainframe. Na przykład łatwo jest zwiększyć pojemność, dodając serwery i klientów. Ponadto sieci klient / serwer są mniej podatne na ataki niż scentralizowane architektury obliczeniowe. Jeśli jeden serwer ulegnie awarii, serwery kopii zapasowych lub lustrzane mogą przejąć zapas luzu; jeśli komputer kliencki nie działa, reszta sieci nadal działa. Co więcej, obciążenie przetwarzania jest równoważone na wiele potężnych, mniejszych komputerów, zamiast koncentrować się w jednym ogromnym komputerze, który przetwarza dla wszystkich. Zarówno oprogramowanie, jak i sprzęt w środowiskach klient / serwer można zbudować w prostszy i tańszy sposób. Szacuje się, że w 2016 r. Na całym świecie używanych jest około 1,8 miliarda „tradycyjnych” komputerów osobistych. Możliwości komputerów osobistych zostały również przeniesione na smartfony i tablety (wszyscy są znacznie „cieńszymi” klientami z nieco mniejszą mocą obliczeniową i ograniczoną pamięcią, ale polegają na serwerach internetowych do wykonywania swoich zadań). W tym procesie więcej przetwarzania komputerowego będzie wykonywane przez serwery centralne.

Nazwy domen, DNS i adresy URL

nazwa domeny: adres IP wyrażony w języku naturalnym

Domain Name System (DNS): system do wyrażania numerycznych adresów IP w języku naturalnym

Uniform Resource Locator (URL): adres używany przez przeglądarkę internetową do identyfikacji lokalizacji treści w Internecie.

Większość ludzi nie pamięta liczb 32-bitowych. Adres IP może być reprezentowany przez konwencję języka naturalnego zwaną nazwą domeny. System nazw domenowych (DNS) umożliwia wyrażeniom, takim jak Cnet.com, oznaczanie numerycznego adresu IP (numeryczny adres IP cnet. Com to 216.239.113.101) .3 Uniform Resource Locator (URL), czyli adres używany przez sieć przeglądarka do identyfikowania lokalizacji treści w sieci Internet wykorzystuje również nazwę domeny jako część adresu URL. Typowy adres URL zawiera protokół używany podczas uzyskiwania dostępu do adresu, a następnie jego lokalizację. Na przykład adres URL http://www.azimuth-interactive.com/flash_test odnosi się do adresu IP 208.148.84.1 z nazwą domeny „azimuth-interactive.com” i protokołem używanym do uzyskania dostępu do adresu HTTP. Zasób o nazwie „flash_test” znajduje się w katalogu serwera ścieżka / flash_test. Adres URL może mieć od dwóch do czterech części; na przykład imię1.nazwa2.nazwa3.org.

Domain Name System to hierarchiczna przestrzeń nazw z serwerem głównym na górze. Domeny najwyższego poziomu pojawiają się jako następne i określają typ organizacji (np. .Com, .gov, .org itp.) Lub lokalizację geograficzną (np. .Uk [Wielka Brytania] lub .ca [Kanada]). Serwery drugiego poziomu dla każdej domeny najwyższego poziomu przypisują i rejestrują nazwy domen drugiego poziomu dla organizacji i osób, takich jak IBM.com, Microsoft.com i Stanford.edu. Wreszcie domeny trzeciego poziomu identyfikują określony komputer lub grupę komputerów w organizacji, np. www.finance.nyu.edu.