Tętno cywilizacji w układach połączeń i wzajemnych powiązań. Sieci - krwiobiegi świata
Czasy współczesne nazywa się erą informacji. Podstawową infrastrukturą tej ery jest sieć telekomunikacyjna. Słowo„telekomunikacja” pochodzi od rzeczownika złożonego z greckiego „tele” oznaczającego odległy lub daleki, i łacińskiego czasownika „communicare”, oznaczającego rozgłaszanie, udostępnianie. Współczesne znaczenie zostało zaadaptowane z języka francuskiego, a pierwsze użycie pochodzi z 1904 roku, u francuskiego inżyniera i powieściopisarza Édouarda Estaunié.
Telekomunikacja to transmisja informacji za pomocą różnego rodzaju technologii przewodowych, radiowych, optycznych lub innych systemów elektromagnetycznych. XX- i XXI-wieczne techniki komunikacji na duże odległości zazwyczaj należą do sfery techniki elektrycznej i elektromagnetycznej. Przykłady to telegraf, telefon, telex, telewizja, sieci, radio, transmisja mikrofalowa, światłowody i satelity komunikacyjne. Wczesne sieci telekomunikacyjne zostały stworzone przy użyciu metalowych przewodów jako fizycznego medium do transmisji sygnału. Przez wiele lat sieci te były wykorzystywane do usług telegraficznych i głosowych.
Rewolucja w komunikacji bezprzewodowej rozpoczęła się w pierwszej dekadzie XX wieku wraz z rozwojem komunikacji radiowej przez Guglielmo Marconiego i innych znaczących pionierskich wynalazców i deweloperów w dziedzinie telekomunikacji elektrycznej i elektronicznej. Do pionierów telekomunikacji należeli m.in. Charles Wheatstone i Samuel Morse (konstruktorzy telegrafu), Antonio Meucci i Alexander Graham Bell (telefon), Edwin Armstrong i Lee de Forest (radio), a także Vladimir K. Zworykin, John Logie Baird i Philo Farnsworth (telewizja).
Podczas Pełnomocnej Konferencji Telegraficznej w 1932 r. i Międzynarodowej Konferencji Radiotelegraficznej w Madrycie organizacje te połączyły się, tworząc Międzynarodowy Związek Telekomunikacyjny (ITU). Zdefiniowały one przy okazji telekomunikację jako „telegraficzną lub telefoniczną komunikację znaków, sygnałów, pisma, faksów i dźwięków dowolnego rodzaju, za pomocą przewodów, bezprzewodowych lub innych systemów lub procesów sygnalizacji elektrycznej lub sygnalizacji wizualnej (semafory)”.
Wynalezienie urządzeń półprzewodnikowych w la-tach 40. XX wieku umożliwiło produkcję urządzeń elektronicznych, które są mniejsze, tańsze i bardziej wydajne, niezawodne i trwałe niż lampy, choć te nadal znajdują zastosowanie w niektórych wzmacniaczach wysokiej częstotliwości. W latach 60. XX wieku Paul Baran i, niezależnie, Donald Davies zaczęli badać techniki przełączania pakietów informacji, co pozwoliło na wysyłanie wiadomości w porcjach do miejsca docelowego asynchronicznie, bez przechodzenia przez scentralizowany komputer.
W grudniu 1969 r. powstała czterowęzłowa sieć, stanowiąca początki ARPANET, która do 1981 r. rozrosła się do 213 węzłów. ARPANET połączył się potem z innymi sieciami, tworząc Internet. Efektywna zdolność do wymiany informacji na całym świecie za pośrednictwem dwukierunkowych sieci telekomunikacyjnych wzrosła z 281 petabajtów optymalnie skompresowanych informacji w 1986 r. do 471 petabajtów w 1993 r., 2,2 eksabajtów w 2000 r. i 4,8 zettabajtów w 2022 roku (dane Banku Światowego).
Internetem, który po dekadach rozwoju ukształtował się do formy znanej nam dziś, jest ogólnoświatowa sieć komputerów i sieci komputerowych, które komunikują się ze sobą za pomocą protokołów internetowych. Każdy komputer w Internecie ma unikatowy adres IP, który może być używany przez inne komputery do kierowania do niego informacji, zarazem każdy inny komputer w Internecie może wysłać wiadomość do dowolnego innego komputera przy użyciu swojego adresu IP.
Rozwój sieci internetowej doprowadził do zrodzenia się koncepcji Internetu Wszechrzeczy (IoE), płynnego połączenia i autonomicznej koordynacji ogromnej liczby elementów obliczeniowych i czujników, nieożywionych i żywych istot, ludzi, procesów i danych za pośrednictwem infrastruktury internetowej. Rozumienie IoE schodzi także na poziom nanosieci, zestawów połączonych ze sobą nanomaszyn (urządzeń o wielkości kilkuset nanometrów lub co najwyżej kilku mikrometrów), które wykonują jedynie bardzo proste zadania. Umożliwia to nowe zastosowania nanotechnologii w dziedzinie biomedycyny, badań środowiska, techniki wojskowej oraz zastosowań przemysłowych i dóbr konsumpcyjnych. Komunikacja w nanoskali została zdefiniowana w normie IEEE P1906.1.
Ogólnie rzecz biorąc, system telekomunikacyjny składa się z trzech głównych części, które występują w takiej czy innej formie: nadajnik, który pobiera informacje i przekształca je w sygnał, medium transmisyjne, zwane również kanałem fizycznym, które przenosi sygnał, odbiornik, który pobiera sygnał z kanału i przekształca go z powrotem w użyteczne informacje dla odbiorcy. W radiowej stacji nadawczej duży wzmacniacz mocy stacji jest nadajnikiem, a antena nadawcza jest interfejsem między wzmacniaczem mocy a kanałem wolnej przestrzeni. Kanał w eterze jest medium transmisyjnym, a antena odbiornika jest interfejsem między nim a odbiornikiem.
Odbiornik radiowy jest celem sygnału radiowego, gdzie jest przekształcany z energii elektrycznej na dźwięk. Systemy telekomunikacyjne są czasami „dupleksowe” (dwukierunkowe) z pojedynczą skrzynką elektroniki działającą zarówno jako nadajnik, jak i odbiornik (np. telefon komórkowy). Telekomunikacja, w której wiele nadajników i wiele odbiorników zostało zaprojektowanych do współpracy i współdzielenia tego samego kanału fizycznego, nazywana jest systemami multipleksowymi. Współdzielenie kanałów fizycznych przy użyciu multipleksowania często skutkuje znaczną redukcją kosztów.
Znane są liczne przypadki wykorzystywania przez firmy sieci telekomunikacji do budowania struktur biznesowych. Sztandarowy przykład to wielki internetowy sprzedawca detaliczny Amazon.com. Jednak jak zauważył badacz tych procesów, Edward Lenert, nawet tradycyjni sprzedawcy, np. w USA supermarkety Walmart, czerpią wielkie profity z lepszej infrastruktury telekomunikacyjnej. Klienci na całym świecie używają swoich telefonów do zamawiania i organizowania różnych usług, od dostaw pizzy po zlecenia dla elektryków.
Zauważono, że nawet stosunkowo biedne społeczności wykorzystują telekomunikację na swoją korzyść. W dystrykcie Narsingdi w Bangladeszu odizolowani mieszkańcy wiosek używają telefonów komórkowych, by kontaktować się bezpośrednio z hurtownikami i uzyskać lepszą cenę za swoje produkty rolne. Na Wybrzeżu Kości Słoniowej plantatorzy kawy korzystają z telefonów komórkowych, śledząc giełdowe wahania cen kawy, by sprzedawać ją po najlepszej cenie. Naukowcy Lars-Hendrik Röller i Leonard Waverman w swoich badaniach opisują wyraźny związek przyczynowy między dobrą infrastrukturą telekomunikacyjną a wzrostem gospodarczym.
Drogi na lądzie, morzu i w powietrzu
Równie ważne jako podłoże sukcesu gospodarczego jak telekomunikacja są sieci transportowe. Tak zazwyczaj określa się zestaw połączeń, węzłów i linii, które reprezentują infrastrukturę transportu ludzi i towarów (2). Sieci transportowe dzielą się na typy reprezentujące infrastrukturę różnych środków transportu. Mogą to być sieci autostrad i dróg szybkiego ruchu, sieci komunikacji publicznej, sieci ulic w miastach itd. Dochodzi do tych kategorii sieć kolejowa w równych typach i odmianach, układy połączonych ze sobą linii kolejowych, stacji i terminali kolejowych oraz wszystkich rodzajów stałego wyposażenia niezbędnego do zapewnienia bezpiecznej i ciągłej eksploatacji systemu kolei, będący własnością zarządcy infrastruktury lub zarządzanych przez zarządcę infrastruktury.
Sieć kolejowa obejmuje infrastrukturę i wyposażenie umożliwiające zintegrowanie usług kolejowych, drogowych oraz, w zależności od przypadku, lotniczych i morskich. Sieci transportu wodnego i lotniczego nie są tak „widoczne” jak drogi i tory kolejowe (może poza rzekami i kanałami w żegludze śródlądowej). I ich fizyczną reprezentacją są punkty brzegowe, czyli porty morskie i lotnicze. Istnieją w systemach i modelach geograficznych, tak samo zresztą jak „widoczne” sieci drogowe i kolejowe.
Korzystając z systemów informacji geograficznej (GIS), można modelować wszystkie te sieci, opierając się na danych z pomiarów i map satelitarnych z dokładnością do kilku centymetrów.
Dane dotyczące sieci transportowej zwykle pozostają stosunkowo stabilne w czasie. Większość modeli to istniejące sieci transportowe, które muszą być po prostu aktualizowane w celu odzwierciedlenia nowych dróg, zwiększenia przepustowości dróg (np. poprzez dodanie pasów ruchu) lub nowych usług tranzytowych. Wizualizacja sieci zazwyczaj odbywa się poprzez mapowanie określonych zmiennych lub atrybutów, a te mogą być wyświetlane statycznie lub dynamicznie i mogą przybierać formy dwu- lub trójwymiarowe.
W sieciach energetycznych wygrał prąd przemienny, ale czy na zawsze?
Krwiobiegiem świata w sensie może najbliższym pierwowzorowi jest sieć energetyczna (3). Przesył energii elektrycznej to masowy ruch energii elektrycznej z miejsca wytwarzania, takiego jak elektrownia, do podstacji elektrycznej. Połączone ze sobą linie, które ułatwiają ten ruch, tworzą sieć przesyłową. Odróżniane jest to od lokalnego okablowania między podstacjami wysokiego napięcia a klientami, które jest zwykle określane jako sieć dystrybucji energii elektrycznej. Energia w sieci przesyłowej jest zwykle przesyłana przez napowietrzne linie energetyczne. Podziemny przesył energii wiąże się ze znacznie wyższymi kosztami instalacji i większymi ograniczeniami operacyjnymi, choć obniża to koszty konserwacji. Transmisja podziemna jest częściej spotykana na obszarach miejskich lub w miejscach wrażliwych środowiskowo. Efektywny przesył energii elektrycznej na duże odległości wymaga wysokiego napięcia, co zmniejsza straty powodowane przez silne prądy. Linie przesyłowe wykorzystują prąd przemienny (AC) lub ostatnio coraz częściej prąd stały (DC). Poziom napięcia w sieci jest zmieniany za pomocą transformatorów. Napięcie jest zwiększane na potrzeby przesyłu, a następnie zmniejszane na potrzeby lokalnej dystrybucji.
Przewody napowietrzne wysokiego napięcia nie są pokryte izolacją. Są izolowane powietrzem, co wymaga, aby linie zachowywały minimalne odstępy. Niekorzystne warunki pogodowe, takie jak silne wiatry i niskie temperatury, zakłócają transmisję. Materiałem przewodnika jest prawie zawsze stop aluminium zwinięty w przewodzie w kilka żył i ewentualnie wzmocniony stalowymi żyłami. Czasami do transmisji napowietrznej używa się miedzi, ale aluminium jest lżejsze, zmniejsza wydajność tylko nieznacznie i kosztuje znacznie mniej. W celu zwiększenia wydajności stosuje się więc wiele równoległych przewodów (zwanych wiązkami przewodów). Obecnie napięcia na poziomie transmisji wynoszą zwykle 110 kV i więcej. Niższe napięcia, takie jak 66 kV i 33 kV, są czasami używane na długich liniach z niewielkimi obciążeniami. Napięcia poniżej 33 kV są zwykle używane do dystrybucji. Napięcia powyżej 765 kV są uważane za bardzo wysokie napięcie i wymagają specjalnych konstrukcji linii i sieci.
Jeśli chodzi o polskie linie energetyczne, to 80 proc. stanowią napowietrzne, a 20 proc. kablowe (tradycyjnie ułożone w ziemi, ale ostatnio rozszerza się to pojęcie o linie montowane na ścianie, na konstrukcjach, w rurach, zawieszane na linkach nośnych itd.). Jest to jednak zmienna proporcja. Coraz więcej tworzy się kablowych, gdyż napowietrzne są bardziej narażone na niekorzystne działanie warunków pogodowych. W dodatku są one podatne na kontakt ze zwierzętami, głownie ptakami, jak również opadającymi gałęziami. Są jednak tanie i to jest ich główna zaleta. Spośród linii napowietrznych w Polsce wyróżnia się trzy kategorie o różnym napięciu. Kategoria I stanowi linie o napięciu znamionowym ponad 200 kV. Kategoria II wiąże się z napięciem znamionowym 110 kV, a kategoria III - o napięciu 10–30 kV. Stosowane przewody to przede wszystkim ACSR, z powłoką przewodzącą z aluminium typu AL1 i z rdzeniem stalowym. Pokrywa się je dodatkowo smarem. Oprócz tego stosuje się ACAR, wykonane z aluminium i rdzenia aluminiowo-stopowego, AAAC, aluminiowe stopowe jednorodne, AAL - aluminiowe jednorodne z mniej odpornego aluminium, stosowane tylko w liniach niskiego napięcia, i HTLS, które zawierają nierzadko rdzeń, który tworzy się z włókien węglowych i szklanych, mogące pracować w wysokich temperaturach.
Podziemne kable nie zajmują pasa drogowego, są mniej widoczne i mniej podatne na wpływy atmosferyczne. Kable muszą być jednak izolowane. Koszty kabli i wykopów są znacznie wyższe niż w przypadku konstrukcji napowietrznych. Usterki w podziemnych liniach przesyłowych wymagają dłuższego czasu na zlokalizowanie i naprawę. W niektórych obszarach metropolitalnych kable są otoczone metalową rurą i izolowane płynem dielektrycznym (zwykle olejem), który jest statyczny lub cyrkulowany przez pompy. Długie podziemne kable prądu przemiennego mają znaczną pojemność, co zmniejsza ich zdolność do dostarczania użytecznej mocy powyżej 80 kilometrów. Długość kabli prądu stałego nie jest ograniczona przez ich pojemność.
Jak wspomniano, wydajność przesyłu poprawia się przy wyższym napięciu i niższym natężeniu prądu. Pierwsze prawo Joule’a mówi, że straty energii są proporcjonalne do kwadratu natężenia prądu. Zatem dwukrotne zmniejszenie natężenia prądu obniża energię traconą na rezystancję przewodnika czterokrotnie.
Elektryczne sieci przesyłowe są połączone w sieci regionalne, krajowe, a nawet obejmujące cały kontynent, aby zmniejszyć ryzyko takiej awarii poprzez zapewnienie wielu nadmiarowych, alternatywnych tras przepływu energii w przypadku wystąpienia takich wyłączeń. Przedsiębiorstwa przesyłowe określają maksymalną niezawodną przepustowość każdej linii (zwykle mniejszą niż jej fizyczny lub termiczny limit), by w przypadku awarii w innej części sieci dostępna była zapasowa przepustowość.
W pierwsze fazie rozwoju sieci energetycznych, w latach 80. XIX wieku stosowano w nich przeważnie prąd stały (DC), co wiązało się z wieloma ograniczeniami i problemami. Różne klasy obciążeń (na przykład oświetlenie, silniki stacjonarne i systemy trakcyjne/kolejowe) wymagały różnych napięć, a zatem wykorzystywały różne generatory i obwody. W związku z tym generatory były umieszczane w pobliżu obciążeń, co prowadziło do rozproszonego wytwarzania energii przy użyciu dużej liczby małych generatorów.
W 1881 r. Lucien Gaulard i John Dixon Gibbs zbudowali coś, co nazwali generatorem wtórnym, wczesny transformator o przełożeniu 1:1 i otwartym obwodzie magnetycznym. Pierwsza długodystansowa linia prądu przemiennego miała długość 34 kilo-metrów i została zbudowana na Międzynarodową Wystawę Elektryczności w Turynie we Włoszech w 1884 roku. Była ona zasilana przez alternator Siemens & Halske 2 kV, o częstotliwości 130 Hz i zawierała kilka transformatorów Gaularda z uzwojeniami pierwotnymi połączonymi szeregowo, które zasilały lampy żarowe. Stopniowo w różnych krajach wprowadzano na ograniczoną skalę sieci z obniżaniem napięcia przez transformatory prądu przemiennego (AC).
Pierwszy praktyczny szeregowy transformator prądu przemiennego opracował inżynier elektryk William Stanley w 1885 r. Pracując przy wsparciu George’a Westinghouse’a, w 1886 r. zademonstrował oparty na transformatorze system oświetlenia prądu przemiennego w Great Barrington w stanie Massachusetts. Pierwsza transmisja jednofazowego prądu przemiennego przy użyciu wysokiego napięcia miała miejsce w Oregonie w 1890 roku, kiedy to energia została dostarczona z elektrowni wodnej w Willamette Falls do miasta Portland 23 km w dół rzeki. Pierwszy trójfazowy prąd przemienny przy użyciu wysokiego napięcia został przesłany w 1891 roku podczas międzynarodowej wystawy energii elektrycznej we Frankfurcie. Linia przesyłowa 15 kV o długości około 175 km połączyła Lauffen nad rzeką Neckar z Frankfurtem. Rozpoczynała się era prądu przemiennego w sieciach, gdyż taki sposób przesyłu pozwalał wygodnie zwiększać i zmniejszać napięcie, redukując straty.
Obecnie większość wysokonapięciowych linii przesyłowych oparta jest na prądzie przemiennym. Jednak rozwój nowych źródeł energii, farm słonecznych i wiatrowych, ulokowanych w dużej odległości od skupisk ludności i przemysłowych odbiorców, wymaga sieci przesyłowych o skali niekiedy wręcz kontynentalnej. I tu, jak się okazuje, lepiej od HVAC spisuje się HVDC.
Z przesyłaniem energii za pomocą prądu przemiennego wiąże się sporo problemów, które energetycy dobrze znają. Należy do nich m.in. generowanie pól elektromagnetycznych, co prowadzi w efekcie do tego, że linie są wysoko nad ziemią i oddalone od siebie. Występują też straty cieplne w środowiskach gruntowych i wodnych oraz wiele innych trudności, z którymi nauczono z biegiem czasu sobie radzić, ale są wciąż obciążeniem ekonomii energetyki. W sieciach prądu przemiennego potrzeba wielu kompromisów inżynierskich, ale wykorzystanie prądu przemiennego jest oczywiście ekonomicznie opłacalne do przesyłania energii elektrycznej na duże odległości, zatem w większości sytuacji nie są to problemy nie do rozwiązania. Nie oznacza to jednak, że nie można skorzystać z lepszego rozwiązania. Obecnie w nowoczesnych sieciach straty przesyłu wynoszą od 7 proc. do 15 proc. przy przesyle naziemnym opartym na AC. W przypadku przesyłu prądem stałym są one o wiele niższe i pozostają na niskim poziomie nawet wtedy, gdy kable prowadzone są pod wodą lub pod ziemią.
Prąd stały wciąż ma dwa ograniczenia, które nie pozwoliły mu zawładnąć światem, przynajmniej do niedawna. Pierwszym z nich jest to, że przetworniki napięcia były o wiele droższe niż proste, fizyczne przetworniki napięcia przemiennego. Jednak koszt transformatorów DC szybko spada. Na spadek kosztów ma wpływ również fakt, że rośnie liczba urządzeń wykorzystujących prąd stały po stronie odbiorników docelowych energii.
Drugi problem polega na tym, że wyłączniki (bezpieczniki) wysokiego napięcia prądu stałego były nieskuteczne. Wyłączniki są elementami, które chronią systemy elektryczne przed nadmiernym obciążeniem. Mechaniczne wyłączniki dla prądu stałego były zbyt wolne. Z drugiej strony, choć wyłączniki elektroniczne są wystarczająco szybkie, ich działanie wiązało się dotychczas z dużymi, sięgającymi 30 proc. utratami mocy. Było to trudne do przezwyciężenia, ale ostatnio udało się to osiągnąć dzięki nowej generacji wyłączników hybrydowych.
Jeśli wierzyć najnowszym doniesieniom, jesteśmy na drodze do przezwyciężenia problemów technicznych, które obciążały rozwiązania HVDC. A zatem czas przejść do niewątpliwych korzyści. Analizy wskazują, że na pewnym dystansie, po przekroczeniu tak zwanego „progu opłacalności” (ok. 600–800 km), alternatywa w postaci HVDC, choć jej koszty początkowe są wyższe niż startowe nakłady na instalacje prądu przemiennego, zawsze prowadzi do obniżenia łącznych kosztów sieci przesyłowych. Odległość do progu rentowności jest znacznie mniejsza w przypadku kabli podmorskich (zwykle ok. 50 km) niż w przypadku linii napowietrznych.
W 1980 roku najdłuższa opłacalna odległość dla przesyłu prądu stałego wynosiła 7000 kilometrów. W przypadku prądu przemiennego było to 4000 kilometrów. W przypadku długich linii przesyłowych niższe straty (i niższe koszty budowy linii prądu stałego) mogą zrównoważyć koszt wymaganych stacji na każdym końcu. Linie wysokiego napięcia prądu stałego (HVDC) są stosowane w przypadku długich kabli podmorskich, w których nie można stosować prądu przemiennego ze względu na pojemność kabla. W takich przypadkach stosuje się specjalne kable wysokiego napięcia. Podmorskie systemy HVDC są często wykorzystywane do łączenia sieci elektroenergetycznych wysp, na przykład między Wielką Brytanią a Europą kontynentalną, między Wielką Brytanią a Irlandią, między Tasmanią a kontynentem australijskim, między północnymi i południowymi wyspami Nowej Zelandii, między New Jersey a Nowym Jorkiem oraz między New Jersey a Long Island. Wdrożono połączenia podmorskie o długości do 600 kilometrów.
Nawet jeśli maniera opisywania czegokolwiek jako sieci jest nieco natrętna i czasem wręcz szkodzi zrozumieniu natury tego, co rzeczywiście się dzieje, to akurat opisanych wyżej systemów nie da się wyjaśniać lepiej niż za pomocą modelu sieciowego. Czy to telekomunikacja, czy transport, czy energetyka, tkanka życiowa, układ krążenia naszej cywilizacji (4) ma charakter sieciowy, pełen połączeń, powiązań i ruchu przebiegającego wzdłuż tych nici. Trudno to negować.
Mirosław Usidus