Category Archives: praca inżynierska

prezentowana praca jest pracą inżynierską

Podsumowanie pracy inżynierskiej

Przedstawiona praca stanowi źródło wiedzy dotyczącej zagadnień związanych z sieciami komputerowymi.

Pisząc tą pracę, pomimo wielu trudności udało się zrealizować założenia, jakie zostały wytyczone na jej początku. Zebrane materiały pozwoliły połączyć zarówno teorie związaną z sieciami komputerowymi jak i stworzyć część praktyczną tzn. okablowanie strukturalne pod rzeczywistą sieć komputerową.

Największym problemem było zebranie wszelkich materiałów – norm opisów itp. – dotyczących projektowania okablowania strukturalnego. Szukając tych materiałów w dostępnych publikacjach nie byłem w stanie znaleźć konkretnego opisu, który zawierałby wszelkie potrzebne informacje. Dlatego przy części projektowej starałem się połączyć wszystkie ważniejsze informacje (znajduj ą się tam nie tylko same obliczenia, ale również objaśnienia podstawowych pojęć związanych z nimi), aby stanowiły przejrzystą całość.

W części teoretycznej pracy zawarte są i opisane podstawowe pojęcia związane z zagadnieniami sieciowymi. Przedstawione są: sposoby komunikacji wykorzystywane wewnątrz sieci komputerowych (opisy protokołów z wyszczególnieniem obecnie najbardziej popularnego TCP/IP), rodzaje sieci komputerowych (ze względu na obszar jaki obejmuj ą swym zasięgiem, przeznaczenie i przepustowość), sposoby ich łączenia.

Oprócz tych zagadnień opisane zostały elementy fizyczne wchodzące w skład sieci, takie jak: nośniki informacji (kabel miedziany, światłowód, fale radiowe), elementy wzmacniające, elementy łączące.

Zwieńczeniem pracy jest projekt sieci (okablowania ) wykonany dla Lokalnej Sieci Osiedlowej „Stokplanet” (www.stokplanet.one.pl) oraz opis instalacji i konfiguracji serwera w Środowisku Linux/Unix. System operacyjny został wybrany nieprzypadkowo. Głównym atutem Linuxa jako systemu serwerowego są jego niezawodność (dobrze skonfigurowany potrafi pracować latami bez restartu), oraz licencja GPU czyli jest to produkt darmowy co ma niebagatelny wpływ na całkowite koszty przedsięwzięcia. Mój projekt został również wykorzystany (po przystosowaniu do lokalnych warunków) przy budowie sieci LAN, www.hirszfelda.one.pl której byłem współtwórcą i doradcą technicznym.

W dzisiejszych czasach, kiedy sieci komputerowe w coraz większym stopniu są wykorzystywane przez różnego rodzaju instytucje stworzona praca może stanowić źródło wiedzy dla ludzi zainteresowanych tym zagadnieniem. Pomoże ona również tym wszystkim którzy szukają wszystkich skompensowanych materiałów potrzebnych do wykonania komputerowej sieci osiedlowej.

Explicit Rate Indication for Congestion Aviodance (ERICA)

[1, 3, 4]

Algorytm ERICA stara się maksymalnie wykorzystać dostępne pasmo łącza, zachowując jednocześnie sprawiedliwy przedział pasma. Algorytm pozwala źródłom, transmitującym z prędkością równą lub większą z obliczonym współczynnikiem fairshare, na zwiększenie prędkości transmisji w kanale wirtualnym, jeżeli dany kanał wymaga większej przepustowości a łącze nie jest w pełni wykorzystane.

Dla algorytmu tego, definiujemy prędkość wyjściową większą niż dla poprzednio omówionego algorytm, 90-95% przepustowości łącza. Przełącznik oblicza współczynnik fairshare:

01

Prędkość, którą dodatkowa źródło może użyć:

0203

Przełącznik ustawia prędkość źródła na prędkość największą (Fairshare lub Vcshare)

Informacje wykorzystywane przy obliczeniach w algorytmie, dostarczane są komórkami RM z urządzenia nadawczego i odbiorczego.

Zaletą tego algorytmu jest prostota i łatwość przeprowadzanych obliczeń.

Zapewnienie wiarygodności danych

Jakość wyników analizy niezawodności systemu uzyskiwanych przy pomo­cy metod obliczeniowych, o których mowa była dotychczas, zależy jednak w oczywisty sposób nie tylko od sposobu przeprowadzenia analizy, ale również od wiarygodności danych użytych do obliczeń. Zwykle danymi, co do których można mieć największe wątpliwości, są rozkłady prawdopodobieństwa opisują­ce czas sprawności elementów systemu. Postęp w technologii wytwarzania spowodował, że ogólnie rozumiana niezawodność elementów jest bardzo wyso­ka. Ilościowo przejawia się na przykład w bardzo długim średnim czasem do pierwszego uszkodzenia. Jednak mimo rzadko występujących uszkodzeń poje­dynczych obiektów, niezawodność systemu, który składa się z bardzo wielu stosunkowo niezawodnych elementów, nie musi być wcale duża.

Podstawowym problemem w procesie uzyskiwania informacji o niezawod­ności elementu jest fakt, że w bezpośredni sposób stosunkowo trudno jest zaob­serwować uszkodzenie. Stawia to pod znakiem zapytania możliwość stosowania typowych metod używanych w badaniach niezawodnościowych. Z reguły nie­możliwe jest wykonanie tzw. badania pełnego, czyli eksperymentu, w którym pewną liczbę elementów umieszcza się w zakładanych warunkach eksploatacji i następnie czeka aż do uszkodzenia ostatniego z nich. Dla typowych elementów elektronicznych czas takiego badania wynosiłby zapewne kilkadziesiąt lat.

Dla elementów, które stosunkowo rzadko uszkadzają się, konieczne jest więc zastosowanie innych sposobów uzyskiwania informacji o niezawodności i innej metodologii analizy tych danych. Najczęściej obecnie stosowane metody pozwalające na określanie niezawodności w takich przypadkach to:

  • – szacowania na podstawie opinii ekspertów,
  • – przyspieszone badania niezawodności ALT (Accelerated Lite Testing),
  • – przyspieszone badania pogorszenia własności ADT (Accelerated Deterioration Testing).

Metoda określania niezawodności na podstawie opinii ekspertów nie jest zbytnio sformalizowana. Podstawową cechą, która odróżnia tą metodę od innych jest to, że nie wykonuje się tutaj żadnego eksperymentu. Niezawodność jest oceniana jedynie na podstawie wiedzy ekspertów opartej na podobnych do analizowanego przypadkach i obliczeniach przeprowadzonych z wykorzystaniem zwykle prostych modeli matematycznych zbudowanych na stosunkowo mocnych założeniach. Metoda dostarcza zwykle jedynie informacji o parametrach punktowych, a nie rozkładach czasu życia elementów.

Badania przyspieszone niezawodności (ALT) są metodą organizacji eksperymentu i analizy statystycznej jego wyników. Często stosowana metodą uzyskiwania informacji stanowiącej podstawę do dalszej analizy niezawodnościowej są tzw. badania forsujące. W badaniach forsujących tzw. czynniki narażające, określające warunki pracy obiektu (np. temperatura pracy, obciążenie elektryczne itp.) przyjmowane są na poziomie znacznie wyższym niż przewiduje się to dla nominalnych warunków eksploatacji. W rezultacie, w obiektach znacznie szybciej zachodzą  procesy wymuszające występowanie uszkodzeń. Podstawowym problemem, jaki występuje przy analizie wyników takich badań jest transformacja wyników, jakie uzyskano w warunkach forsownych do normalnych warunków eksploatacji elementu. Istnieje wiele metod analizy wyniku badań forsownych. Niektóre z nich pozwalają na estymację rozkładu prawdopodobieństwa czasu życia elementu przy niewielu dodatkowych założeniach. Ogólnie więc metoda daje w przeciwieństwie do poprzedniej, możliwość wyliczenia zarówno parametrów punktowych określających niezawodność, jak i ich rozkładów.

Trzecia z wymienionych metod, przyspieszone badania pogorszenia własności (ADT), w części eksperymentalnej przypomina metodę drugą. Tutaj także badany element umieszcza się w środowisku czynników narażających, które wymuszają w tym przypadku szybszą zmianę pewnych własności elementu. Rejestruje się jednak nie fakt wystąpienia uszkodzenia, lecz bada, jak przebiega zmiana interesujących parametrów w czasie. Oczywiście, tak jak poprzednio, podstawowym problemem jest przeniesienie wyniku eksperymentu z warunków eksploatacji elementu.

Jak dotychczas brak jest jednak bardziej formalnej metodologii analizy wyników takich badań.

Przedstawiona metoda oceny parametrów niezawodnościowych oraz kosztów eksploatacji złożonych systemów, nie wymagająca przyjmowania założeń upraszczających charakterystycznych dla metod Markowa, ma istotne znaczenie praktyczne:

  • – umożliwia skuteczne wyznaczenie parametrów systemu o dowolnie skompli­kowanej strukturze niezawodnościowej i o dużej liczbie elementów, a tym samym ocenę niezawodności skomplikowanych systemów realizowanych w praktyce;
  • – pozwala na wyznaczenie rozkładów parametrów niezawodnościowych oraz rozkładów kosztów napraw, co daje bardziej wiarygodną informację na po­trzeby podejmowania decyzji o sposobie eksploatacji oraz organizacji na­praw w systemie niż zastosowanie wartości średnich tych parametrów;
  • – pozwala na uwzględnienie rzeczywistych parametrów opisujących nieza­wodność (czasy do uszkodzenia) elementów systemu oraz rzeczywistych rozkładów czasów napraw.

Trwające obecnie prace nad implementacją przedstawionej metodologii w postaci zestawu narzędzi komputerowych powinny dostarczyć praktycznego narzędzia wspomagającego podejmowanie decyzji przez personel odpowie­dzialny za projektowanie i eksploatację złożonych systemów, tak aby uwzględ­nić ilościowo spodziewaną niezawodność i koszty eksploatacji (w tym napraw) systemu.

Analityczne metody badań niezawodności

Szczegółowa postać zależności, np. (l), wskaźnika nieza­wodności  R  od różnych czynników ck, ct i ce,  otrzymywana w sposób analityczny, zależy głównie od rodzaju przyjętego wskaźnika niezawodności; rodzaju zjawisk fizycznych pogarsza­jących stan techniczny obiektu, uwzględnionych w zbudowanym modelu; stopnia złożoności obiektu (przyjętej liczby PK) itd.

Najprostszy przypadek zachodzi wówczas, gdy badanym obiek­tem jest PK z jedną cechą zdatności Z (t).  Wskaźnikiem służą­cym do oceny niezawodności PK jest zwykle funkcja niezawodno­ści R(t),  a inne na ogół jednoznacznie z niej wynikają. Jeśli granica obszaru zdatności jest jednostronna i określona przez  Zgr  ,  to wielkość R(t) może być wyznaczona na przy­kład na podstawie relacji

R(t) = P{ Z(t) £ Zgr }                                                                                    (40)

lub relacji

R(t) = P{T > t }                                                                                             (41)

Czas T  bezawaryjnej pracy PK jest równy czasowi eksploa­tacji, jaki upływa do chwili tgr, w  której cecha zdatności osiąga swoją wartość graniczną. Ponieważ wielkość tg,-  wynika z relacji

Z(tgr) = Zgr                                                                                                      (42)

do wyznaczenia funkcji niezawodności  R(t)  potrzebna jest znajomość stochastycznego opisu cechy zdatności Z(t).  Opis ten wynika z niezawodnościowego modelu PK, a zwłaszcza jego części opisujących zmiany stanu technicznego i początkowy stan techniczny tego PK. Dla każdego PK i zjawisk fizycznych prowa­dzących do jego niesprawności opis ten może być więc różny.

Jeśli analiza cechy zdatności wskazuje, że jej dystrybuanta dla chwili  t  wynosi  Fz(Z; t),  to zgodnie ze związkiem (40) wielkość  R(t)  można określić na przykład za pomocą wy­rażenia

R(t) = Fz(Zgr; t).                                                                                              (43)

W wielu przypadkach przy wyznaczaniu wskaźnika R(t)  wystarczająca jest znajomość probabilistycznego opisu wielkości określających cechę zdatności.

Spośród analitycznych metod wyznaczania szczegółowej po­staci relacji (1) dla PK o jednej cesze zdatności, należy wy­różnić małą grupę, rzadko używanych, metod opartych na teorii łańcuchów Markowa. Próby zastosowania tych metod przedstawione są w pracach [38,121]. W tych przypadkach niezawodnościowy model obiektu przygotowuje się w nieco odmiennej po­staci matematycznej niż przedstawiona w rodz. 4, chociaż na niej opartej.

Gdy stan niezawodnościowy PK zależy od n  cech zdatności, z założenia niezależnych stochastycznie (p. podrozdz. 5.1), to z formuły (6) wynika, że na przykład funkcja niezawodności tego PK jest równa

wzor4(44)

 

 

W tym przypadku analityczne wyznaczenie funkcji R (t)  po­lega na wymnożeniu znalezionych uprzednio prawdopodobieństw tego, że w czasie  t  każda z n  cech zdatności PK nie przekroczy granicy obszaru zdatności .

Przy takim samym upraszczającym założeniu niezależności stochastycznej en bloc między n  cechami zdatności Zn(t) obiektu złożonego z  m PK, a więc – również niezależności stochastycznej en bloc między m  czasami Ti  bezawaryjnej pracy PK,  wskaźniki niezawodności takiego obiektu złożonego mogą być wyznaczone analitycznie na podstawie znajomości od­powiednich wskaźników niezawodności poszczególnych PK (lub na­wet cech zdatności) oraz struktury niezawodnościowej obiektu. Jeśli na przykład poszukiwanym wskaźnikiem jest funkcja nie­zawodności a obiekt ma strukturę szeregową w sensie niezawod­ności (w odniesieniu do jego PK lub cech zdatności), to ten wskaźnik może być wyznaczony na podstawie formuły (44) lub formuły

wzor5(45)

 

Przedtem należy jednak znaleźć odpowiednie prawdopodobień­stwa  Pn  (44) lub funkcje Ri (45), do czego nale­ży wykorzystać zbudowane modele niezawodnościowe  PK.

Gdy niezawodnościowy model obiektu złożonego z większej niż 1 liczby PK lub niezawodnościowy model PK opisywanego przez większą niż 1 liczbę cech zdatności uwzględnia wspomnia­ne zależności stochastyczne, wówczas analityczne metody wyzna­czania wskaźników niezawodności (na podstawie znajomości tego modelu) zwykle zawodzą. W pewnych szczególnych przypadkach zastosowanie metody analitycznej jest jednak możliwe. Możliwość tę wskazuje podany  związek między funkcją niezawodności obiektu zło­żonego o strukturze szeregowej a funkcjami niezawodności po­szczególnych PK, wyprowadzone w ramach teorii korelacji przy założeniach: zmienne losowe Ti  mają rozkłady normalne lub quasi-normalne (korelacja liniowa), a odpowiednie współczynni­ki korelacji   rmh są nieujemne. Wykorzystując ten związek, można przedstawić wyrażenia na funkcję niezawodności obiektu złożonego przy uwzględnieniu zależności stochastycznych, po­dobne do formuł (44) i (45). Na przykład

wzor6(46)

 

 

gdzie

wzor7wzor7b(47)

 

 

m, h = 1, 2,…, m

Rinf(t) – jest funkcją niezawodności PK najbardziej zawodnego.

Formuła (46) może być również wykorzystywana do wyznacza­nia funkcji niezawodności PK o  n  cechach zdatności, gdy  n > 1.  Wówczas

wzor8(48)

 

 

gdzie znaczenie symboli c  i  Pinf(t)  podają relacje podobne do relacji (47).

Ponieważ wielkości występujące w wyrażeniu (46) i w wyra­żeniu (48) zależą od różnych czynników konstrukcyjnych, tech­nologicznych i eksploatacyjnych (p. np. zależności (43) i (44)), więc wyrażenia te stanowią poszukiwane szczegółowe po­stacie relacji (1) dla obiektu złożonego i dla pojedynczego PK.

Przy tej metodzie analitycznego wyznaczania niezawodności obiektu złożonego, model struktury niezawodnościowej powinien zawierać związki (33), na przykład w postaci (34), opisujące odpowiednie zależności stochastyczne. Wartości występujących tam współczynników korelacji rmh  można wyznaczyć analitycz­nie lub za pomocą symulacji realizacji zmiennych losowych Tm i Th.

W wielu przypadkach założenia tej metody analitycznej (mówiące o normalności rozkładów cech zdatności  Zn lub cza­sów  Ti.  oraz o nieujemnych wartościach współczynników korelacji  rmh )  są jednak zbyt silne (choć w mniejszym stopniu w przypadku pojedynczego PK o wielu cechach zdatności), aby mog­ła być ona zastosowania do wyznaczania wskaźników niezawodno­ści. Czasami wadę tę można częściowo wyeliminować przez odpo­wiedni dobór cech zdatności, zwłaszcza taki, aby współczynni­ki korelacji miały wartości nieujemne. Jednak komplikuje to wyznaczanie tych współczynników. Drugą wadą tej metody jest konieczność wyznaczania współczynników korelacji, co jest czę­sto kłopotliwe i żmudne, zwłaszcza przy sposobie analitycznym.

Podana w tej metodzie zależność (46) (lub zależność48) służy do wyznaczania funkcji niezawodności  R(t).  Również w zależnościach (44) i (45). służących do określenia poziomu niezawodności obiektu, używa się tylko tego wskaźnika

nieza­wodności. Znajomość tej funkcji może być jednak wykorzystana do wyznaczenia również i innych wskaźników. Tak na przykład intensywność niesprawności l(t)  jest równa

wzor9(49)

 

 

Sposoby wyznaczania innych wskaźników niezawodności na podstawie znajomości R(t),  m.in. wartości oczekiwanej  ET czasu bezawaryjnej pracy obiektu, podaje odpowiednia literatu­ra z zakresu teorii niezawodności, np. prace [5, 24]. Wszystkie te wskaźniki dotyczą obiektów nieodnawianyoh (np. wielu elementów obiektów mechanicznych, a czasom nawet zespołów) oraz obiektów odnawianych w okresach między kolejny­mi niesprawnościami. Wskaźniki te i przedstawione metody ich wyznaczania odnoszą się do procesu użytkowania obiektu.  Za wskaźniki niezawodności obiektów odnawianych uznawane są rów­nież takie wielkości, jak współczynnik gotowości, wartość oczekiwana czasów odnów poawaryjnych i inne. Charakteryzują one jednak nie tyle obiekt, ile system obiekt-obsługa. Do wy­znaczenia takich wskaźników konieczne jest zbudowanie nie tyl­ko modelu użytkowania, lecz także odpowiedniego modelu obsłu­giwania obiektu (w ramach modelu eksploatacji obiektu). O trudnościach związanych z tym pisano już w podrozdz. 4.3, punkt b.

Powyżej przedstawiono kilka wybranych analitycznych metod badań niezawodności obiektu. Mogą być one stosowane do badań niezawodności PK i obiektu złożonego z wielu PK. Jeśli jednak nie można zrobić założenia o braku stochastycznych zależności między zmiennymi Ti  lub założeń, przy których słuszna jest metoda wykorzystująca relację (46), to najwygodniejszą, a zwykle i jedyną, metodą badań niezawodności obiektu złożone­go z wielu PK (lub opisanego wieloma cechami zdatności) jest metoda symulacji.

Modelowanie cech zdatności elementów maszyn

Przyjmując za miarę niezawodności początkowe) elementu jego praw­dopodobieństwo poprawnej pracy R(0) omówiony w punkcie l zbiór cech powinien spełniać relację:

R(0) = f (Dwk, Wm, Sww, Me).                                                                                            (81)

Zbiór ten jest określany liczbą cech, ich rodzajem, wartościami licz­bowymi, opisem właściwości cech niewymiernych. Jest zapisywany zarówno na rysunkach elementów, jak i licznych (w zależności od stopnia skom­plikowania elementu) instrukcjach technicznych i technologicznych. Sama forma zapisu w dużym stopniu jest uwarunkowana systemem organizacyj­nym i poziomem technicznym jednostki produkcyjnej i stanowi instrukcje nakazowo-informacyjne do odwzorowywania właściwości cech na obrabia­nym elemencie.

Z relacji (81) wynika jednak, że każdy poziom niezawodności R(0) wymaga ścisłego ustalenia zbioru cech o określonych właściwościach granicznych. Zbiór o takich właściwościach wyznacza obszar zdatności Wz ( hiperprzestrzenią jakości, zdatności, niezawodności) elementu w wielowymiarowej przestrzeni fizycznej Pn, możliwych do przyporządkowania elementowi cech jego właściwości.

schemat

Rys. 7. Schemat pętli jakości [2]

Opisywanie obszaru zdatności Wz dla ukształtowania niezawodności elemen­tu zgodnie z pętlą jakości (rys. 7) jest głównym, a zarazem i najtrudniejszym problemem w całościowej problematyce sterowania niezawodnością obiektów mechanicznych.

Klasyfikacja metod kontroli przeciążenia

Algorytmy przeciążenia mogą być klasyfikowane w zależności od czasu, kiedy działają w sytuacji przeciążenia. Wychodzenia z przeciążenia jest mechanizmem, który próbuje zmienić już przeciążony zasób do stanu nie przeciążonego  tak szybko jak jest to tylko możliwe. Zapobieganie przeciążeniu jest metodą dla której wystąpienie przeciążenia jest niemożliwe. Jednak metoda ta powoduje nieefektywne wykorzystanie dostępnego pasma przepustowego w sieci. Unikanie przeciążenia jest metodą, która stara się stale utrzymywać zasoby sieci w stanie nie przeciążonym, ale jednocześnie zapewniając efektywność wykorzystania jej zasobów. Użytkownicy sieci wymagają od sieci efektywności, wydajności, dlatego też większość proponowanych metod kontroli przeciążenia należy do metod unikających przeciążenia. Jednak, szybkie zmiany pomiędzy stanami sieci (przeciążona -nie przeciążona) są nieuniknione, dlatego też, metody wychodzenia z przeciążenia są więc zwykle integralną częścią metod kontroli przeciążenia. Jedną z metod wychodzenia z przeciążenia jest metoda odrzucania całych pakietów (packet discard).

Mechanizmy kontroli przepływu danych, które dostosowują prędkość transmisji zapobiegając występowaniu zatłoczenia w sieciach ATM mogą być ogólnie klasyfikowane jako: open-loop i close-loop. Kontrola typu open-loop jest stosowana dla połączeń, których charakterystykę ruchu można precyzyjnie określić a  wymagania jakościowe znane są z góry.  Połączenie w kontroli typu open-loop specyfikuje swoje wymagania co do zasobów sieci, które, jeśli są dostępne, następnie są rezerwowane na czas trwania połączenia.

Kontrola typu close-loop jest odpowiednia dla sieci dla których zasoby nie mogą zostać zarezerwowane lub kiedy ruch w sieci nie może być sprecyzowany. W kontroli tej dostępne zasoby sieci muszą być „sprawiedliwie” i efektywnie dzielone między wieloma użytkownikami. W kontroli tej źródło stale próbkuje stan sieci i dostosowuje swoją prędkość transmisji w zależności od otrzymanego sprzężenia zwrotnego. Ważną cechą kontroli typu close-loop jest to, że wydajność, efektywność tej metody zależy od opóźnienia sprzężenia zwrotnego. Różnica czasu pomiędzy zmianą prędkości transmisji źródła a czasem kiedy źródło zobaczy efekt tej zmiany nazwana jest round-trip-time. Reakcja systemów opartych na metodach ze sprzężeniem zwrotnym ograniczona jest opóźnieniem sprzężenia zwrotnego i może tylko kontrolować przeciążenia, które trwają dużej niż round-trip-time w danej sieci.

Metody kontroli przeciążenia można jeszcze klasyfikować ze względu na typ kontroli jaki wprowadzają: credit-based lub rate-based. W przypadku wykorzystania kontroli typu  rate-based, komórki sterujące zawierają informacje o bieżącym dostępnym paśmie  przepustowym dla danego typu połączenia. Jeśli którykolwiek z przełączników ATM, biorący udział w realizacji danego połączenia, wykryje fakt przeciążenia tego połączenia (tzn. nastąpi odrzucenie przynajmniej jednej komórki ATM zawierającej dane użytkownika), to zawartość komórki sterującej zostanie zmieniona tak, aby zmniejszyć prędkość transmisji źródła i nie dopuścić do dalszego gubienia komórek danych. Metoda rate-based pozwala więc na bardzo efektywne wykorzystanie dostępnego pasma.

Odmiennie natomiast działa metoda typu credit-based. Komórki sterujące przenoszą informacje nie o dostępnym paśmie przepustowym, lecz o stopniu zapełnienia buforów odbiorczych przełączników oraz urządzeń brzegowych realizujących dane połączenia. Komórki te noszą nazwę kredytów. Urządzenie odbierające strumień komórek ATM na bieżąco informuje urządzenie nadawcze, które ten strumień transmituje, o stanie swojego wewnętrznego bufora wejściowego. Jeśli bufor ten zostanie wyczerpany, to urządzenie nadawcze nie otrzyma „kredytów” i w ten sposób nie będzie mogło dalej wysyłać danych.

Do efektywnego działania, obydwie metod potrzebują znać stan sieci. Typ sprzężenia jaki jest używany do badania stanu sieci jest następnym kryterium klasyfikacji metod kontroli przeciążenia. Z jawnym sprzężeniem zwrotnym (explicit feedback) elementy sieci wysyłają komunikaty wskazujące ich stan (zajętość buforów, wolne pasmo itp.) do punktów kontrolnych. Jeżeli metody kontroli przeciążenia poznają stan sieci poprzez pomiary transmisji (np. porównanie zmierzonej przepustowości i przepustowości oczekiwanej) lub poznają stan sieci przez zdarzenia takie jak time-out, informacje zawarte w potwierdzeniach, to sprzężenie zwrotne jest „ukryte” (implicit feedback). Kontrola z jawnym sprzężeniem zwrotnym pozwala na bardziej precyzyjne dostosowywanie  parametrów transmisji, w odróżnieniu od kontroli z „ukrytym” sprzężeniem zwrotnym, która jest bardziej skomplikowana i czasochłonna.

Kiedy kontrola przeciążenia ma miejsce tylko w końcach systemu, jest nazwana end-to-end control. W kontroli tej pośrednie elementy sieci generują i wysyłają  potrzebne informacje kontrolne do końca systemu. W metodach link-by-link, pośrednie elementy sieci wymieniają pomiędzy sobą informacje i dopasowują swoją prędkość w zależności od otrzymanej informacji (sprzężenia zwrotnego) od sąsiada. Na przykład jeżeli w przełączniku odbierającym transmisje bufor zbliża się do przepełnienia, przełącznik może wysłać do przełącznika wysyłającego żądanie zmniejszenie prędkości transmisji zapobiegając tym samym przepełnieniu bufora. W metodzie end-to-end tylko końcówki systemu mogą regulować charakterystykę ruchu.


Źródła:

Fang Lu, “ATM Congestion Control”

Lampros Kalampoukas, „Congestion Management in High Speed Networks”

Wymagania stawiane kontroli przeciążenia

Celem zastosowania algorytmów kontroli przeciążenia i sterowania ruchem jest zapewnienie utrzymania wynegocjowanych parametrów QOS dla wszystkich rodzajów połączeń w sieci ATM i efektywne wykorzystanie zasobów sieciowych. Algorytmom kontroli przeciążenia stawia się szereg wymagań, którymi powinny się charakteryzować. Głównymi wymaganiami są:

Skalowalność

Algorytm nie może być ograniczony przepustowością łączy, odległością, ilością przełączników lub ilością wirtualnych kanałów. Ten sam algorytm powinien być stosowany zarówno w lokalnych sieciach komputerowych (LAN) jak i w rozległych sieciach (WAN)[1].

 Optymalność(sprawiedliwość)

W dzielonym środowisku przepustowość jednego źródła zależy od żądań innych źródeł. Algorytm powinien „sprawiedliwie” rozdzielić dostępne pasmo pomiędzy aktywne kanały wirtualne. Żadne z realizowanych równorzędnych połączeń nie może być faworyzowane.

 Odporność

Algorytm powinien być „nieczuły” na niewielkie odchylenia parametrów. Na przykład niezgodność jednego z parametrów lub strata ramki kontrolnej nie powinna zmieniać gwałtownie stanu sieci. Algorytm powinien także izolować użytkowników i chronić ich zasoby.

 Implementowalność

Algorytm nie powinien być zbyt skomplikowany, czasochłonny. Algorytm nie może dyktować szczegółowo architektury przełącznika