Przebieg procesu modelowania

Tworzenie szczegółowej postaci niezawodnościowego modelu obiektu mechanicznego możliwe jest na ogół dopiero wówczas, gdy znane jest co najmniej wstępne rozwiązanie konstrukcyjne badanego obiektu, powstałe na przykład przy użyciu tradycyj­nych metod konstruowania. Dopiero wtedy bowiem możliwe jest m.in. utworzenie zbioru informacji o początkowym stanie tech­nicznym eO) ,  a więc o kształtach i wymiarach elementów, o wy­trzymałościowych własnościach elementów itd. Metoda teoretycz­nych badań niezawodności jest więc metodą wspomagającą i wery­fikującą tradycyjne metody konstruowania. Może ona dostarczyć informacji na przykład o prawdopodobieństwie uszkodzenia kon­struowanego obiektu w założonym okresie eksploatacji oraz in­formacji o sposobach zwiększania tego prawdopodobieństwa.

Przebieg budowy szczegółowej postaci niezawodnościowego modelu obiektu mechanicznego jest zgodny ze znanym przebiegiem procesu modelowania w technice w ogóle. Tak na przykład przed etapem tworzenia modelu nominalnego i przed etapem tworzenia modelu matematycznego konieczne jest zgromadzenie wielu in­formacji o modelowanym obiekcie. Informacje te uzyskuje się z etapu konstruowania metodami tradycyjnymi i na podstawie do­świadczenia zgromadzonego przy wytwarzaniu i eksploatacji obiektów podobnych) oraz w wyniku eksperymentalnych badań elementów i materiałów, z których będzie zbudowany modelowany obiekt itd.

Przed przystąpieniem do budowy modelu nominalnego nale­ży zebrać te informacje, które mogą być podstawą do wprowadze­nia zasadniczych założeń, upraszczających rzeczywistość przy jej opisie za pomocą modelu. Są to więc przede wszystkim in­formacje o procesie eksploatacji, decydującym o oddziaływa­niach między otoczeniem i obiektem; o zjawiskach fizycznych przebiegających w obiekcie wskutek tych oddziaływań; o posta­ciach i skutkach ewentualnych uszkodzeń elementów; o wpływie uszkodzeń elementów lub ich fragmentów na stan zdatności całego obiektu. Im więcej zgromadzi się takich informacji o obiek­cie, tym łatwiej można zbudować jego model i tym lepiej model ten może odwzorowywać badany obiekt.

Następnym krokiem jest analiza uzyskanych informacji w ce­lu sklasyfikowania ich pod względem ważności z punktu widzenia niezawodności badanego obiektu.

Po przeprowadzeniu tej analizy przystępuje się do budowy modelu nominalnego. Jest to bardzo ważny etap procesu modelo­wania, w nim bowiem przyjmuje się zasadnicze założenia upra­szczające rzeczywistość, polegające przede wszystkim na pomi­nięciu mniej istotnych procesów prowadzących do niesprawności i na uwzględnieniu w modelu tylko tych fragmentów obiektu, które są najbardziej narażone na niesprawności (w tym uszko­dzenia). Te fragmenty obiektu nazywa się dalej punktami kon­trolnymi (PK)[24]. Punktami kontrolnymi są na przykład takie frag­menty elementów obiektów mechanicznych, które w metodach obli­czeń stosowanych przez konstruktorów są modelowane za pomocą tzw. przekrojów, punktów powierzchni itd. W pewnych przypad­kach mogą to być całe elementy lub nawet grupy elementów, opi­sywane tymi samymi wspólnymi cechami zdatności, takimi jak na przykład luz, opory ruchu lub sprawność mechaniczna.

W etapie budowy modelu nominalnego określa się też gra­niczne stany techniczne poszczególnych PK i całego obiektu, oddzielające odpowiednie stany zdatności od stanów niezdatności. Definiuje się więc zdarzenia powstania niesprawności tych PK i całego obiektu. Pozwala to m.in. na podjęcie decyzji co do tzw. struktury niezawodnościowej obiektu.

Przed przystąpieniem do budowy modelu matematycznego konieczne jest zgromadzenie dalszych informacji o obiekcie, tym razem tych, które są potrzebne do matematycznego opisu powstałego modelu nominalnego czyli do matematycznego opisu stanów i procesów decydujących o niesprawnościach obiektu, uwzględnionych przez model nominalny. Przede wszystkim są to informacje: o postaciach matematycznych i parametrach rozkła­dów zmiennych losowych opisujących własności geometryczne, wytrzymałościowe i inne obiektu w punktach kontrolnych, wybra­nych przy budowie modelu nominalnego; o postaciach matematycz­nych i parametrach procesów losowych opisujących eksploatację obiektu, jego obciążenia zewnętrzne oraz wewnętrzne zjawiska fizyczne uwzględnione przez model nominalny, prowadzące do niesprawności PK; o zależnościach stochastycznych między tymi zjawiskami fizycznymi.

Zbiór takich informacji jest podstawą do utworzenia modelu matematycznego, czyli tej postaci modelu, która bezpośrednio jest wykorzystywana w późniejszych teoretycznych badaniach niezawodności. Przy tworzeniu modelu matematycznego wprowadza się dalsze założenia upraszczające, jednakże dotyczą one już tylko opisu matematycznego tego, co uwzględnia model nominalny.

W następnych dwóch podrozdziałach (4.2 i 4.3) zostaną przedstawione ogólne zasady budowy szczegółowych postaci niezawodnościowych modeli obiektów mechanicznych w odniesieniu do obydwu głównych etapów procesu modelowania – budowy modelu nominalnego i budowy modelu matematycznego.

[będziemy jeszcze pisać o tej pracy]

Projekt modernizacji sieci strukturalnej

Głównymi zamierzeniami są:

  • wymiana łącza międzybudynkowego z budynku administracji do budynku przemysłowego z okablowania UTP na światłowód (dwie wiązki),
  • wymiana łącza międzybudynkowego z budynku administracji do budynku dyrekcji z okablowania UTP na światłowód (jedna wiązka),
  • połączenie światłowodem dwóch punktów dystrybucyjnych w budynku przemysłowym,
  • instalacja nowego okablowania strukturalnego w budynku administracyjnym i przemysłowym; modernizacja istniejącej sieci okablowaniem strukturalnym w topologii gwiazdy (kabel skrętkowy UTP kat. 5),
  • instalacja głównego punktu dystrybucyjnego dla sieci komputerowej w pomieszczeniu głównego informatyka (budynek administracyjny) oraz punktów dystrybucyjnych w budynku przemysłowym i dyrekcji.

Projekt rozbudowy i modernizacji sieci komputerowej zawiera projekt okablowania i połączeń logicznych urządzeń aktywnych, wybór urządzeń aktywnych i systemu sieciowego.

[ciąg dalszy tej pracy dyplomowej będziemy jeszcze prezentować]

Zapewnienie wiarygodności danych

Jakość wyników analizy niezawodności systemu uzyskiwanych przy pomo­cy metod obliczeniowych, o których mowa była dotychczas, zależy jednak w oczywisty sposób nie tylko od sposobu przeprowadzenia analizy, ale również od wiarygodności danych użytych do obliczeń. Zwykle danymi, co do których można mieć największe wątpliwości, są rozkłady prawdopodobieństwa opisują­ce czas sprawności elementów systemu. Postęp w technologii wytwarzania spowodował, że ogólnie rozumiana niezawodność elementów jest bardzo wyso­ka. Ilościowo przejawia się na przykład w bardzo długim średnim czasem do pierwszego uszkodzenia. Jednak mimo rzadko występujących uszkodzeń poje­dynczych obiektów, niezawodność systemu, który składa się z bardzo wielu stosunkowo niezawodnych elementów, nie musi być wcale duża.

Podstawowym problemem w procesie uzyskiwania informacji o niezawod­ności elementu jest fakt, że w bezpośredni sposób stosunkowo trudno jest zaob­serwować uszkodzenie. Stawia to pod znakiem zapytania możliwość stosowania typowych metod używanych w badaniach niezawodnościowych. Z reguły nie­możliwe jest wykonanie tzw. badania pełnego, czyli eksperymentu, w którym pewną liczbę elementów umieszcza się w zakładanych warunkach eksploatacji i następnie czeka aż do uszkodzenia ostatniego z nich. Dla typowych elementów elektronicznych czas takiego badania wynosiłby zapewne kilkadziesiąt lat.

Dla elementów, które stosunkowo rzadko uszkadzają się, konieczne jest więc zastosowanie innych sposobów uzyskiwania informacji o niezawodności i innej metodologii analizy tych danych. Najczęściej obecnie stosowane metody pozwalające na określanie niezawodności w takich przypadkach to:

  • – szacowania na podstawie opinii ekspertów,
  • – przyspieszone badania niezawodności ALT (Accelerated Lite Testing),
  • – przyspieszone badania pogorszenia własności ADT (Accelerated Deterioration Testing).

Metoda określania niezawodności na podstawie opinii ekspertów nie jest zbytnio sformalizowana. Podstawową cechą, która odróżnia tą metodę od innych jest to, że nie wykonuje się tutaj żadnego eksperymentu. Niezawodność jest oceniana jedynie na podstawie wiedzy ekspertów opartej na podobnych do analizowanego przypadkach i obliczeniach przeprowadzonych z wykorzystaniem zwykle prostych modeli matematycznych zbudowanych na stosunkowo mocnych założeniach. Metoda dostarcza zwykle jedynie informacji o parametrach punktowych, a nie rozkładach czasu życia elementów.

Badania przyspieszone niezawodności (ALT) są metodą organizacji eksperymentu i analizy statystycznej jego wyników. Często stosowana metodą uzyskiwania informacji stanowiącej podstawę do dalszej analizy niezawodnościowej są tzw. badania forsujące. W badaniach forsujących tzw. czynniki narażające, określające warunki pracy obiektu (np. temperatura pracy, obciążenie elektryczne itp.) przyjmowane są na poziomie znacznie wyższym niż przewiduje się to dla nominalnych warunków eksploatacji. W rezultacie, w obiektach znacznie szybciej zachodzą  procesy wymuszające występowanie uszkodzeń. Podstawowym problemem, jaki występuje przy analizie wyników takich badań jest transformacja wyników, jakie uzyskano w warunkach forsownych do normalnych warunków eksploatacji elementu. Istnieje wiele metod analizy wyniku badań forsownych. Niektóre z nich pozwalają na estymację rozkładu prawdopodobieństwa czasu życia elementu przy niewielu dodatkowych założeniach. Ogólnie więc metoda daje w przeciwieństwie do poprzedniej, możliwość wyliczenia zarówno parametrów punktowych określających niezawodność, jak i ich rozkładów.

Trzecia z wymienionych metod, przyspieszone badania pogorszenia własności (ADT), w części eksperymentalnej przypomina metodę drugą. Tutaj także badany element umieszcza się w środowisku czynników narażających, które wymuszają w tym przypadku szybszą zmianę pewnych własności elementu. Rejestruje się jednak nie fakt wystąpienia uszkodzenia, lecz bada, jak przebiega zmiana interesujących parametrów w czasie. Oczywiście, tak jak poprzednio, podstawowym problemem jest przeniesienie wyniku eksperymentu z warunków eksploatacji elementu.

Jak dotychczas brak jest jednak bardziej formalnej metodologii analizy wyników takich badań.

Przedstawiona metoda oceny parametrów niezawodnościowych oraz kosztów eksploatacji złożonych systemów, nie wymagająca przyjmowania założeń upraszczających charakterystycznych dla metod Markowa, ma istotne znaczenie praktyczne:

  • – umożliwia skuteczne wyznaczenie parametrów systemu o dowolnie skompli­kowanej strukturze niezawodnościowej i o dużej liczbie elementów, a tym samym ocenę niezawodności skomplikowanych systemów realizowanych w praktyce;
  • – pozwala na wyznaczenie rozkładów parametrów niezawodnościowych oraz rozkładów kosztów napraw, co daje bardziej wiarygodną informację na po­trzeby podejmowania decyzji o sposobie eksploatacji oraz organizacji na­praw w systemie niż zastosowanie wartości średnich tych parametrów;
  • – pozwala na uwzględnienie rzeczywistych parametrów opisujących nieza­wodność (czasy do uszkodzenia) elementów systemu oraz rzeczywistych rozkładów czasów napraw.

Trwające obecnie prace nad implementacją przedstawionej metodologii w postaci zestawu narzędzi komputerowych powinny dostarczyć praktycznego narzędzia wspomagającego podejmowanie decyzji przez personel odpowie­dzialny za projektowanie i eksploatację złożonych systemów, tak aby uwzględ­nić ilościowo spodziewaną niezawodność i koszty eksploatacji (w tym napraw) systemu.

Modelowanie niezawodności systemu – metody przybliżone

Opisany skrótowo w poprzednim punkcie sposób analizy niezawodności sys­temu, wykorzystujący symulację metodą Monte Carlo jest ogólny i, pomijając nakłady obliczeniowe, zawsze prowadzi do rezultatów. Jednakże w pewnych przypadkach stosowanie aż tak ogólnej metody wydaje się dyskusyjne.

Przykła­dem może być problem analizy systemu spełniającego następujące warunki. Po pierwsze analizowany system jest stosunkowo prosty w tym sensie, że zbiór sta­nów niezawodnościowych nie jest zbyt liczny i łatwo można opisać mechanizm zmiany stanów. Po drugie, rozkłady zmiennych losowych opisujących czasy przej­ścia pomiędzy stanami nie są wykładnicze. Tak sformułowane zagadnienie analizy niezawodności systemu można oczywiście próbować rozwiązywać za pomocą ogólnej metody opartej na symulacji Monte Carlo. Jednak można również próbo­wać rozwiązywać zadanie inaczej, w sposób przybliżony.

Przybliżenie może pole­gać na świadomym zastąpieniu rozkładów, które nie są wykładnicze, rozkładami wykładniczymi i dalszej analizie systemu metodą opartą na procesach Markowa. Nasuwają się od razu oczywiście pytania. W jaki sposób rozkład, o którym wiemy, że nie jest wykładniczy można przybliżyć rozkładem wykładniczym? Jaki błąd powoduje taki zabieg? Jak w ogóle taki błąd mierzyć?

Innym sposobem przybliżonego rozwiązania postawionego wyżej zadania, być może z formalnego punktu widzenia bardziej uprawnionym, jest aproksymowanie rozkładów niewykładniczych mieszankami rozkładów wykładniczych i zastosowanie analizy metodą procesów Markowa. Sposób taki, jak wiadomo, pozwala na przybliżenie każdego znanego rozkładu z dowolną dokładnością. Metoda ta wraz ze wzrostem dokładności przybliżenia powoduje jednak zwięk­szanie liczności zbioru stanów systemu. Nie jest też bezpośrednio oczywiste jakie przybliżenie i którego rozkładu można już uznać za wystarczające.

Oba przybliżone sposoby analizy niezawodności systemu mają w porówna­niu z metodą symulacji Monte Carlo jeszcze jedną wadę. Nie pozwalają na wy­znaczenie rozkładów poszukiwanych parametrów systemu, lecz jedynie ich wartości punktowe.

Analityczne metody badań niezawodności

Szczegółowa postać zależności, np. (l), wskaźnika nieza­wodności  R  od różnych czynników ck, ct i ce,  otrzymywana w sposób analityczny, zależy głównie od rodzaju przyjętego wskaźnika niezawodności; rodzaju zjawisk fizycznych pogarsza­jących stan techniczny obiektu, uwzględnionych w zbudowanym modelu; stopnia złożoności obiektu (przyjętej liczby PK) itd.

Najprostszy przypadek zachodzi wówczas, gdy badanym obiek­tem jest PK z jedną cechą zdatności Z (t).  Wskaźnikiem służą­cym do oceny niezawodności PK jest zwykle funkcja niezawodno­ści R(t),  a inne na ogół jednoznacznie z niej wynikają. Jeśli granica obszaru zdatności jest jednostronna i określona przez  Zgr  ,  to wielkość R(t) może być wyznaczona na przy­kład na podstawie relacji

R(t) = P{ Z(t) £ Zgr }                                                                                    (40)

lub relacji

R(t) = P{T > t }                                                                                             (41)

Czas T  bezawaryjnej pracy PK jest równy czasowi eksploa­tacji, jaki upływa do chwili tgr, w  której cecha zdatności osiąga swoją wartość graniczną. Ponieważ wielkość tg,-  wynika z relacji

Z(tgr) = Zgr                                                                                                      (42)

do wyznaczenia funkcji niezawodności  R(t)  potrzebna jest znajomość stochastycznego opisu cechy zdatności Z(t).  Opis ten wynika z niezawodnościowego modelu PK, a zwłaszcza jego części opisujących zmiany stanu technicznego i początkowy stan techniczny tego PK. Dla każdego PK i zjawisk fizycznych prowa­dzących do jego niesprawności opis ten może być więc różny.

Jeśli analiza cechy zdatności wskazuje, że jej dystrybuanta dla chwili  t  wynosi  Fz(Z; t),  to zgodnie ze związkiem (40) wielkość  R(t)  można określić na przykład za pomocą wy­rażenia

R(t) = Fz(Zgr; t).                                                                                              (43)

W wielu przypadkach przy wyznaczaniu wskaźnika R(t)  wystarczająca jest znajomość probabilistycznego opisu wielkości określających cechę zdatności.

Spośród analitycznych metod wyznaczania szczegółowej po­staci relacji (1) dla PK o jednej cesze zdatności, należy wy­różnić małą grupę, rzadko używanych, metod opartych na teorii łańcuchów Markowa. Próby zastosowania tych metod przedstawione są w pracach [38,121]. W tych przypadkach niezawodnościowy model obiektu przygotowuje się w nieco odmiennej po­staci matematycznej niż przedstawiona w rodz. 4, chociaż na niej opartej.

Gdy stan niezawodnościowy PK zależy od n  cech zdatności, z założenia niezależnych stochastycznie (p. podrozdz. 5.1), to z formuły (6) wynika, że na przykład funkcja niezawodności tego PK jest równa

wzor4(44)

 

 

W tym przypadku analityczne wyznaczenie funkcji R (t)  po­lega na wymnożeniu znalezionych uprzednio prawdopodobieństw tego, że w czasie  t  każda z n  cech zdatności PK nie przekroczy granicy obszaru zdatności .

Przy takim samym upraszczającym założeniu niezależności stochastycznej en bloc między n  cechami zdatności Zn(t) obiektu złożonego z  m PK, a więc – również niezależności stochastycznej en bloc między m  czasami Ti  bezawaryjnej pracy PK,  wskaźniki niezawodności takiego obiektu złożonego mogą być wyznaczone analitycznie na podstawie znajomości od­powiednich wskaźników niezawodności poszczególnych PK (lub na­wet cech zdatności) oraz struktury niezawodnościowej obiektu. Jeśli na przykład poszukiwanym wskaźnikiem jest funkcja nie­zawodności a obiekt ma strukturę szeregową w sensie niezawod­ności (w odniesieniu do jego PK lub cech zdatności), to ten wskaźnik może być wyznaczony na podstawie formuły (44) lub formuły

wzor5(45)

 

Przedtem należy jednak znaleźć odpowiednie prawdopodobień­stwa  Pn  (44) lub funkcje Ri (45), do czego nale­ży wykorzystać zbudowane modele niezawodnościowe  PK.

Gdy niezawodnościowy model obiektu złożonego z większej niż 1 liczby PK lub niezawodnościowy model PK opisywanego przez większą niż 1 liczbę cech zdatności uwzględnia wspomnia­ne zależności stochastyczne, wówczas analityczne metody wyzna­czania wskaźników niezawodności (na podstawie znajomości tego modelu) zwykle zawodzą. W pewnych szczególnych przypadkach zastosowanie metody analitycznej jest jednak możliwe. Możliwość tę wskazuje podany  związek między funkcją niezawodności obiektu zło­żonego o strukturze szeregowej a funkcjami niezawodności po­szczególnych PK, wyprowadzone w ramach teorii korelacji przy założeniach: zmienne losowe Ti  mają rozkłady normalne lub quasi-normalne (korelacja liniowa), a odpowiednie współczynni­ki korelacji   rmh są nieujemne. Wykorzystując ten związek, można przedstawić wyrażenia na funkcję niezawodności obiektu złożonego przy uwzględnieniu zależności stochastycznych, po­dobne do formuł (44) i (45). Na przykład

wzor6(46)

 

 

gdzie

wzor7wzor7b(47)

 

 

m, h = 1, 2,…, m

Rinf(t) – jest funkcją niezawodności PK najbardziej zawodnego.

Formuła (46) może być również wykorzystywana do wyznacza­nia funkcji niezawodności PK o  n  cechach zdatności, gdy  n > 1.  Wówczas

wzor8(48)

 

 

gdzie znaczenie symboli c  i  Pinf(t)  podają relacje podobne do relacji (47).

Ponieważ wielkości występujące w wyrażeniu (46) i w wyra­żeniu (48) zależą od różnych czynników konstrukcyjnych, tech­nologicznych i eksploatacyjnych (p. np. zależności (43) i (44)), więc wyrażenia te stanowią poszukiwane szczegółowe po­stacie relacji (1) dla obiektu złożonego i dla pojedynczego PK.

Przy tej metodzie analitycznego wyznaczania niezawodności obiektu złożonego, model struktury niezawodnościowej powinien zawierać związki (33), na przykład w postaci (34), opisujące odpowiednie zależności stochastyczne. Wartości występujących tam współczynników korelacji rmh  można wyznaczyć analitycz­nie lub za pomocą symulacji realizacji zmiennych losowych Tm i Th.

W wielu przypadkach założenia tej metody analitycznej (mówiące o normalności rozkładów cech zdatności  Zn lub cza­sów  Ti.  oraz o nieujemnych wartościach współczynników korelacji  rmh )  są jednak zbyt silne (choć w mniejszym stopniu w przypadku pojedynczego PK o wielu cechach zdatności), aby mog­ła być ona zastosowania do wyznaczania wskaźników niezawodno­ści. Czasami wadę tę można częściowo wyeliminować przez odpo­wiedni dobór cech zdatności, zwłaszcza taki, aby współczynni­ki korelacji miały wartości nieujemne. Jednak komplikuje to wyznaczanie tych współczynników. Drugą wadą tej metody jest konieczność wyznaczania współczynników korelacji, co jest czę­sto kłopotliwe i żmudne, zwłaszcza przy sposobie analitycznym.

Podana w tej metodzie zależność (46) (lub zależność48) służy do wyznaczania funkcji niezawodności  R(t).  Również w zależnościach (44) i (45). służących do określenia poziomu niezawodności obiektu, używa się tylko tego wskaźnika

nieza­wodności. Znajomość tej funkcji może być jednak wykorzystana do wyznaczenia również i innych wskaźników. Tak na przykład intensywność niesprawności l(t)  jest równa

wzor9(49)

 

 

Sposoby wyznaczania innych wskaźników niezawodności na podstawie znajomości R(t),  m.in. wartości oczekiwanej  ET czasu bezawaryjnej pracy obiektu, podaje odpowiednia literatu­ra z zakresu teorii niezawodności, np. prace [5, 24]. Wszystkie te wskaźniki dotyczą obiektów nieodnawianyoh (np. wielu elementów obiektów mechanicznych, a czasom nawet zespołów) oraz obiektów odnawianych w okresach między kolejny­mi niesprawnościami. Wskaźniki te i przedstawione metody ich wyznaczania odnoszą się do procesu użytkowania obiektu.  Za wskaźniki niezawodności obiektów odnawianych uznawane są rów­nież takie wielkości, jak współczynnik gotowości, wartość oczekiwana czasów odnów poawaryjnych i inne. Charakteryzują one jednak nie tyle obiekt, ile system obiekt-obsługa. Do wy­znaczenia takich wskaźników konieczne jest zbudowanie nie tyl­ko modelu użytkowania, lecz także odpowiedniego modelu obsłu­giwania obiektu (w ramach modelu eksploatacji obiektu). O trudnościach związanych z tym pisano już w podrozdz. 4.3, punkt b.

Powyżej przedstawiono kilka wybranych analitycznych metod badań niezawodności obiektu. Mogą być one stosowane do badań niezawodności PK i obiektu złożonego z wielu PK. Jeśli jednak nie można zrobić założenia o braku stochastycznych zależności między zmiennymi Ti  lub założeń, przy których słuszna jest metoda wykorzystująca relację (46), to najwygodniejszą, a zwykle i jedyną, metodą badań niezawodności obiektu złożone­go z wielu PK (lub opisanego wieloma cechami zdatności) jest metoda symulacji.

Modelowanie cech zdatności elementów maszyn

Przyjmując za miarę niezawodności początkowe) elementu jego praw­dopodobieństwo poprawnej pracy R(0) omówiony w punkcie l zbiór cech powinien spełniać relację:

R(0) = f (Dwk, Wm, Sww, Me).                                                                                            (81)

Zbiór ten jest określany liczbą cech, ich rodzajem, wartościami licz­bowymi, opisem właściwości cech niewymiernych. Jest zapisywany zarówno na rysunkach elementów, jak i licznych (w zależności od stopnia skom­plikowania elementu) instrukcjach technicznych i technologicznych. Sama forma zapisu w dużym stopniu jest uwarunkowana systemem organizacyj­nym i poziomem technicznym jednostki produkcyjnej i stanowi instrukcje nakazowo-informacyjne do odwzorowywania właściwości cech na obrabia­nym elemencie.

Z relacji (81) wynika jednak, że każdy poziom niezawodności R(0) wymaga ścisłego ustalenia zbioru cech o określonych właściwościach granicznych. Zbiór o takich właściwościach wyznacza obszar zdatności Wz ( hiperprzestrzenią jakości, zdatności, niezawodności) elementu w wielowymiarowej przestrzeni fizycznej Pn, możliwych do przyporządkowania elementowi cech jego właściwości.

schemat

Rys. 7. Schemat pętli jakości [2]

Opisywanie obszaru zdatności Wz dla ukształtowania niezawodności elemen­tu zgodnie z pętlą jakości (rys. 7) jest głównym, a zarazem i najtrudniejszym problemem w całościowej problematyce sterowania niezawodnością obiektów mechanicznych.

Zasady budowy modelu nominalnego

podrozdział pracy dyplomowej

Przyjmuje się wg pracy [24], że nominalny mo­del niezawodnościowy jest to układ przedstawiony za pomocą opisu słownego i zwykle także graficznego, odwzorowujący w sposób uproszczony te stany i procesy charakterystyczne dla obiektu rzeczywistego oraz jego otoczenia, które są istotne z punktu widzenia niezawodności.

Budowa tej postaci modelu może się odbywać w czterech krokach, w których dokonuje się wyboru czynników charakteryzujących eksploatację obiektu; zjawisk fizycznych, które mogą prowadzić do niesprawności; punktów kontrolnych i struktury niezawodnościowej obiektu. Zasady tych działań są przedstawione poniżej.

Pierwszy krok, od którego rozpoczyna się w ogólnym przypadku budowy takiego modelu, to wybór i opis (głównie słowny) czynników Za(t), Ot (t) i U(t)  charakteryzu­jących proces eksploatacji modelowanego obiektu. Celem czego działania jest ułatwienie rozpoznania i wyboru zjawisk fizycz­nych (w drugim kroku tworzenia modelu nominalnego) przebiega­jących w obiekcie w czasie eksploatacji i pogarszających jego stan techniczny. Grupy czynników Za(t), Ot(t) i U(t)  zostały już przedstawiony w rozdz. 3. Tu dodajmy kilka wyjaśnień, któ­re mogą ułatwić wybór innych czynników.

Elementy określające zadanie Za(t)  są charakterystyczne dla modelowanego obiektu. Ich rodzaje zależą od celu, dla któ­rego obiekt jest konstruowany. Dla różnych maszyn są więc one różne.

W ogólnym przypadku elementami stanu otoczenia obiektu Ot(t)  są określone cechy warunków klimatycznych, warunków me­teorologicznych, warunków lokalnych (np. agresywność chemiczna środowiska, zapylenie i zapiaszczenie powietrza, ukształtowa­nie terenu) itd. Wybór tych cech zależy jednak od rodzaju obiektu. Dla jednego obiektu istotnym elementem stanu otocze­nia może być np. temperatura powietrza, a dla innego – pręd­kość wiatru.

Do pewnego stopnia opis czynników zaliczanych do sposobu eksploatacji  U(t) może być niezależny od rodzaju modelowanego obiektu. W ogólnym przypadku czynniki te dzielą się na dwie grupy czynników charakteryzujących:

  • użytkowanie
  • obsługiwanie.

Elementy określające sposób użytkowania można podzielić na grupę elementów związanych z przebiegiem procesu użytkowa­nia i na grupę elementów związanych z jakością użytkowania (np. sterowania). Te pierwsze to kolejność, liczby i czasy trwania różnych stanów użytkowania. Na przykład w przypadku żurawia samojezdnego sekwencję różnych stanów użytkowania mo­gą tworzyć następujące stany: dojazd do miejsca pracy, przygo­towanie żurawia do wykonywania zadania, stany naprowadzania haka nad ładunek (sekwencja kilku następujących po sobie ruchów wysięgnika i haka lub ich skojarzeń, stany naprowadzania ładunku nad miejsce posadowienia wysięgnika i haka lub  ich skojarzeń), po­sadowienie ładunku, stany naprowadzania haka nad nowy ładu­nek, … itd. Elementy związane z jakością użytkowania to: błędy użytkowania, płynność ruchów itd. W przypadku żurawia. samojezdnego takimi błędami użytkowania są m.in.: skośne ciągnięcie ładunku, podrywanie ładunku, niedostateczne wypoziomowanie żurawia, uderzenia o przeszkody itd. Jakość użytkowania zależy od: stopnia dopasowania zespołu cech psychofizycznych użytkownika (np. operatora) do obiektu, stopnia fachowości użytkownika itd. Czym niższa jakość użytkowania, tym jest większe prawdopodobieństwo pojawienia się stanów  użytkowania niezgodnych z instrukcją użytkowania  zabronionych, nie­umiejętnego sterowania. Niska jakość użytkowania może więc być przyczyną pojawienia się szczególnie silnych oddziaływań zewnętrznych lub długiego trwania tych od­działywań.

Elementy sposobu obsługiwania również można podzielić na grupę elementów związanych z przebiegiem procesu obsługiwania i na grupę elementów związanych z jakością obsługiwania. Pierwsze z nich to okresy między różnymi stanami obsługiwania i czasy trwania tych stanów. Wszystkie stany obsługiwania moż­na podzielić na trzy zbiory stanów: diagnozowania technicznego (przeglądów), odnawiania profilaktycznego i odnawiania poawaryjnego (wymian, napraw, regulacji, smarowań). Również na ja­kość obsługiwania składają się: jakość przeglądów, jakość od­nawiania profilaktycznego i jakość odnawiania poawaryjnego. Elementy związane z jakością obsługiwania to głównie wykrywal­ność nieodpowiedniego stanu technicznego podczas przeglądu oraz stopień poprawy stanu technicznego w wyniku odnowy. Czym niższa jest jakość przeglądów, tym mniejsza jest szansa wykry­cia nieodpowiedniego stanu technicznego obiektu, a czym niższa jakość odnawiania, tym większa jest możliwość niepoprawienia tego stanu (bo na przykład odnowy nie przeprowadzono wcale), a nawet jego pogorszenia wskutek na przykład złego smarowania, złej regulacji, zastosowania niewłaściwego naciągu wstępnego itd.

W wielu publikacjach, podkreśla się, że jedną z głównych przyczyn niesprawności obiektów tech­nicznych jest zła eksploatacja, głównie niezgodna z instruk­cjami użytkowania i obsługiwania. Wskazuje to, jak ważny jest przy tworzeniu modelu niezawodnościowego umiejętny opis ele­mentów sposobu eksploatacji U(t),  głównie jakości użytkowa­nia i jakości obsługiwania.

W pewnym stopniu wybór i opis cech charakteryzujących pro­ces eksploatacji, dokonany w pierwszym kroku tworzenia modelu nominalnego, może być wykorzystany w etapie tworzenia nieza­wodnościowego modelu matematycznego głównie do matematycznego opisu procesu eksploatacji oraz zewnętrznych oddziaływań na obiekt.

Należy zaznaczyć, że w niektórych przypadkach ten pierwszy krok w tworzeniu modelu nominalnego może być pominięty całko­wicie lub częściowo. Zachodzi to na przykład wtedy, gdy znane są rodzaje i poziomy oddziaływań zewnętrznych (np. w postaci histogramów obciążeń uzyskanych w wyniku eksploatacyjnych ba­dań obiektów podobnych). Wówczas te właśnie znane oddziaływa­nia stanowią podstawę wspomnianej identyfikacji i wyboru zja­wisk fizycznych.

Drugim krokiem w procesie tworzenia modelu nominalnego jest wybór decydujących zjawisk fizycznych,  pod wpływem których ulegają zmianom w czasie eksploatacji (zwykle niekorzystnym) różne własności obiektu, m.in. własności geome­tryczne i materiałowe decydujące o jego prawidłowym funkcjono­waniu, czyli jego stan techniczny (p. rozdz. 3). Przyczyną po­jawienia się tych zjawisk są oddziaływania zewnętrzne występu­jące w czasie eksploatacji obiektu. W przypadku obiektu mechanicznego tymi zjawiskami fizycznymi są przede wszystkim: zmęczenie objętościowe i powierzchniowo elementów, rozwarstwienie doraźne materiału, zużycie cierne, pełzanie, korozja, plastyczne odkształcenie, zespół zjawisk typu rozregulowania, starzenie materiałów itd. Zjawiska te mogą zachodzić nie tyl­ko w elementach mechanicznych, lecz również w elementach ukła­dów elektrycznych lub elektronicznych i prowadzić do nieko­rzystnych zmian charakterystyk elementów lub całych układów, a nawet przerwania obwodów elektrycznych. W rezultacie degra­dacji stanu technicznego pod wpływem tych zjawisk mogą w cza­sie eksploatacji obiektu pojawiać się jego niesprawności. Cha­rakter tych zjawisk fizycznych jest bardzo złożony. Na ogół istnieją tylko hipotetyczne wyjaśnienia istoty tych zjawisk. Badaniem ich zajmuje się tzw. fizyka uszkodzeń.

Ze zbioru tych zjawisk należy przy budowie modelu wybrać głównie te, które przebiegają w obiekcie w sposób najbardziej intensywny i które mogą prowadzić do niesprawności powodują­cych duże straty (ekonomiczne i inne). W celu ułatwienia wybo­ru tych najbardziej istotnych zjawisk fizycznych, zachodzących w elementach mechanicznych, należy m.in.: przeprowadzić sza­cunkową analizę poziomów naprężeń mechanicznych w elementach obiektu, przeprowadzić analizę charakteru tych naprężeń (sta­łe, zmienne), określić czas ich występowania, poznać własności materiałów elementów, poznać czynniki otoczenia i intensywno­ści ich oddziaływania Itd. Wyboru zjawisk fizycznych decydują­cych o niesprawnościach elementów układów elektrycznych i elektronicznych, które czasami są Integralną częścią obiektów mechanicznych, należy dokonywać według nieco innych zasad. Wynikają one z metod obliczeń, przeprowadzanych przez kon­struktorów takich układów i zawarte są w odpowiednim piśmien­nictwie, np. w [10].

Duży wpływ na trafność tego wyboru może mieć również ana­liza przyczyn niesprawności w eksploatowanych już podobnych obiektach mechanicznych, pracujących w podobnych warunkach oraz analiza przyczyn niesprawności, które wystąpiły podczas eksperymentalnych badań prototypów i serii informacyjnej.

Jednocześnie z wyborem decydujących zjawisk fizycznych dokonuje się jednego z podstawowych założeń upraszczających, polegającego na pominięciu innych zjawisk, które mają mały wpływ na proces powstawania niesprawności obiektu.

Trzeci krok to wybór fragmentów obiektu naj­bardziej narażonych na niesprawności, czyli wybór PK (p. rozdz. 4.1).  Przyjmuje się  przy tym następne bardzo ważne założenie upraszczające, według którego prawdopodobieństwo po­wstania uszkodzenia w innych miejscach jest równe zeru. Ciąg­łe modele niezawodnościowe obiektów mechanicznych stosowane są bardzo rzadko, gdyż są zbyt skomplikowane i zbyt trud­ne do badania.

Wyznaczanie PK może się odbywać różnymi sposobami w zależ­ności od stopnia skomplikowania obiektu, od ważności spełnia­nych przez niego funkcji, od zasobu informacji o konstruowanym obiekcie i o eksploatowanych obiektach podobnych, od rodzajów metod obliczeń przeprowadzanych przez konstruktora itd. Są one następujące.

– Arbitralne wskazanie PK na podstawie wiedzy, doświadcze­nia i intuicji osoby tworzącej model obiektu. Jest to sposób najprostszy, lecz zwykle najmniej dokładny.

– Wskazanie PK na podstawie rezultatów obliczeń (m.in. naprężeń) przeprowadzonych przez konstruktora w etapach tworzenia projektu wstępnego i projektu technicznego oraz na pod­stawie rozważań przeprowadzonych w drugim kroku tworzenia nie­zawodnościowego modelu nominalnego.

– Wskazanie PK na podstawie informacji o niesprawnościach podobnych obiektów mechanicznych eksploatowanych w warunkach podobnych do tych, które są przewidziane dla obiektu rozpatry­wanego.

– Wskazanie PK na podstawie rezultatów doświadczalnych ba­dań elementów lub podzespołów konstruowanego obiektu, przepro­wadzanych w etapach tworzenia projektu wstępnego i projektu technicznego oraz podczas badań prototypów (wizualne efekty badań elastooptycznych, akustyczne efekty dekohezji itd.).

– Wyznaczanie PK na podstawie rezultatów obliczeń metodą elementów skończonych, przeprowadzonych przez konstruktora w etapach tworzenia projektu wstępnego i projektu technicznego. W tym przypadku wyznaczanie PK może być zautomatyzowane dzięki dołączeniu do programu MES odpowiedniej procedury, służącej do wskazywania tych fragmentów obiektu, w których występują największe wytężenia (mechaniczne, cieplne i inne).

Niektóre z tych sposobów mogą być również wykorzystywane do wyznaczania takich PK, które zastępują pod wybranym wzglę­dem grupy elementów obiektu ( p. rozdz. 4.1). Dotyczy to również tych przypadków, gdy w modelowanym obiekcie występuje duża grupa elementów o dużej niezawodności. Wówczas jednym ze sposobów postępowania może być przypisanie takiej grupie ele­mentów jednej lub kilku wspólnych cech zdatności i traktowanie jej jako jednego PK.

Jeśli liczba PK,  wyznaczonych tymi sposobami, jest duża, to można próbować ją ograniczyć przez eliminację niektórych z nich. Aby taka eliminacja była racjonalna, należy uprzednio dokonać hierarchizacji wszystkich PK. Do tego konieczne jest ustalenie kryterium, na podstawie którego można tę hierarchi­zację przeprowadzić. Wydaje się, że jedną z bardziej odpowiednich wielkości, która może w tym przypadku spełniać rolę wiel­kości kryterialnej, są straty wywoływane ewentualnymi niesprawnościami poszczególnych PK (straty ekonomiczne i inne). Wielkość ta jest zdefiniowana i opisana w opracowaniu [25]. Eliminacja powinna dotyczyć tych z wyznaczonych uprzednio PK, dla których wspomniane stra­ty są według szacunkowej oceny najmniejsze.

Czwartym   krokiem  wyróżnionym w procesie budowy modelu nominalnego jest określenie zasad organizacji zbioru wybranych PK, czyli – wybór tzw. struktury nie zawodno­ściowej obiektu. W tym celu należy przede wszystkim podać de­finicje opisowe (słowne) niesprawności poszczególnych PK i ca­łego obiektu, czyli określić ich graniczne stany techniczne, oddzielające odpowiednie stany zdatności i niezdatności,

Niesprawności PK obiektów mechanicznych przenoszących na­pęd charakteryzują się zwykle granicznym naruszeniem makro- lub mikrogeometrii elementów. Naruszenie makrogeometrii pole­ga na: odkształceniach trwałych (wskutek: utraty stateczności, pełzania, przekroczenia przez obciążenia nośności granicznej itd.), ubytkach materiału (wskutek: zużycia ciernego, korozji itd.), pęknięciach (wskutek: przekroczenia przez obciążenie nośności granicznej, kumulacji uszkodzeń zmęczeniowych przy zmiennych obciążeniach itd.), przemieszczeniach w stosunku do sąsiednich elementów (wskutek utraty sprzężenia ciernego) itd. Naruszenie mikrogeometrii to zwykle: wgniecenia, wżery, wykru­szenia i inne na powierzchni elementu (wskutek: adhezji, koro­zji, pittingu itd.).

Ogólnie opisowa definicja niesprawności PK może brzmieć na przykład w sposób następujący: niesprawność PK jest to ta­kie zdarzenie (polegające zwykle na naruszeniu makro- lub mi­krogeometrii elementu w tym PK), które uniemożliwia dalsze spełnianie przez ten PK wymaganych funkcji w obiekcie w spo­sób fizyczny lub umowny.

W każdym konkretnym przypadku PK należy taką definicję uściślić, zwłaszcza gdy ewentualna niesprawność jest umowna, przez ustalenie objawów granicznego stopnia naruszenia geome­trii elementu. Jak wynika z ogólnej definicji niesprawności podanej powyżej o położeniu tej granicy mogą decydować różne kryteria, nie tylko techniczne.

Następnie należy ustalić definicję opisową niesprawności całego obiektu. Ogólnie może być ona sformułowana podobnie jak dla PK:

Def. [24] Niesprawność obiektu jest to każde zdarzenie, polegają­ce na takiej zmianie stanu-technicznego tego obiektu, że uniemożliwia to fizycznie lub umownie spełnianie’ przewidzianych dla niego funkcji.

I tu także uściślenie tej definicji w odniesieniu do kon­kretnego obiektu powinno polegać na ustaleniu kryteriów niesprawności, czyli objawów granicznego pogorszenia stanu tech­nicznego.

Zgodnie z zaproponowanymi definicjami obiekt i jego PK mogą ulegać niesprawnościom fizycznym lub umownym. Niespraw­nościami fizycznymi nazwane zostały te, które natychmiast po ich zajściu uniemożliwiają w ogóle jakiekolwiek funkcjonowanie obiektu lub PK Są to głównie niesprawności występujące nagle, np.: pęknięcia i trwałe odkształcenia elementów mechanicznych lub większych fragmentów maszyny, pęknięcia przewodów dopro­wadzających olej do instalacji hydraulicznych, przerwanie istotnych obwodów elektrycznych itd.

Niesprawnościami umownymi nazywa się takie zmiany stanu technicznego obiektu (lub PK), zachodzące na ogół stopniowo, a czasami nagle, które nie przerywają natychmiast jego funk­cjonowania, a jedynie wywołują:

– niedopuszczalny wzrost ryzyka powstawania poważnego uszko­dzenia, powodującego duże straty (np. niesprawność układu za­bezpieczenia w obiekcie, pojawienie się dużych drgań wskutek wzrostu luzu w łożyskach itd.);

– niedopuszczalne pogorszenie poprawności funkcjonowania obiektu, np. spadek wydajności, spadek sprawności mechanicz­nej, wzrost poziomu hałasu itd.

Ustalenie kryteriów niesprawności (fizycznych i umownych) zależy: od rodzaju funkcji przewidzianych do wykonania przez obiekt (lub przez maszynę zawierającą ten obiekt), od sposobu eksploatacji, a przede wszystkim od możliwości powstania du­żych strat ekonomicznych lub możliwości zagrożenia dla życia ludzkiego w przypadku powstania niesprawności fizycznej obiek­tu. Czym te skutki ewentualnej niesprawności fizycznej są większe, tym kryterium niesprawności umownej ustala się na ogół na niższym poziomie.

Przyjęcie opisowych definicji niesprawności obiektu i po­szczególnych jego PK jest podstawą do zorganizowania zbioru wybranych PK, czyli ustalenia struktury niezawodnościowej obiektu. Struktura niezawodnościowa obiektu określa zależność jego stanu niezawodnościowego (stan zdatności, stan niezdatności) od stanów niezawodnościowych poszczególnych jego PK.

Wśród struktur niezawodnościowych wyróżnia się, jak wiado­mo, dwie podstawowe grupy struktur: struktury szeregowe i struktury równoległe. Obiekty mechaniczne przenoszące napęd mają zwykle strukturę szeregową w sensie niezawodności, cza­sami – strukturę mieszaną lub inną.

Trzeba jednak pamiętać, że struktura niezawodnościowa obiektu jest względna. Ten sam obiekt może mieć w pewnych przypadkach strukturę równoległą, a w innych – sze­regową lub mieszaną. Zależy to głównie od definicji niespraw­ności obiektu. Na przykład inną strukturę niezawodnościową mo­że mieć obiekt przy definicji niesprawności podanej powyżej, uwzględniającej fizyczny i umowny brak możliwości wykonania zadania, a inną – przy definicji uwzględniającej tylko fizycz­ny brak możliwości wykonania zadania. Przedstawmy prosty przy­kład zależności tej struktury od kryterium niesprawności.

Opis cyklu hydraulicznego pracy układu

Stacja wodociągowa zrealizowana została na podstawie dokumentacji wykonanej w 1971 r. przez WBPBO w Warszawie. Modernizacji dokonano na podstawie dokumentacji wykonanej przez Spółdzielnie Pracy „Expo-Service” w Poznaniu. Ostatecznie stację oddano do użytku w 1991 r. Stacja zasila w wodę budynki uczelniane i mieszkaniowe SGGW przy ulicy Nowoursynowskiej.

Stacja wodociągowa posiada dwa niezależne ujęcia wody:

1) czwartorzędowej – w skład którego wchodzą dwie studnie głębinowe nr 1a i 2a (spąg warstwy    wodonośnej 30 m poniżej terenu, a zwierciadło statyczne 10,8 m poniżej    terenu)

2)  trzeciorzędowej – w skład którego wchodzi jedna studnia głębinowa nr 3 (spąg warstwy    wodonośnej 265 m poniżej terenu, a zwierciadło statyczne 17,5 m poniżej    terenu).

Ujęcie wód czwartorzędowych jest podstawowym Ÿródłem wody zasilającej uczelnię, natomiast ujęcie wód oligoceńskich jest układem dodatkowym podłączonym do dwóch punktów czerpalnych o małej wydajności.

Opis cyklu hydraulicznego pracy układu czwartorzędowego.

W obu studniach zainstalowane są pompy głębinowe GRUNDFOSA typu SP 45/6 o następujących parametrach:

Q=22 ÷ 56 m3/h,

H=59 ÷ 24 m,

N=7,5 kW.

Zgodnie z rysunkiem nr 4, każda z pomp pompuje wodę na oddzielną sekcję filtracyjną. W sekcji woda przechodzi kolejno przez areator, odżelaziacz i odmanganiacz, oba o pojemności całkowitej 10 m3 . Po uzdatnieniu woda gromadzona jest w dwukomorowym żelbetowym zbiorniku zapasowo-wyrównawczym o pojemności 2*500m3. Ze zbiornika woda tłoczona jest do sieci trzema pompami typu 65 PJM 200 o następujących parametrach:

Q=24 ÷ 42 m3/h,

H=52 ÷ 40 m,

N=11 kW.

Na stanowisku pomp II stopnia znajduje się jeszcze jedna pompa zapasowa tego samego typu. Pracą pomp sterują dwa hydrofory o pojemności 10 m3 każdy. Układ płuczny składa się z trzech pomp typu 100 PJM 200 o następujących parametrach:

Q=42 ÷ 75 m3/h,

H=11,8 ÷ 9,5 m,

N=3 kW.

Jedna sekcja płukana jest z częstotliwością raz na trzy doby. Podczas płukania pracują dwie pompy płuczne, płucząc kolejno odżelaziacz a następnie odmanganiacz. Wody popłuczne spływają grawitacyjnie do odstojnika, z którego są spuszczane do kanalizacji.

Opis cyklu hydraulicznego pracy układu oligoceńskiego.

Układ jest jedno stopniowy zasilany pompą głębinową typu SIGMA UV N-1-6 o następujących parametrach:

Q=6 m3/h,

N=2,2 kW.

Pompa głębinowa transportuje wodę ze studni nr 3 przez areator do filtru odżelaziającego o pojemności całkowitej 10 m3. Po uzdatnieniu woda gromadzi się w hydroforze o pojemności 10 m3 skąd odpływa do sieci. Filtr ten jest płukany raz na tydzień.

W hali znajdują się dodatkowo jeden odmanganiacz i jeden odżelaziacz, które obecnie pełnią funkcję zapasowych.

Układ sprężonego powietrza, zasilający całą stację, składa się ze stanowiska sprężarek, zbiornika powietrza umieszczonego poza budynkiem stacji oraz armatury kontrolno-pomiarowej. Stanowisko sprężarek składa się ze sprężarki typu A50-380-240, ze wspomaganiem małą sprężarką typu 2 CV. Na wypadek awarii są dodatkowo dwie sprężarki.


wiazowna

zielonka

Klasyfikacja metod kontroli przeciążenia

Algorytmy przeciążenia mogą być klasyfikowane w zależności od czasu, kiedy działają w sytuacji przeciążenia. Wychodzenia z przeciążenia jest mechanizmem, który próbuje zmienić już przeciążony zasób do stanu nie przeciążonego  tak szybko jak jest to tylko możliwe. Zapobieganie przeciążeniu jest metodą dla której wystąpienie przeciążenia jest niemożliwe. Jednak metoda ta powoduje nieefektywne wykorzystanie dostępnego pasma przepustowego w sieci. Unikanie przeciążenia jest metodą, która stara się stale utrzymywać zasoby sieci w stanie nie przeciążonym, ale jednocześnie zapewniając efektywność wykorzystania jej zasobów. Użytkownicy sieci wymagają od sieci efektywności, wydajności, dlatego też większość proponowanych metod kontroli przeciążenia należy do metod unikających przeciążenia. Jednak, szybkie zmiany pomiędzy stanami sieci (przeciążona -nie przeciążona) są nieuniknione, dlatego też, metody wychodzenia z przeciążenia są więc zwykle integralną częścią metod kontroli przeciążenia. Jedną z metod wychodzenia z przeciążenia jest metoda odrzucania całych pakietów (packet discard).

Mechanizmy kontroli przepływu danych, które dostosowują prędkość transmisji zapobiegając występowaniu zatłoczenia w sieciach ATM mogą być ogólnie klasyfikowane jako: open-loop i close-loop. Kontrola typu open-loop jest stosowana dla połączeń, których charakterystykę ruchu można precyzyjnie określić a  wymagania jakościowe znane są z góry.  Połączenie w kontroli typu open-loop specyfikuje swoje wymagania co do zasobów sieci, które, jeśli są dostępne, następnie są rezerwowane na czas trwania połączenia.

Kontrola typu close-loop jest odpowiednia dla sieci dla których zasoby nie mogą zostać zarezerwowane lub kiedy ruch w sieci nie może być sprecyzowany. W kontroli tej dostępne zasoby sieci muszą być „sprawiedliwie” i efektywnie dzielone między wieloma użytkownikami. W kontroli tej źródło stale próbkuje stan sieci i dostosowuje swoją prędkość transmisji w zależności od otrzymanego sprzężenia zwrotnego. Ważną cechą kontroli typu close-loop jest to, że wydajność, efektywność tej metody zależy od opóźnienia sprzężenia zwrotnego. Różnica czasu pomiędzy zmianą prędkości transmisji źródła a czasem kiedy źródło zobaczy efekt tej zmiany nazwana jest round-trip-time. Reakcja systemów opartych na metodach ze sprzężeniem zwrotnym ograniczona jest opóźnieniem sprzężenia zwrotnego i może tylko kontrolować przeciążenia, które trwają dużej niż round-trip-time w danej sieci.

Metody kontroli przeciążenia można jeszcze klasyfikować ze względu na typ kontroli jaki wprowadzają: credit-based lub rate-based. W przypadku wykorzystania kontroli typu  rate-based, komórki sterujące zawierają informacje o bieżącym dostępnym paśmie  przepustowym dla danego typu połączenia. Jeśli którykolwiek z przełączników ATM, biorący udział w realizacji danego połączenia, wykryje fakt przeciążenia tego połączenia (tzn. nastąpi odrzucenie przynajmniej jednej komórki ATM zawierającej dane użytkownika), to zawartość komórki sterującej zostanie zmieniona tak, aby zmniejszyć prędkość transmisji źródła i nie dopuścić do dalszego gubienia komórek danych. Metoda rate-based pozwala więc na bardzo efektywne wykorzystanie dostępnego pasma.

Odmiennie natomiast działa metoda typu credit-based. Komórki sterujące przenoszą informacje nie o dostępnym paśmie przepustowym, lecz o stopniu zapełnienia buforów odbiorczych przełączników oraz urządzeń brzegowych realizujących dane połączenia. Komórki te noszą nazwę kredytów. Urządzenie odbierające strumień komórek ATM na bieżąco informuje urządzenie nadawcze, które ten strumień transmituje, o stanie swojego wewnętrznego bufora wejściowego. Jeśli bufor ten zostanie wyczerpany, to urządzenie nadawcze nie otrzyma „kredytów” i w ten sposób nie będzie mogło dalej wysyłać danych.

Do efektywnego działania, obydwie metod potrzebują znać stan sieci. Typ sprzężenia jaki jest używany do badania stanu sieci jest następnym kryterium klasyfikacji metod kontroli przeciążenia. Z jawnym sprzężeniem zwrotnym (explicit feedback) elementy sieci wysyłają komunikaty wskazujące ich stan (zajętość buforów, wolne pasmo itp.) do punktów kontrolnych. Jeżeli metody kontroli przeciążenia poznają stan sieci poprzez pomiary transmisji (np. porównanie zmierzonej przepustowości i przepustowości oczekiwanej) lub poznają stan sieci przez zdarzenia takie jak time-out, informacje zawarte w potwierdzeniach, to sprzężenie zwrotne jest „ukryte” (implicit feedback). Kontrola z jawnym sprzężeniem zwrotnym pozwala na bardziej precyzyjne dostosowywanie  parametrów transmisji, w odróżnieniu od kontroli z „ukrytym” sprzężeniem zwrotnym, która jest bardziej skomplikowana i czasochłonna.

Kiedy kontrola przeciążenia ma miejsce tylko w końcach systemu, jest nazwana end-to-end control. W kontroli tej pośrednie elementy sieci generują i wysyłają  potrzebne informacje kontrolne do końca systemu. W metodach link-by-link, pośrednie elementy sieci wymieniają pomiędzy sobą informacje i dopasowują swoją prędkość w zależności od otrzymanej informacji (sprzężenia zwrotnego) od sąsiada. Na przykład jeżeli w przełączniku odbierającym transmisje bufor zbliża się do przepełnienia, przełącznik może wysłać do przełącznika wysyłającego żądanie zmniejszenie prędkości transmisji zapobiegając tym samym przepełnieniu bufora. W metodzie end-to-end tylko końcówki systemu mogą regulować charakterystykę ruchu.


Źródła:

Fang Lu, “ATM Congestion Control”

Lampros Kalampoukas, „Congestion Management in High Speed Networks”