DZWONEK

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwać
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu
  • 5. UKŁADY OPTYCZNE REALIZUJĄCE TRANSFORMACJĘ FOURIERA
  • 6. WŁAŚCIWOŚCI TRANSFORMY OPTYCZNEJ FOURIER
  • 6.1 PRZEKSZTAŁCENIE FOURIERA I WIDMA WIENERA NIEKTÓRYCH FUNKCJI
  • 8. INTERFERENCJA WIĄZEK ŚWIATŁA. KONCEPCJA SPÓJNOŚCI PRZESTRZENNEJ I CZASOWEJ
  • 10. FIZYCZNE ZASADY HOLOGRAFII
  • 10.1 GŁÓWNE RODZAJE HOLOGRAMÓW
  • 10.2. HOLOGRAMY FRUNHOFERA, FRESNELA I FOURIERA
  • 10.3. WŁAŚCIWOŚCI ŁĄCZĄCE HOLOGRAMÓW
  • 11. UOGÓLNIONY SCHEMAT FUNKCJONALNY DLA PRZETWARZANIA SYGNAŁÓW OPTYCZNYCH
  • 12. SPÓJNE UKŁADY OPTYCZNE PRZETWARZANIA INFORMACJI ANALOGOWYCH
  • 12.1. Spójny analogowy procesor optyczny
  • 13. SYNTEZA PRZESTRZENNYCH FILTRÓW OPERACYJNYCH
  • 14. SPÓJNE PRZETWARZANIE SYGNAŁÓW OPTYCZNYCH Z WYKORZYSTANIEM SYGNAŁU ZWROTNEGO
  • 15.OPTOELEKTRONICZNY HYBRYDOWY SYSTEM KOMPUTEROWY
  • 16. DZIAŁANIE AKUSTYCZNO-OPTYCZNEGO AKUSTYCZNIKA WIDMA SYGNAŁÓW RADIOWYCH
  • 17. STACJE RADAROWE Z OTWOREM Z SYNTEZOWANEJ ANTENY (RSA)
  • 18. DYSKRETNE I ANALOGOWE STEROWANIE PŁASZCZYZNA POLARYZACJI PROMIENI ŚWIATŁA
  • 18.1 MODULACJA POLARYZACYJNA W OPARCIU O ROZSZERZENIE WIĄZKI ŚWIATŁA
  • 18.2 DYSKRETNE PRZEŁĄCZANIE KĄTÓW POCHYLENIA LOSOWO orientowanych płaszczyzn polaryzacji światła
  • 18.3 STEROWANIE ANALOGOWE DOBROWOLNIE ZORIENTOWANEJ PŁASKIEJ POLARYZACJI WIĄZKI ŚWIATŁA
  • 19. DYSKRETYZACJA SYGNAŁU OPTYCZNEGO.
  • 19.1 Twierdzenie o doborze KOTELNIKOV-SHENON
  • 19.2 DYSKRETNA TRANSFORMA FOURIERA
  • 17. STACJE RADAROWE Z OTWOREM Z SYNTEZOWANEJ ANTENY (RSA)

    Radary z długą anteną kadłuba zapewniają szczegółowe obrazy radarowe tylko ze stosunkowo krótkich odległości. Przesuwając pas rozpoznawczy kilkadziesiąt kilometrów od samolotu, konieczne jest zastosowanie anten o długości dziesiątek i setek metrów, których nie można umieścić na samolocie.

    Aby przezwyciężyć tę trudność, stosuje się metodę syntezy apertury anteny, która polega na zapisywaniu sygnałów odbitych od celów w odcinku toru lotu, którego długość jest równa wymaganej długości anteny. Późniejsze przetwarzanie zarejestrowanych sygnałów w sprzęcie pokładowym lub naziemnym umożliwia uzyskanie bardzo szczegółowego obrazu radarowego.

    W obecnie najbardziej rozpowszechniony systemy optyczne przetwarzanie. Opierają się na metodzie holograficznej, w której sygnały radarowe zarejestrowane na kliszy (hologramy radiowe) są wykorzystywane do tworzenia obrazu radarowego.

    W Zasada holografii SAR stosowana jest zarówno w rejestracji odbitych fal radiowych, jak iw urządzeniach optycznych OOS.

    Fala odniesienia, przechodząc przez hologram, tworzy obraz obiektu dokładnie w miejscu, w którym znajdował się w momencie rejestracji hologramu. Obraz

    (kropki) nie będą kropkowane, ale nieco rozmyte. Wielkość plamki δ x, która określa szczegółowość tworzonego obrazu, można znaleźć z wyrażenia, które ma następującą postać:

    δx = λR/X;

    gdzie λ jest długością fali promieniującej; R - Odległość hologramu od obiektu; X - liniowy rozmiar hologramu.

    Sformułujmy główne cechy procesu holograficznego:

    - konieczne jest posiadanie spójnych fal odniesienia i sygnału;

    - w procesie holografii rozkład amplitudowo-fazowy pola falowego sygnału jest przekodowywany na rozkład amplitudowy sygnału, a sygnał ten jest zapisywany w postaci hologramu (wzorzec interferencyjny);

    - aby przywrócić obraz, konieczne jest napromieniowanie hologramu falą referencyjną.

    Glogramy mają szereg ciekawych właściwości. Jedną z nich jest możliwość zmiany skali obrazu, jeżeli wielkość liniowa hologramu i długość fali wiązki światła odtwarzającego obraz zmienia się jednocześnie tyle samo razy, to tyle razy

    zmieni się również skala generowanego obrazu. Jeśli zmiany długości fali i skali hologramu są nieproporcjonalne, obraz również zostanie utworzony, ale będą w nim zniekształcenia skali. W wielu praktyczne zastosowania te zniekształcenia nie odgrywają znaczącej roli.

    Ta właściwość pozwala rejestrować hologramy na jednej długości fali, na przykład w zakresie radiowym, oraz przywracać front fali i obserwować obraz na innej długości fali, w zakresie optycznym.

    Rozważmy system radarowy z bocznym skanowaniem zainstalowany na pokładzie samolotu, jak pokazano na rysunku 17.1. Załóżmy, że z systemu radarowego w samolocie na teren jest kierowany ciąg impulsowych sygnałów radarowych, a sygnały odbijające teren są odbierane z miejsca znajdującego się w pobliżu kursu samolotu. Współrzędną obrazu radarowego, poprzeczną do kierunku lotu, nazwijmy „zasięg”, a zbieżną z torem lotu - „azymutem”. Wygodnie jest również określać współrzędną łączącą trajektorię radaru statku powietrznego z dowolnym rozważanym celem jako „zasięg skośny”. Jeśli używany jest konwencjonalny system radarowy, wówczas rozdzielczość azymutu będzie rzędu λ r1/D, gdzie λ jest długością fali sygnałów radarowych, r1 jest zasięgiem pochylenia, a D jest rozmiarem apertury anteny wzdłuż droga lotu. Jednak długość fali sygnału radarowego jest o kilka rzędów wielkości większa niż fali optycznej i dlatego, aby uzyskać rozdzielczość kątową porównywalną z rozdzielczością systemu fotorozpoznawczego, wymagana jest bardzo duża apertura anteny D. Wymagana antena długość może wynosić dziesiątki, a nawet setki metrów. Oczywiście jest to trudne do zrealizowania w samolocie.

    Jednak tę trudność można przezwyciężyć, stosując metodę apertury syntetycznej. Podstawową zasadą syntezy apertury jest to, że różne elementy szyku nie muszą istnieć jednocześnie w przestrzeni. Załóżmy, że samolot ma małą boczną antenę skanującą, a stosunkowo szeroka wiązka radarowa skanuje obszar z powodu ruchu samolotu. Pozycje statku powietrznego, w których emitowane są impulsy radarowe, można uznać za elementy liniowego układu antenowego. Następnie odebrany sygnał w każdej z tych pozycji jest rejestrowany spójnie w funkcji czasu, ponieważ sygnał odniesienia jest podawany do odbiornika radarowego, umożliwiając jednoczesne rejestrowanie informacji o amplitudzie i fazie. Różne zarejestrowane fale złożone są następnie odpowiednio przetwarzane, aby zsyntetyzować rzeczywistą aperturę.

    Aby bardziej szczegółowo zbadać, w jaki sposób ta metoda syntezy anteny jest realizowana, najpierw rozważamy problem z celem punktowym, a następnie rozszerzamy wyniki uzyskane metodą superpozycji na bardziej złożony przypadek. Załóżmy, że cel punktu znajduje się w punkcie x1 .

    Impuls radarowy jest tworzony przez okresową prostokątną modulację sygnału sinusoidalnego o częstotliwości kątowej równej ω .

    Obszar widoku azymutu

    gdzie A1 jest odpowiednią stałą zespoloną. Złożona wartość A1 obejmuje takie czynniki, jak moc wypromieniowana, współczynnik odbicia celu, przesunięcie fazowe i prawo propagacji (odwrotnie proporcjonalne do czwartej mocy). Korzystając z aproksymacji przyosiowej, zakres r można zapisać w następujący sposób:

    gdzie k = 2π /λ . Wyrażenie (17.3) zależy od t i x, a zmienne przestrzenne i czasowe są powiązane relacją

    gdzie v jest prędkością samolotu. Jeśli teraz założymy, że obszar w odległości r1 składa się ze zbioru n celów punktowych, to metodą superpozycji zapisujemy całkowity sygnał odbity w postaci

    S(t) = ∑ An (xn ,r1 )exp(i[ω t-2kr1 -k(vt-xn )2 /r1 ]). (17,5) n=1

    Jeżeli odbity sygnał radarowy opisany przez (17.5) jest demodulowany przy użyciu detektora synchronicznego, to zdemodulowany sygnał można zapisać jako:

    S(t) = ∑ An (xn ,r1 ) cos[ω c t-2kr1 -k(vt-xn )2 /r1 +ϕ n ], (17,6) n=1

    gdzie ω c jest dowolną częstotliwością nośną, a ϕ n jest dowolnym kątem fazowym. Do zapamiętania odbitego sygnału radarowego używany jest

    kineskop. Doprowadzony do niego sygnał zdemodulowany moduluje natężenie wiązki elektronów, która jest rozmieszczana w kierunku pionowym synchronicznie z odbitymi impulsami radarowymi. Jeżeli obraz sygnału z ekranu tuby rzutowany jest na kliszę fotograficzną poruszającą się w kierunku poziomym ze stałą prędkością, to zapisany zostanie ciąg śladów zasięgu, który utworzy obraz 2D(rys.17.2). Pionowe linie opisz zakres przemiatania, a pozycje azymutu są wykreślane poziomo. Rejestrowany obraz jest więc zbiorem próbek sygnału S(t). To próbkowanie jest przeprowadzane w taki sposób, że do czasu zarejestrowania sygnałów na kliszy okazuje się, że jest w zasadzie nie do odróżnienia od oryginalnego sygnału. Dzięki tej rejestracji jest oczywiste, że zmienne w czasie są przeliczane na zmienne w przestrzeni pod względem odległości wzdłuż linii rekordu. Przy odpowiednim naświetleniu przezroczystość kliszy rejestrującej przedstawia zmianę azymutu odbitego sygnału radarowego. Jeśli więc weźmiemy pod uwagę tylko dane zarejestrowane w kierunku y = y1 , transmisję amplitudy można przedstawić jako

    )2 +ϕ

    ∑ A (x

    ) cos[ω x-2kr

    r 1 v f

    Zakres (y)

    Ścieżka modulowanego azymutu (x) nad jasnością wiązki elektronów

    gdzie K1 i K2 - przemieszczenie i współczynnik proporcjonalności, x=vf t - współrzędna filmu; vf to prędkość ruchu filmu; ω x \u003d ω c / vf . Ponieważ cosinus można przedstawić jako sumę dwóch zespolonych sprzężonych wykładników, sumę w (7.75) można zapisać jako dwie sumy T1 i T2 :

    ) exp(i[ω x-2kr

    )2 (x-x

    /v)2 +ϕ

    )=---- ∑ A

    )2 (x-x

    /v)2 +ϕ

    )=---- ∑ A

    ) exp(-i[ω x-2kr

    Dla uproszczenia ograniczamy się do problemu w jednym celu. Wtedy dla n = j równanie (17,8) przyjmuje postać

    ) = Cexp(iω x)[-i--- (----)2 (x - x

    /v)2 ],

    gdzie C jest odpowiednią stałą zespoloną. Pierwszy wykładnik opisuje liniową funkcję fazy, tj. tylko nachylenie wypromieniowanej fali. Kąt nachylenia do płaszczyzny filmu określa wyrażenie

    Tak więc, z wyjątkiem funkcji fazy liniowej, (7.76) jest superpozycją N dodatnich soczewek cylindrycznych wyśrodkowanych w punktach podanych przez

    x = vj xn /v,

    n = 1, 2, ..., N.

    Podobnie (17.9) zawiera liniowy współczynnik fazy - 0 i opisuje superpozycję N ujemnych soczewek cylindrycznych o środkach określonych przez (17,14) i ogniskowych opisanych przez (17,13).

    Aby przywrócić obraz, przezroczystość odpowiadająca (17,7) jest oświetlana monochromatyczną falą płaską, jak pokazano na ryc. 17.3. Można wtedy wykazać, korzystając z teorii Fresnela-Kirchhoffa lub zasady Huygensa, że ​​obrazy rzeczywiste wytworzone przez T1(x,y1) oraz obrazy wirtualne wytworzone przez T2(x,y1) zostaną zrekonstruowane w ognisku przednim i tylnym. samoloty filmu. Względne położenia obrazów rozpraszaczy punktowych są rozłożone wzdłuż linii ognisk, ponieważ liczne środki struktury soczewkowatej błony są określone przez położenie rozpraszaczy punktowych. Jednak przywrócony obraz zostanie rozmazany w kierunku y; dlatego ten film jest w istocie realizacją funkcji jednowymiarowej wzdłuż y = y1 iw konsekwencji nie ma działania ogniskującego w tym kierunku.

    Ponieważ naszym celem jest odtworzenie obrazu nie tylko w kierunku azymutu, ale również w kierunku zasięgu, konieczne jest wyświetlenie współrzędnej y bezpośrednio na płaszczyźnie ogniskowej obrazu azymutu. W tym celu należy przypomnieć, że jest on wprost proporcjonalny do zakresu r1 . Z kolei ogniskowa jest wprost proporcjonalna do rozpatrywanej współrzędnej y. Aby więc stworzyć mapę obszaru, musimy odwzorować współrzędną y nadawanego sygnału na płaszczyznę, której położenie wyznaczają ogniskowe kierunku azymutu. Można to łatwo osiągnąć, umieszczając dodatnią soczewkę stożkową bezpośrednio za kliszą do nagrywania, jak pokazano na rysunku 17.4. Oczywiście, jeśli przepuszczalność soczewki stożkowej jest równa

    x2 /2f),

    f jest funkcją liniową r1, jak pokazano na (17.13), możliwe jest całkowite usunięcie całej nazwanej płaszczyzny wszystkich wyobrażonych dyfrakcji do nieskończoności, pozostawiając bez zmian transmitancję w kierunku y. Tak więc, jeśli soczewka cylindryczna jest umieszczona na ogniskowej z przezroczystości filmu, wirtualny obraz w kierunku y będzie w nieskończoności. Niech obraz azymutu i obraz w kierunku zakresu (tj. w kierunkach x i y) pasują do siebie, ale w punkcie w nieskończoności. Można je cofnąć na skończoną odległość za pomocą soczewki sferycznej. Dzięki tej operacji rzeczywisty obraz współrzędnych terenu w azymucie i zasięgu zostanie zogniskowany na płaszczyźnie wyjściowej systemu. Jednak w praktyce pożądany obraz jest rejestrowany przez szczelinę w płaszczyźnie wyjściowej.

    Wywołaną błonę wtórną można obejrzeć i odczytać.

    ZAGRANICZNY PRZEGLĄD WOJSKOWY nr 2/2009, s. 52-57

    Kapitan M. VINOGRADOV,

    kandydat nauk technicznych

    Nowoczesny sprzęt radarowy zainstalowany na samolotach i statek kosmiczny, stanowią obecnie jeden z najintensywniej rozwijających się segmentów techniki radioelektronicznej. Tożsamość fizycznych zasad leżących u podstaw konstrukcji tych narzędzi umożliwia ich rozważenie w ramach jednego artykułu. Główne różnice między radarami kosmicznymi i lotniczymi tkwią w zasadach przetwarzania sygnału radarowego związanego z różnymi rozmiarami otworów, charakterystyce propagacji sygnałów radarowych w różnych warstwach atmosfery, konieczności uwzględnienia krzywizny powierzchni ziemi itd. Pomimo takich różnic, twórcy radarów z aperturą syntezy (RSA) dokładają wszelkich starań, aby osiągnąć maksymalne podobieństwo możliwości tych środków rozpoznawczych.»

    Obecnie radary lotnicze z syntezą apertur pozwalają na rozwiązywanie zadań specyficznego rozpoznania (strzelanie do powierzchni ziemi w różnych trybach), wybór celów mobilnych i stacjonarnych, analizę zmian sytuacji naziemnej, strzelanie do obiektów ukrytych w lasach, wykrywanie zakopanych i małych obiekty morskie.

    Głównym celem SAR jest szczegółowe badanie powierzchni Ziemi.

    Poprzez sztuczne zwiększenie przysłony antena powietrzna, której podstawową zasadą jest spójna akumulacja odbitych sygnałów radarowych w przedziale syntezy, możliwe jest uzyskanie wysokiej rozdzielczości pod kątem. W nowoczesnych systemach rozdzielczość może sięgać dziesiątek centymetrów podczas pracy w zakresie długości fal centymetrowych. Podobne wartości rozdzielczości zakresowej uzyskuje się poprzez zastosowanie modulacji wewnątrzimpulsowej, np. liniowej modulacji częstotliwości (chirp). Interwał syntezy apertury anteny jest wprost proporcjonalny do wysokości lotu nośnika SAR, co zapewnia, że ​​rozdzielczość pomiaru jest niezależna od wysokości.

    Ryż. 3. Widok obrazów na różnych poziomach szczegółowości

    Obecnie istnieją trzy główne tryby badania powierzchni Ziemi: przeglądowy, skaningowy i szczegółowy (ryc. 1). W trybie pomiarowym pomiar powierzchni Ziemi jest prowadzony w sposób ciągły w paśmie przechwytywania, przy czym tryby boczne i przednio-boczne są oddzielone (w zależności od orientacji głównego płata wzorca anteny). Akumulacja sygnału odbywa się przez czas równy obliczonym interwałom syntezy apertury anteny dla danych warunków lotu nośnika radaru. Tryb fotografowania skanującego różni się od trybu pomiarowego tym, że strzelanie odbywa się na całej szerokości pokosu, w pasach równych szerokości wychwytywanego pokosu. Ten tryb jest używany wyłącznie w radarach kosmicznych. Podczas fotografowania w trybie szczegółowym akumulacja sygnału odbywa się w odstępach zwiększonych w porównaniu z trybem przeglądu. Zwiększenie odstępu odbywa się dzięki ruchowi głównego płata wzorca anteny, zsynchronizowanemu z ruchem nośnika radaru, tak że napromieniowany obszar znajduje się stale w obszarze strzelania. Nowoczesne systemy pozwalają na uzyskanie obrazów powierzchni ziemi i znajdujących się na niej obiektów w rozdzielczościach rzędu 1 m dla trybów poglądowych i 0,3 m dla modów szczegółowych. Firma Sandia zapowiedziała stworzenie SAR dla taktycznych BSP, który ma możliwość strzelania z rozdzielczością 0,1 m w trybie szczegółowym. Na wynikowe charakterystyki SAR (w zakresie pomiarów powierzchni ziemi) istotny wpływ mają metody stosowane do cyfrowej obróbki odbieranego sygnału, których ważnym elementem są algorytmy adaptacyjne do korekcji zniekształceń trajektorii. To właśnie niemożność utrzymania prostoliniowej trajektorii nośnika przez długi czas nie pozwala na uzyskanie rozdzielczości porównywalnych z trybem szczegółowym w trybie pomiaru ciągłego, chociaż nie ma fizycznych ograniczeń rozdzielczości w trybie pomiaru.

    Tryb syntezy odwróconej apertury (IRSA) umożliwia syntezę apertury anteny nie w wyniku ruchu nośnika, ale w wyniku ruchu napromieniowanego celu. W tym przypadku możemy mówić nie o ruchu translacyjnym charakterystycznym dla obiektów naziemnych, ale o ruchu wahadłowym (w różnych płaszczyznach), charakterystycznym dla obiektów pływających kołyszących się na falach. Ta cecha określa główny cel IRSA - wykrywanie i identyfikacja obiektów morskich. Cechy nowoczesnych IRSA umożliwiają bezpieczną detekcję nawet małych obiektów, takich jak peryskopy podwodne. W tym trybie strzelać mogą wszystkie samoloty będące na uzbrojeniu Sił Zbrojnych USA i innych stanów, do których zadań należy patrolowanie strefy przybrzeżnej i akwenów wodnych. Obrazy uzyskane w wyniku strzelania są podobne w swojej charakterystyce do obrazów uzyskanych w wyniku strzelania z bezpośrednią (nieodwrotną) syntezą apertury.

    Tryb pomiarów interferometrycznych (Interferometric SAR - IFSAR) pozwala uzyskać trójwymiarowe obrazy powierzchni Ziemi. W której nowoczesne systemy mają możliwość prowadzenia strzelania jednopunktowego (czyli korzystania z jednej anteny) w celu uzyskania obrazów trójwymiarowych. Aby scharakteryzować te obrazy, oprócz zwykłej rozdzielczości, dodatkowy parametr, zwany dokładnością wysokości lub rozdzielczością wysokości. W zależności od wartości podany parametr zdefiniować kilka standardowych gradacji obrazów trójwymiarowych (DTED - Digital Terrain Elevation Data):

    DTEDO........................... 900m

    DTED1.............................. 90m

    DTED2.............................. 30m

    DTED3..............................10m

    DTED4........Sm

    DTED5.............................. 1 m

    Rodzaj obrazów obszaru zurbanizowanego (model) odpowiadający różnym poziomom szczegółowości przedstawiono na ryc. 3.

    Poziomy 3-5 są oficjalnie nazywane „dane z wysoka rozdzielczość» (HRTe - wysoki Rezolucja Teren Podniesienie dane). Wyznaczenie położenia obiektów naziemnych na obrazach poziomu 0-2 odbywa się w układzie współrzędnych WGS 84, wysokość mierzona jest względem znaku zerowego. Układ współrzędnych obrazów o wysokiej rozdzielczości nie jest obecnie ustandaryzowany i jest przedmiotem dyskusji. Na ryc. Na rysunku 4 przedstawiono fragmenty rzeczywistych obszarów powierzchni ziemi uzyskane w wyniku stereoobrazowania w różnych rozdzielczościach.

    W 2000 roku American Shuttle, w ramach projektu SRTM (Shuttle Radar Topography Mission), którego celem było pozyskanie informacji kartograficznych na dużą skalę, wykonał badanie interferometryczne części równikowej Ziemi w paśmie z 60 ° N. cii. do 56°S sh., po otrzymaniu na wyjściu trójwymiarowego modelu powierzchni Ziemi w formacie DTED2. Aby uzyskać szczegółowe dane 3D w USA, NGA HRTe? w ramach których dostępne będą obrazy poziomów 3-5.

    Oprócz zobrazowania radarowego otwartych obszarów powierzchni ziemi, radar lotniczy ma możliwość pozyskiwania obrazów scen ukrytych przed oczami obserwatora. W szczególności pozwala na wykrycie obiektów ukrytych w lasach, jak i tych znajdujących się pod ziemią.

    Radar penetrujący (GPR, Ground Penetrating Radar) to system teledetekcji, którego zasada działania opiera się na przetwarzaniu sygnałów odbitych od obszarów zdeformowanych lub różniących się składem, znajdujących się w jednorodnej (lub stosunkowo jednorodnej) objętości. System sondowania powierzchni ziemi umożliwia wykrywanie pustych przestrzeni, pęknięć, zakopanych obiektów znajdujących się na różnych głębokościach, identyfikowanie obszarów o różnej gęstości. W tym przypadku energia odbitego sygnału silnie zależy od właściwości absorbujących gruntu, wielkości i kształtu tarczy oraz stopnia niejednorodności obszarów granicznych. Obecnie GPR, oprócz swojej orientacji wojskowej, rozwinął się w technologię opłacalną komercyjnie.

    Sondowanie powierzchni ziemi następuje poprzez napromieniowanie impulsami o częstotliwości 10 MHz - 1,5 GHz. Antena napromieniowująca może znajdować się na powierzchni ziemi lub na pokładzie samolotu. Część energii promieniowania odbija się od zmian w podpowierzchniowej strukturze ziemi, podczas gdy duża część przenika dalej w głąb. Odbity sygnał jest odbierany, przetwarzany, a wyniki przetwarzania są wyświetlane na wyświetlaczu. Gdy antena się porusza, generowany jest ciągły obraz, który odzwierciedla stan podpowierzchniowych warstw gleby. Ponieważ w rzeczywistości odbicie następuje z powodu różnicy w przenikalności różnych substancji (lub różnych stanów jednej substancji), możliwe jest wykrycie przez sondowanie duża liczba naturalne i sztuczne ubytki w jednorodnej masie warstw podpowierzchniowych. Głębokość penetracji zależy od stanu gleby w miejscu napromieniania. Spadek amplitudy sygnału (absorpcja lub rozpraszanie) w dużej mierze zależy od wielu właściwości gleby, z których główną jest jej przewodność elektryczna. Gleby piaszczyste są więc optymalne do sondowania. Gleby gliniaste i bardzo wilgotne są do tego znacznie mniej odpowiednie. Dobre wyniki daje sondowanie suchych materiałów, takich jak granit, wapień, beton.

    Rozdzielczość sondowania można poprawić, zwiększając częstotliwość emitowanych fal. Jednak wzrost częstotliwości niekorzystnie wpływa na głębokość wnikania promieniowania. Tak więc sygnały o częstotliwości 500-900 MHz mogą przenikać na głębokość 1-3 m i zapewniać rozdzielczość do 10 cm, a z częstotliwością 80-300 MHz przenikają na głębokość 9-25 m , ale rozdzielczość to około 1,5m.

    główne wojsko cel radaru sondowanie podpowierzchniowe to wykrywanie założonych min. Jednocześnie radar zainstalowany na pokładzie samolotu, np. helikoptera, pozwala na bezpośrednie otwieranie map pól minowych. Na ryc. Rysunek 5 przedstawia obrazy z radaru zamontowanego na śmigłowcu pokazujące lokalizację min przeciwpiechotnych.

    Radar powietrzny przeznaczony do wykrywania i śledzenia obiektów ukrytych w lasach (FO- DŁUGOPIS - Listowie Przenikliwy), pozwala na wykrycie małych obiektów (ruchomych i nieruchomych), ukrytych za koronami drzew. Fotografowanie obiektów ukrytych w lasach odbywa się podobnie jak strzelanie konwencjonalne w dwóch trybach: podglądu i detalu. Średnio w trybie podglądu przepustowość przechwytywania wynosi 2 km, co pozwala na uzyskanie obrazów 2x7 km powierzchni Ziemi na wyjściu; w trybie szczegółowym badanie realizowane jest na odcinkach 3x3 km. Rozdzielczość fotografowania zależy od częstotliwości i waha się od 10 m przy częstotliwości 20-50 MHz do 1 m przy częstotliwości 200-500 MHz.

    Nowoczesne metody analizy obrazu pozwalają z dostatecznie dużym prawdopodobieństwem wykryć, a następnie zidentyfikować obiekty w otrzymanym obrazie radarowym. W takim przypadku detekcja jest możliwa na obrazach o rozdzielczości zarówno wysokiej (poniżej 1 m), jak i niskiej (do 10 m), natomiast rozpoznanie wymaga obrazów o wystarczająco wysokiej (ok. 0,5 m) rozdzielczości. I nawet w tym przypadku możemy mówić w większości tylko o rozpoznawaniu przez znaki pośrednie, ponieważ geometryczny kształt obiektu jest bardzo silnie zniekształcony z powodu obecności sygnału odbitego od okładki liścia, a także z powodu pojawienie się sygnałów o przesunięciu częstotliwości w wyniku efektu Dopplera, który powstaje w wyniku kołysania się liści na wietrze.

    Na ryc. 6 przedstawia obrazy (optyczne i radarowe) tego samego obszaru. Obiekty (słup samochodów), niewidoczne na obrazie optycznym, są wyraźnie widoczne na obrazie radarowym, jednak w celu identyfikacji tych obiektów, abstrahując od znaki zewnętrzne(poruszanie się po jezdni, odległość między samochodami itp.) jest niemożliwe, ponieważ przy tej rozdzielczości całkowicie nie ma informacji o strukturze geometrycznej obiektu.

    Szczegółowość uzyskanych obrazów radarowych pozwoliła na praktyczne zastosowanie szeregu cech, co z kolei sprawiło, że: możliwe rozwiązanie szereg ważnych problemów praktycznych. Jednym z tych zadań jest śledzenie zmian, które zaszły na określonym obszarze powierzchni ziemi w określonym czasie – detekcja koherentna. Czas trwania tego okresu jest zwykle określany przez częstotliwość patrolowania danego obszaru. Śledzenie zmian odbywa się na podstawie analizy połączonych współrzędnościowo obrazów danego obszaru, uzyskiwanych sekwencyjnie jeden po drugim. W takim przypadku możliwe są dwa poziomy szczegółowości analizy.

    Pierwszy poziom polega na wykrywaniu istotnych zmian i opiera się na analizie odczytów amplitudy obrazu, które niosą główne informacje wizualne. Najczęściej do tej grupy zaliczane są zmiany, które osoba może zobaczyć podczas jednoczesnego oglądania dwóch wygenerowanych obrazów radarowych. Drugi poziom opiera się na analizie zliczania faz i umożliwia wykrycie zmian niewidocznych dla ludzkiego oka. Należą do nich pojawienie się na drodze śladów (samochodu lub osoby), zmiana stanu okien, drzwi („otwarte – zamknięte”) itp.

    Ryż. Rys. 5. Mapy pól minowych w trzech wymiarach przy strzelaniu w różnych polaryzacjach: model (po prawej), przykładowy obraz rzeczywistego obszaru powierzchni ziemi ze złożoną sytuacją podpowierzchniową (po lewej), uzyskany za pomocą radaru zainstalowany na pokładzie helikoptera

    Kolejną interesującą funkcją SAR, również zapowiedzianą przez Sandię, jest nagrywanie wideo z radaru. W tym trybie dyskretne tworzenie apertury anteny z sekcji na sekcję, charakterystyczne dla trybu ciągłego pomiaru, zostaje zastąpione równoległym tworzeniem wielokanałowym. Oznacza to, że w każdym momencie nie jedna, ale kilka (liczba zależy od rozwiązywanych zadań) apertur jest syntetyzowanych. Rodzajem analogu liczby utworzonych otworów jest szybkość klatek w konwencjonalnym nagrywaniu wideo. Funkcja ta pozwala na realizację selekcji celów ruchomych na podstawie analizy otrzymanych obrazów radarowych, z wykorzystaniem zasad detekcji koherentnej, co jest zasadniczo alternatywą dla standardowych radarów, które wybierają cele ruchome na podstawie analizy częstotliwości Dopplera w odebranych sygnał.

    Skuteczność wdrożenia takich selektorów ruchomych celów jest bardzo wątpliwa ze względu na znaczne koszty sprzętu i oprogramowania, dlatego takie tryby najprawdopodobniej pozostaną tylko eleganckim sposobem rozwiązania problemu wyboru, pomimo możliwości, które otwierają się na wybór cele poruszające się z bardzo małą prędkością (poniżej 3 km/h) h, co jest niedostępne dla SDC Dopplera). Bezpośrednie nagrywanie wideo w zasięgu radaru również nie znalazło obecnie zastosowania, ponownie ze względu na wysokie wymagania dotyczące prędkości, dlatego nie ma istniejących modeli sprzętu wojskowego, które realizują ten tryb w praktyce.

    Logiczną kontynuacją doskonalenia techniki pomiarów powierzchni ziemi w zasięgu radarowym jest rozwój podsystemów do analizy otrzymywanych informacji. W szczególności duże znaczenie ma rozwój systemów automatycznej analizy zobrazowań radarowych, które umożliwiają wykrywanie, rozróżnianie i rozpoznawanie obiektów naziemnych, które wpadły w obszar badań. Złożoność stworzenia podobne systemy wiąże się ze spójnym charakterem obrazów radarowych, zjawiskami interferencji i dyfrakcji, które prowadzą do pojawienia się artefaktów – sztucznego olśnienia, podobnego do tych, które pojawiają się w przypadku napromieniowania celu o dużej efektywnej powierzchni rozpraszania. Ponadto jakość obrazu radarowego jest nieco niższa niż jakość podobnego (pod względem rozdzielczości) obrazu optycznego. Wszystko to prowadzi do tego, że obecnie nie ma skutecznych implementacji algorytmów rozpoznawania obiektów na obrazach radarowych, ale ilość prac prowadzonych w tym zakresie, pewne sukcesy osiągnięte w ostatnim czasie sugerują, że w niedalekiej przyszłości będzie można rozmawiać o inteligentnych bezzałogowych pojazdach rozpoznawczych, które mają zdolność oceny sytuacji naziemnej na podstawie analizy informacji otrzymywanych przez własny lotniczy sprzęt rozpoznania radarowego.

    Kolejnym kierunkiem rozwoju jest integracja, czyli skoordynowane połączenie z późniejszym wspólnym przetwarzaniem informacji z kilku źródeł. Mogą to być radary strzelające w różnych trybach lub radary i inny sprzęt rozpoznawczy (optyczny, podczerwony, multispektralny itp.).

    Dzięki temu nowoczesne radary z syntezą apertury antenowej pozwalają na rozwiązywanie szerokiego zakresu zadań związanych z prowadzeniem badań radarowych powierzchni Ziemi, niezależnie od pory dnia i warunków pogodowych, co czyni je ważnym środkiem pozyskiwania informacji o stanie Ziemi. powierzchni i znajdujących się na niej obiektów.

    Aby komentować, musisz zarejestrować się na stronie.

    Rozdzielczość kątowa - najważniejsza cecha dowolny system teleskopowy. Optyka twierdzi, że rozdzielczość ta jest jednoznacznie powiązana z długością fali, przy której dokonywana jest obserwacja, oraz ze średnicą otworu wejściowego teleskopu. Przy dużych średnicach, jak wiadomo, duży problem. Jest mało prawdopodobne, że kiedykolwiek zostanie zbudowany teleskop większy niż ten.
    Jednym ze sposobów znacznego zwiększenia rozdzielczości jest metoda syntezy dużych i bardzo dużych apertur stosowana w radioastronomii i radarze. W zakresie milimetrowym największą aperturę - 14 km - ma tworzyć 66 anten projektu ALMA w Chile.

    Przeniesienie metod syntezy apertury do obszaru optycznego, w którym długości fal są o kilka rzędów wielkości mniejsze niż w przypadku radarów, wiąże się z rozwojem technik heterodynowania laserowego.

    1. Fizyczne podstawy tworzenia obrazu.

    Nie byłoby błędem stwierdzenie, że obraz w dowolnym urządzeniu optycznym powstaje w wyniku dyfrakcji światła w otworze wejściowym i nic więcej. Spójrzmy na obraz obiektu ze środka przesłony. Rozkład kątowy jasności obrazu nieskończenie odległego punktowego źródła światła (jak i każdego innego) będzie taki sam dla obiektywu i camera obscura o jednakowej średnicy. Jedyna różnica między obiektywem a otworkiem polega na tym, że obiektyw przenosi obraz utworzony przez jego aperturę z nieskończoności na płaszczyznę ogniskowania. Lub, ujmując to inaczej, wytwarza transformację fazową czoła fali płaszczyzny wejściowej w zbieżną sferycznie. W przypadku odległego źródła punktowego i okrągłej apertury obraz jest dobrze znanym obrazem Airy'ego z pierścieniami.


    Wielkość kątową tarczy Airy'ego można w zasadzie zmniejszyć i niejako zwiększyć rozdzielczość (zgodnie z kryterium Rayleigha), jeśli apertura jest aperturowana w specjalny sposób. Istnieje taki rozkład transmisji wzdłuż promienia, przy którym dysk centralny może teoretycznie być dowolnie mały. Jednak w tym przypadku energia świetlna jest rozprowadzana na pierścieniach i kontrast złożonego obrazu spada do zera.

    Z matematycznego punktu widzenia procedura tworzenia obrazu dyfrakcyjnego sprowadza się do dwuwymiarowej transformacji Fouriera wejściowego pola światła (w przybliżeniu skalarnym pole to jest opisane złożoną funkcją współrzędnych i czasu). Każdy obraz zarejestrowany przez oko, ekran, matrycę lub inny odbiornik o kwadratowym natężeniu jest niczym innym jak dwuwymiarowym widmem amplitudowym pola światła o ograniczonej aperturze emitowanego przez obiekt. Łatwo jest uzyskać ten sam obraz Airy'ego, jeśli weźmiesz kwadratową macierz identycznych liczb zespolonych (symulując płaskie czoło fali z odległego punktu), „wytniesz” z niej kołową „aperturę”, wyzerujesz krawędzie i wykonasz Transformata Fouriera całej macierzy.

    Krótko mówiąc, jeśli w jakiś sposób zapiszesz pole (zsyntetyzujesz aperturę) na wystarczająco dużym obszarze bez utraty informacji o amplitudzie i fazie, to aby uzyskać obraz, możesz obejść się bez gigantycznych luster nowoczesnych teleskopów i matryc megapikselowych, po prostu obliczając Transformata Fouriera wynikowej tablicy danych.

    2. Lokalizacja satelitów i super rozdzielczość.

    Będziemy obserwować ustabilizowany obiekt poruszający się w poprzek linii wzroku, oświetlony ciągłym spójnym źródłem laserowym. Odbite od niej promieniowanie rejestrowane jest przez heterodynowy fotodetektor o małej aperturze. Zapisanie sygnału w czasie t jest równoznaczne z realizacją jednowymiarowej szczeliny o długości vt, gdzie v jest prędkością styczną obiektu. Łatwo oszacować potencjalną rozdzielczość takiej metody. Spójrzmy na satelitę bliskiego Ziemi w górnej elongacji, lecącego na wysokości 500 km z prędkością 8 km/s. Za 0,1 sekundy rejestracji sygnału otrzymamy „jednowymiarowy teleskop” o wielkości 800 metrów, teoretycznie zdolny do oglądania w widzialnym zakresie szczegółów satelity o wielkości ułamka milimetra. Nieźle jak na taką odległość.

    Oczywiście odbity sygnał na takich odległościach jest tłumiony o wiele rzędów wielkości. Jednak odbiór heterodynowy (spójne mieszanie z promieniowaniem odniesienia) w dużej mierze kompensuje to tłumienie. W końcu, jak wiadomo, wyjściowy fotoprąd odbiornika w tym przypadku jest proporcjonalny do iloczynu amplitud promieniowania odniesienia i sygnału przychodzącego. Zwiększymy udział promieniowania referencyjnego i tym samym wzmocnimy cały sygnał.

    Możesz spojrzeć z drugiej strony. Widmo zarejestrowanego sygnału z fotodetektora jest zbiorem składowych Dopplera, z których każda jest sumą wkładów ze wszystkich punktów obiektu o tej samej prędkości promieniowej. Jednowymiarowy rozkład punktów odbicia na obiekcie określa rozkład częstotliwości linii widmowych. Wynikowe widmo jest zasadniczo jednowymiarowym „obrazem” obiektu wzdłuż współrzędnej „przesunięcia Dopplera”. Dwa punkty naszego satelity, znajdujące się w odległości 1 mm od siebie w płaszczyźnie prostopadłej do linii widzenia, mają różnicę prędkości radialnych rzędu 0,01-0,02 mm/s. (Stosunek tej różnicy do prędkości satelity jest równy stosunkowi odległości między punktami do odległości do satelity). Różnica między częstotliwościami Dopplera tych punktów dla widzialnej długości fali 0,5 mikrona wyniesie (f=2V/λ) około 100 Hz. Widmo (obraz Dopplera) całego mikrosatelity, powiedzmy o wielkości 10 cm, będzie pasować do zakresu 10 kHz. Całkiem mierzalne.

    Możesz to również zobaczyć od strony trzeciej. Ta technologia to nic innego jak zapis hologramowy, czyli wzór interferencji, który występuje, gdy pola odniesienia i sygnału są zmieszane. Zawiera informacje o amplitudzie i fazie wystarczające do odtworzenia pełnego obrazu obiektu.

    W ten sposób oświetlając satelitę laserem, rejestrując odbity sygnał i mieszając go z wiązką odniesienia z tego samego lasera, otrzymujemy na fotodetektorze fotoprąd, którego zależność czasowa odzwierciedla strukturę pola świetlnego wzdłuż „jedynki”. -wymiarowa apertura”, której długość, jak już wspomniano, może być wystarczająco duża.

    Apertura 2D jest oczywiście znacznie lepsza i bardziej pouczająca. Ułóżmy równomiernie kilka fotodetektorów w poprzek ruchu satelity i tym samym zapiszmy odbite pole na obszarze vt * L, gdzie L jest odległością pomiędzy skrajnymi fotodetektorami, która w zasadzie niczym nie jest ograniczona. Na przykład te same 800 metrów. W ten sposób syntetyzujemy aperturę „dwuwymiarowego teleskopu” o rozmiarze 800 * 800 metrów. Rozdzielczość wzdłuż współrzędnej poprzecznej (L) będzie zależeć od liczby fotodetektorów i odległości między nimi, wzdłuż drugiej współrzędnej „czasowej” (vt) - od szerokości pasma promieniowania laserowego i częstotliwości digitalizacji sygnału z fotodetektor.

    Tak więc mamy zarejestrowane pole światła przez bardzo duży teren i możemy z nim robić, co tylko chcemy. Na przykład, aby uzyskać dwuwymiarowy obraz bardzo małych obiektów z bardzo dużej odległości bez żadnych teleskopów. Lub możesz przywrócić trójwymiarową strukturę obiektu poprzez cyfrowe ustawienie ostrości w zakresie.

    Oczywiście, rzeczywista trójwymiarowa konfiguracja punktów odbicia na obiekcie nie zawsze pokrywa się z ich rozkładem prędkości radialnej „Dopplera”. Będzie mecz, jeśli te punkty będą na tej samej płaszczyźnie. Ale nawet w ogólnym przypadku z „obrazu Dopplera” można wydobyć wiele przydatnych informacji.

    3. Co wydarzyło się wcześniej.

    Amerykańska DARPA jakiś czas temu ufundowała program, którego istotą było wdrożenie takiej technologii. Miał on lokalizować obiekty na ziemi o ultrawysokiej rozdzielczości z lecącego samolotu (np. czołgów), uzyskano pewne zachęcające dane. Jednak program ten został albo zamknięty, albo sklasyfikowany w 2007 roku i od tego czasu nic o nim nie słyszano. Coś zrobiono też w Rosji. Tutaj możesz zobaczyć obraz uzyskany przy długości fali 10,6 mikrona.

    4. Trudności w realizacji technicznej przy długości fali 1,5 mikrona.

    Po dojrzałym zastanowieniu postanowiłem nic tu nie pisać. Zbyt dużo problemów.

    5. Kilka wstępnych wyników.

    Do tej pory z trudem udało się "zbadać" z odległości 300 metrów szczegóły płaskiego, odbijającego światło przedmiotu metalowego o wymiarach 6 na 3 mm. To był kawałek płytka drukowana, oto zdjęcie:


    Obiekt obracał się wokół osi prostopadłej do linii wzroku, rejestracja odbitego sygnału nastąpiła mniej więcej w momencie maksymalnego odbicia (olśnienia). Plamka z lasera oświetlającego obiekt miała rozmiar około 2 cm, zastosowano tylko 4 fotodetektory oddalone o 0,5 metra. Wielkość zsyntetyzowanej apertury szacowana jest na 0,5 m na 10 m.
    Właściwie na wszelki wypadek same zarejestrowane sygnały (po lewej) i ich widma (po prawej) w jednostkach względnych:


    Z poprzedniego zdjęcia obiektu, Photoshop wybiera tylko interesujące nas oświetlone i odbijające światło obszary, które chcemy zobaczyć:


    Obraz zrekonstruowany za pomocą 4-sygnałowej transformacji Fouriera 2D i przeskalowany dla porównania:


    Ten obraz w rzeczywistości składa się tylko z 4 linii (i około 300 kolumn), rozdzielczość pionowa obrazu wynosi odpowiednio około 0,5 mm, ale ciemny róg i oba okrągłe otwory wydają się być widoczne. Rozdzielczość pozioma wynosi 0,2 mm, jest to szerokość ścieżek przewodzących na płytce, wszystkie pięć kawałków jest widocznych. (Zwykły teleskop musiałby mieć 2 metry średnicy, aby można było je zobaczyć w bliskiej podczerwieni).

    Tak naprawdę uzyskana rozdzielczość wciąż jest daleka od teoretycznej granicy, więc fajnie byłoby przywołać tę technologię. Diabeł, jak wiecie, tkwi w szczegółach, a szczegółów jest tutaj bardzo dużo.

    Dziękuję za uwagę.

    Synteza apertury antenowej to jeden z najbardziej obiecujących kierunków rozwoju radaru, który pojawił się pod koniec lat 50. i od razu przyciągnął szeroką uwagę. Główną zaletą tego kierunku jest wielokrotne (1000 lub więcej) zwiększenie rozdzielczości kątowej radaru. Daje to możliwość radiowego widzenia obiektów radarowych i wykrywania małych obiektów, zwiększając dokładność wyznaczania celów i odporność na zakłócenia radarowe. W pierwszym etapie rozwoju tego kierunku główne sukcesy osiągnięto w znacznym wzroście skuteczności rozpoznania lotniczego i kosmicznego. Następnie metody syntezy apertury zaczęto stosować w systemach rozpoznania i uderzeń, wielofunkcyjnych radarach lotniczych do wykrywania małych i grupowych celów oraz naprowadzania na nie broni kierowanej, w planowanych radarach obserwacyjnych, elektronicznych systemach wywiadowczych i nawigacyjnych.

    Były dwa etapy rozwoju teorii i praktyki, od radaru po radiowizję.

    W pierwszym etapie, dzięki zastosowaniu szerokopasmowych sygnałów sondujących (100 MHz lub więcej), udało się uzyskać wysoką rozdzielczość opóźnienia sygnału, a co za tym idzie dużą rozdzielczość zasięgu (kilka metrów lub więcej). Rozdzielczość zakresu jest określona przez wyrażenie

    Szerokość widma sygnału sondującego.

    - długość fali radarowej; c 1 - wielkość anteny,

    Tworzenie DN rzeczywistej anteny. Aby wyjaśnić zasadę syntezy apertury, najpierw rozważymy tworzenie wzoru kierunkowości rzeczywistej anteny, który określa rozdzielczość we współrzędnej kątowej konwencjonalnego radaru.

    Niech będzie apertura anteny liniowej o rozmiarze d, na którą płaska fala elektromagnetyczna pada pod kątem 0 (ryc. 2.1), tj. antena odbiera.

    Przez aperturę (otwarcie) rozumie się tę część anteny, która uczestniczy w promieniowaniu lub odbiorze fala elektromagnetyczna. Front fali jest powierzchnią o równych fazach. W tym przypadku jest to samolot. Faza fali elektromagnetycznej wzdłuż szczeliny (oś X) jest określona przez opóźnienie czoła fali względem środka szczeliny:

    gdzie r(x) jest odległością od czoła fali do punktu x na aperturze.

    Charakterystyka promieniowania powstaje w wyniku sumowania w fazie fali elektromagnetycznej padającej na aperturę:

    Natężenie fali elektromagnetycznej.

    Znormalizowana charakterystyka promieniowania w tym przypadku jest równa

    na poziomie 0,7 czyli 0,5 w przeliczeniu na moc:

    Gdy jedna antena pracuje, nie tylko do odbioru, ale także do transmisji, RP jest definiowany jako

    i równoważna szerokość wzoru do nadawania i odbioru

    W bardziej ogólnym przypadku apertura anteny ustala głośność analizowanego sygnału czasoprzestrzennego, czyli zależność natężenia, fazy i polaryzacji pola elektromagnetycznego od współrzędnych przestrzennych i czasu. Tak więc apertura charakteryzuje się wymiarami geometrycznymi analizowanej objętości fali elektromagnetycznej, czasem analizy, parametrami polaryzacji i częstotliwości. W tym przypadku rozdzielczość we współrzędnej kątowej jest określona przez zmianę sygnału czasoprzestrzennego w aperturze anteny w zależności od położenia kątowego źródła fali elektromagnetycznej.

    Dobrze znanymi przykładami takiego sygnału czasoprzestrzennego są wolumetryczne soczewki holograficzne i apertury syntetyczne.

    Synteza apertury. Główna różnica między syntetycznymi (sztucznymi) a konwencjonalnymi (rzeczywistymi) aperturami antenowymi polega na tym, że syntetyzowane apertury (SA) są tworzone sekwencyjnie w czasie. W każdym ten moment odbiór fali elektromagnetycznej jest realizowany przez aperturę rzeczywistą, a zsyntetyzowana apertura jest wynikiem kolejnego odbioru fali elektromagnetycznej przez aperturę rzeczywistą w czasie w innym jej położeniu względem źródła fali elektromagnetycznej. Rozważmy proces syntezy na przykładzie powstawania prostoliniowej apertury SAR (rys. 2.2).

    Jego wzór odbioru jest określany w taki sam sposób, jak prawdziwy wzór apertury. Przesunięcie fazowe fali między dwoma rzeczywistymi pozycjami anteny na trajektorii

    dwukrotnie większa od apertury konwencjonalnej, co wynika z podwójnego przejścia odległości r przez falę elektromagnetyczną (podczas transmisji i odbioru). W rezultacie szerokość wiązki zsyntetyzowanej apertury SAR tego typu jest mniejsza niż rzeczywistej apertury o tym samym rozmiarze:

    Głównym wynikiem syntezy apertury jest to, że rozmiar apertury zwiększył się N razy w porównaniu z rozmiarem apertury rzeczywistej.

    zsyntezowana apertura powstała w wyniku

    ruch prawdziwej anteny. W tym przypadku efekt uzyskuje się poprzez zwiększenie objętości analizowanego pola w przestrzeni i czasie.

    Główne właściwości zsyntetyzowanej apertury. Rozważmy główne właściwości zsyntetyzowanej apertury.

    do systemów powietrznych i kosmicznych. Typowe wartości dla względnych rozmiarów apertury różne systemy następujące:

    Dzięki duży rozmiar Apertura SAR, możliwe jest uzyskanie wysokiej rozdzielczości liniowej we współrzędnej kątowej przy dużych odległościach:

    Zsyntetyzowana apertura powstaje w wyniku odbierania i przetwarzania sygnałów odbitych od celu, tj. zsyntetyzowana apertura określa RP tylko do odbioru. RP dla transmisji podczas syntezy apertury jest określane przez RP rzeczywistej anteny. Właściwości polaryzacji i częstotliwości SA są również określane przez rzeczywistą antenę.

    Podczas syntezy apertury tylko jeden element anteny (prawdziwa antena) może działać (promieniować, odbierać) w tym samym czasie. W tym przypadku nie ma problemów elektrodynamicznych w tworzeniu całej apertury, ponieważ nie ma interakcji elementów w polu elektromagnetycznym. Zadanie syntetyzowania apertury i kształtowania charakterystyki promieniowania sprowadza się właściwie do opracowania algorytmów i ich wykonania przez procesor przetwarzania sygnału trajektorii. Jak dla prawdziwej anteny, RP zsyntetyzowanej apertury to zależność sygnału na wyjściu procesora od współrzędnej kątowej punktowego źródła promieniowania lub promieniowania (w przypadku aktywnego SAR).

    RP może być jednowiązkowy, wielowiązkowy, monopulsowy, adaptacyjny itp.

    Obiekty obserwacyjne SAR w większości przypadków znajdują się w strefie pośredniej (strefa Fresnela) apertury, a nie w strefie dalekiej, jak w większości rzeczywistych anten. Przy odbiorze w strefie dalekiej czoło fali w otworze jest uważane za płaskie. Wraz ze wzrostem wielkości apertury (lub zmniejszeniem odległości do obiektu) nie można już lekceważyć kulistości czoła fali. Warunek pola dalekiego jest zwykle zapisywany jako

    W przypadku prawdziwej anteny radaru lotniczego granica strefy dalekiej wynosi około 100 m, a po zsyntetyzowaniu jest obliczana w tysiącach kilometrów. Dlatego w SAR podczas przetwarzania sygnału trajektorii konieczne jest uwzględnienie sferyczności czoła fazy fali elektromagnetycznej. W najprostszym SAR, gdy rozmiar SA jest mały, krzywizna czoła fali elektromagnetycznej nie jest brana pod uwagę. Ten tryb nazywa się zwężaniem wiązki Dopplera (DOL), a wzrost rozdzielczości jest niewielki (10...30) razy.

    Uwzględnienie sferyczności czoła fali podczas przetwarzania sygnału trajektorii nazywa się odpowiednio ogniskowaniem, a apertura nazywana jest aperturą skupioną. Na ryc. 2.3 przedstawia rozkład pola nieostrych (DOL) (a) i skupionych (b) apertur w środkowej i dalekiej strefie DN.

    W odległości ogniskowania, tj. tak samo jak konwencjonalna antena dalekiego pola. Można powiedzieć, że proces ogniskowania przenosi kierunkowe właściwości apertury ze strefy dalekiej do strefy pośredniej.

    Ponieważ kulistość czoła fali zależy od odległości od obiektu, dla różnych zakresów wymagane jest inne prawo ogniskowania, tj. aby zapewnić ogniskowanie SA, potrzebny jest wielokanałowy algorytm zakresu do przetwarzania sygnału trajektorii.

    Dzięki ogniskowaniu SA zapewnia rozdzielczość w strefie pośredniej nie tylko w kącie, ale także w zakresie, nawet przy zmodulowanym sygnale. Jednak zwykle jest on niewielki, a rozdzielczość zasięgu zapewnia modulacja sygnału sondującego.

    Głównymi źródłami błędów - niespójności sygnału trajektorii - są niestabilności fazowe modułów nadawczo-odbiorczych, niestabilności trajektorii nośnika SAR oraz niestabilność ośrodka propagacji fali elektromagnetycznej. Zatem dopuszczalny błąd w poznaniu trajektorii anteny wynosi kilka milimetrów (w centymetrowym zakresie fali elektromagnetycznej). Wymaga to specjalnych środków, aby zrekompensować te błędy za pomocą systemów mikronawigacji i algorytmów autofokusa.

    Charakterystyki energetyczne SA (stosunek sygnału do szumu wewnętrznego) są określone przez wzmocnienie rzeczywistej anteny i czas syntezy, tj. czas spójnej akumulacji sygnałów. Odporność na zakłócenia od zewnętrznych aktywnych i pasywnych zakłóceń jest określana zarówno przez RP rzeczywistej anteny, jak i kierunkowe właściwości SA, tj. przestrzenny wybór hałasu.

    Rzeczywiście, w każdej pozycji anteny podczas syntezy apertury moc odbieranego sygnału jest określona przez moc promieniowania i zysk anteny, a sumowanie w fazie tych sygnałów podczas syntezy jest równoważne akumulacji energii sygnału podczas syntezy na stałym poziomie widmowa moc szumu wewnętrznego. W stosunku do zewnętrznych źródeł szumów dodatkowo możliwy jest dobór kątowy, którego skuteczność zależy od RP rzeczywistej i syntetyzowanej apertury.

    Względny ruch anteny i obiektu wymaganego do utworzenia SA można wykonać różnymi metodami. Powstawanie SA w wyniku ruchu anteny z obiektem nieruchomym nazywamy syntezą bezpośrednią, a powstawanie SA podczas ruchu obiektu i anteny nieruchomej nazywamy syntezą odwrotną. W takim przypadku możliwe jest powstanie SA w wyniku obrotu obiektu, co jest równoznaczne z ruchem anteny wokół obiektu.

    Zastosowanie w procesie syntezy nie tylko jednej, ale wielu anten jednocześnie umożliwia syntezę nie tylko liniowych, ale również płaskich i wolumetrycznych SA.

    co jest wyjątkowo trudnym zadaniem dla komputerów pokładowych. W warunkach naziemnych problem ten z powodzeniem rozwiązuje procesor optyczny, który wykorzystuje rejestrację sygnału trajektorii na kliszy fotograficznej oraz przetwarzanie sygnału analogowego za pomocą spójnego układu optycznego.

    Synteza apertury wymaga pewnej ilości czasu, co prowadzi do opóźnienia informacji w SAR. Minimalne opóźnienie informacji jest określone przez czas syntezy, tj. czas powstania SA. Zwykle jest to dziesiąte - jednostki sekund. Maksymalne opóźnienie jest wyznaczane z uwzględnieniem czasu wykonania algorytmu syntezy przez odpowiedni procesor do przetwarzania sygnałów trajektorii. Największe opóźnienie mają procesory optyczne naziemne. Składa się z czasu lotu statku powietrznego w rejon działania SAR, czasu powrotu do bazy, czasu dostarczenia kliszy fotograficznej z zapisem sygnałów trajektorii do laboratorium, czasu obróbki fotochemicznej kliszy, obróbka optyczna i zapis obrazu na wtórnej błonie fotograficznej, a wreszcie obróbka fotochemiczna na błonie wtórnej. Czas ten może sięgać kilku godzin.

    Kapitan M. Winogradow,
    kandydat nauk technicznych

    Nowoczesne urządzenia radarowe zainstalowane na samolotach i statkach kosmicznych stanowią obecnie jeden z najintensywniej rozwijających się segmentów technologii elektronicznej. Tożsamość fizycznych zasad leżących u podstaw konstrukcji tych narzędzi umożliwia ich rozważenie w ramach jednego artykułu. Główne różnice między radarami kosmicznymi i lotniczymi tkwią w zasadach przetwarzania sygnału radarowego związanego z różnymi rozmiarami otworów, charakterystyce propagacji sygnałów radarowych w różnych warstwach atmosfery, konieczności uwzględnienia krzywizny powierzchni ziemi itd. Pomimo takich różnic, twórcy radarów z aperturą syntezy (RSA) dokładają wszelkich starań, aby osiągnąć maksymalne podobieństwo możliwości tych środków rozpoznawczych.

    Obecnie radary lotnicze z syntezą apertur pozwalają na rozwiązywanie zadań specyficznego rozpoznania (strzelanie do powierzchni ziemi w różnych trybach), wybór celów mobilnych i stacjonarnych, analizę zmian sytuacji naziemnej, strzelanie do obiektów ukrytych w lasach, wykrywanie zakopanych i małych obiekty morskie.

    Głównym celem SAR jest szczegółowe badanie powierzchni Ziemi.

    Ryż. Rys. 1. Tryby fotografowania współczesnego SAR (a - szczegółowy, b - przegląd, c - skanowanie) Ryż. 2. Przykłady rzeczywistych obrazów radarowych o rozdzielczości 0,3 m (góra) i 0,1 m (dół)

    Ryż. 3. Widok obrazów na różnych poziomach szczegółowości
    Ryż. Rys. 4. Przykłady fragmentów rzeczywistych obszarów powierzchni ziemi uzyskanych na poziomach szczegółowości DTED2 (po lewej) i DTED4 (po prawej)

    Dzięki sztucznemu zwiększaniu apertury anteny pokładowej, której podstawową zasadą jest spójna akumulacja odbitych sygnałów radarowych w przedziale syntezy, możliwe jest uzyskanie wysokiej rozdzielczości kątowej. W nowoczesnych systemach rozdzielczość może sięgać dziesiątek centymetrów podczas pracy w zakresie długości fal centymetrowych. Podobne wartości rozdzielczości zakresowej uzyskuje się poprzez zastosowanie modulacji wewnątrzimpulsowej, np. liniowej modulacji częstotliwości (chirp). Interwał syntezy apertury anteny jest wprost proporcjonalny do wysokości lotu nośnika SAR, co zapewnia, że ​​rozdzielczość pomiaru jest niezależna od wysokości.

    Obecnie istnieją trzy główne tryby badania powierzchni Ziemi: przeglądowy, skaningowy i szczegółowy (ryc. 1). W trybie pomiarowym pomiar powierzchni Ziemi jest prowadzony w sposób ciągły w paśmie przechwytywania, przy czym tryby boczne i przednio-boczne są oddzielone (w zależności od orientacji głównego płata wzorca anteny). Akumulacja sygnału odbywa się przez czas równy obliczonym interwałom syntezy apertury anteny dla danych warunków lotu nośnika radaru. Tryb fotografowania skanującego różni się od trybu pomiarowego tym, że strzelanie odbywa się na całej szerokości pokosu, w pasach równych szerokości wychwytywanego pokosu. Ten tryb jest używany wyłącznie w radarach kosmicznych. Podczas fotografowania w trybie szczegółowym akumulacja sygnału odbywa się w odstępach zwiększonych w porównaniu z trybem przeglądu. Zwiększenie odstępu odbywa się dzięki ruchowi głównego płata wzorca anteny, zsynchronizowanemu z ruchem nośnika radaru, tak że napromieniowany obszar znajduje się stale w obszarze strzelania. Nowoczesne systemy pozwalają na uzyskanie obrazów powierzchni ziemi i znajdujących się na niej obiektów w rozdzielczościach rzędu 1 m dla trybów poglądowych i 0,3 m dla modów szczegółowych. Firma Sandia zapowiedziała stworzenie SAR dla taktycznych BSP, który ma możliwość strzelania z rozdzielczością 0,1 m w trybie szczegółowym. Na wynikowe charakterystyki SAR (w zakresie pomiarów powierzchni ziemi) istotny wpływ mają metody stosowane do cyfrowej obróbki odbieranego sygnału, których ważnym elementem są algorytmy adaptacyjne do korekcji zniekształceń trajektorii. To właśnie niemożność utrzymania prostoliniowej trajektorii nośnika przez długi czas nie pozwala na uzyskanie rozdzielczości porównywalnych z trybem szczegółowym w trybie pomiaru ciągłego, chociaż nie ma fizycznych ograniczeń rozdzielczości w trybie pomiaru.

    Tryb syntezy odwróconej apertury (IRSA) umożliwia syntezę apertury anteny nie w wyniku ruchu nośnika, ale w wyniku ruchu napromieniowanego celu. W tym przypadku możemy mówić nie o ruchu translacyjnym charakterystycznym dla obiektów naziemnych, ale o ruchu wahadłowym (w różnych płaszczyznach), charakterystycznym dla obiektów pływających kołyszących się na falach. Ta cecha określa główny cel IRSA - wykrywanie i identyfikacja obiektów morskich. Cechy nowoczesnych IRSA umożliwiają bezpieczną detekcję nawet małych obiektów, takich jak peryskopy podwodne. W tym trybie strzelać mogą wszystkie samoloty będące na uzbrojeniu Sił Zbrojnych USA i innych stanów, do których zadań należy patrolowanie strefy przybrzeżnej i akwenów wodnych. Obrazy uzyskane w wyniku strzelania są podobne w swojej charakterystyce do obrazów uzyskanych w wyniku strzelania z bezpośrednią (nieodwrotną) syntezą apertury.

    Tryb pomiarów interferometrycznych (Interferometric SAR - IFSAR) pozwala uzyskać trójwymiarowe obrazy powierzchni Ziemi. Jednocześnie nowoczesne systemy mają możliwość prowadzenia strzelania jednopunktowego (czyli użycia jednej anteny) w celu uzyskania obrazów trójwymiarowych. Aby scharakteryzować dane obrazu, oprócz zwykłej rozdzielczości wprowadzany jest dodatkowy parametr, zwany dokładnością wysokości lub rozdzielczością wysokości. W zależności od wartości tego parametru definiowanych jest kilka standardowych gradacji obrazów trójwymiarowych (DTED - Digital Terrain Elevation Data):
    DTEDO.............................. 900 m
    DTED1.............................. 90m
    DTED2.............................. 30m
    DTED3..............................10m
    DTED4........Sm
    DTED5..............................1m

    Rodzaj obrazów obszaru zurbanizowanego (model) odpowiadający różnym poziomom szczegółowości przedstawiono na ryc. 3.

    Poziomy 3-5 są oficjalnie znane jako dane HRTe-High Resolution Terrain Elevation. Wyznaczenie położenia obiektów naziemnych na obrazach poziomu 0-2 odbywa się w układzie współrzędnych WGS 84, wysokość mierzona jest względem znaku zerowego. Układ współrzędnych obrazów o wysokiej rozdzielczości nie jest obecnie ustandaryzowany i jest przedmiotem dyskusji. Na ryc. Na rysunku 4 przedstawiono fragmenty rzeczywistych obszarów powierzchni ziemi uzyskane w wyniku stereoobrazowania w różnych rozdzielczościach.

    W 2000 roku American Shuttle, w ramach projektu SRTM (Shuttle Radar Topography Mission), którego celem było pozyskanie informacji kartograficznych na dużą skalę, wykonał badanie interferometryczne części równikowej Ziemi w paśmie z 60 ° N. cii. do 56°S sh., po otrzymaniu na wyjściu trójwymiarowego modelu powierzchni Ziemi w formacie DTED2. Aby uzyskać szczegółowe dane 3D w USA, NGA HRTe? w ramach których dostępne będą obrazy poziomów 3-5.
    Oprócz zobrazowania radarowego otwartych obszarów powierzchni ziemi, radar lotniczy ma możliwość pozyskiwania obrazów scen ukrytych przed oczami obserwatora. W szczególności pozwala na wykrycie obiektów ukrytych w lasach, jak i tych znajdujących się pod ziemią.

    Radar penetrujący (GPR, Ground Penetrating Radar) to system teledetekcji, którego zasada działania opiera się na przetwarzaniu sygnałów odbitych od obszarów zdeformowanych lub różniących się składem, znajdujących się w jednorodnej (lub stosunkowo jednorodnej) objętości. System sondowania powierzchni ziemi umożliwia wykrywanie pustych przestrzeni, pęknięć, zakopanych obiektów znajdujących się na różnych głębokościach, identyfikowanie obszarów o różnej gęstości. W tym przypadku energia odbitego sygnału silnie zależy od właściwości absorbujących gruntu, wielkości i kształtu tarczy oraz stopnia niejednorodności obszarów granicznych. Obecnie GPR, oprócz swojej orientacji wojskowej, rozwinął się w technologię opłacalną komercyjnie.

    Sondowanie powierzchni ziemi następuje poprzez napromieniowanie impulsami o częstotliwości 10 MHz - 1,5 GHz. Antena napromieniowująca może znajdować się na powierzchni ziemi lub na pokładzie samolotu. Część energii promieniowania odbija się od zmian w podpowierzchniowej strukturze ziemi, podczas gdy duża część przenika dalej w głąb. Odbity sygnał jest odbierany, przetwarzany, a wyniki przetwarzania są wyświetlane na wyświetlaczu. Gdy antena się porusza, generowany jest ciągły obraz, który odzwierciedla stan podpowierzchniowych warstw gleby. Ponieważ w rzeczywistości odbicie następuje z powodu różnicy stałych dielektrycznych różnych substancji (lub różnych stanów jednej substancji), sondowanie może ujawnić dużą liczbę naturalnych i sztucznych defektów w jednorodnej masie warstw podpowierzchniowych. Głębokość penetracji zależy od stanu gleby w miejscu napromieniania. Spadek amplitudy sygnału (absorpcja lub rozpraszanie) w dużej mierze zależy od wielu właściwości gleby, z których główną jest jej przewodność elektryczna. Gleby piaszczyste są więc optymalne do sondowania. Gleby gliniaste i bardzo wilgotne są do tego znacznie mniej odpowiednie. Dobre wyniki daje sondowanie suchych materiałów, takich jak granit, wapień, beton.

    Rozdzielczość sondowania można poprawić, zwiększając częstotliwość emitowanych fal. Jednak wzrost częstotliwości niekorzystnie wpływa na głębokość wnikania promieniowania. Tak więc sygnały o częstotliwości 500-900 MHz mogą przenikać na głębokość 1-3 m i zapewniać rozdzielczość do 10 cm, a z częstotliwością 80-300 MHz przenikają na głębokość 9-25 m , ale rozdzielczość to około 1,5m.

    Głównym wojskowym celem radaru podpowierzchniowego jest wykrywanie zasadzonych min. Jednocześnie radar zainstalowany na pokładzie samolotu, np. helikoptera, pozwala na bezpośrednie otwieranie map pól minowych. Na ryc. Rysunek 5 przedstawia obrazy z radaru zamontowanego na śmigłowcu pokazujące lokalizację min przeciwpiechotnych.

    Radar lotniczy, przeznaczony do wykrywania i śledzenia obiektów ukrytych w lasach (FO-PEN - Foliage PENetrating), umożliwia wykrywanie małych obiektów (ruchomych i nieruchomych), ukrytych za koronami drzew. Fotografowanie obiektów ukrytych w lasach odbywa się podobnie jak strzelanie konwencjonalne w dwóch trybach: podglądu i detalu. Średnio w trybie podglądu przepustowość przechwytywania wynosi 2 km, co pozwala na uzyskanie obrazów 2x7 km powierzchni Ziemi na wyjściu; w trybie szczegółowym badanie realizowane jest na odcinkach 3x3 km. Rozdzielczość fotografowania zależy od częstotliwości i waha się od 10 m przy częstotliwości 20-50 MHz do 1 m przy częstotliwości 200-500 MHz.

    Nowoczesne metody analizy obrazu pozwalają z dostatecznie dużym prawdopodobieństwem wykryć, a następnie zidentyfikować obiekty w otrzymanym obrazie radarowym. W takim przypadku detekcja jest możliwa na obrazach o rozdzielczości zarówno wysokiej (poniżej 1 m), jak i niskiej (do 10 m), natomiast rozpoznanie wymaga obrazów o wystarczająco wysokiej (ok. 0,5 m) rozdzielczości. I nawet w tym przypadku możemy mówić w większości tylko o rozpoznawaniu przez znaki pośrednie, ponieważ geometryczny kształt obiektu jest bardzo silnie zniekształcony z powodu obecności sygnału odbitego od okładki liścia, a także z powodu pojawienie się sygnałów o przesunięciu częstotliwości w wyniku efektu Dopplera, który powstaje w wyniku kołysania się liści na wietrze.

    Na ryc. 6 przedstawia obrazy (optyczne i radarowe) tego samego obszaru. Obiekty (słup samochodów) niewidoczne na obrazie optycznym są wyraźnie widoczne na obrazie radarowym, struktura geometryczna obiektu jest całkowicie nieobecna.

    Szczegółowość uzyskanych obrazów radarowych pozwoliła na praktyczne zaimplementowanie szeregu cech, co z kolei umożliwiło rozwiązanie szeregu ważnych problemów praktycznych. Jednym z tych zadań jest śledzenie zmian, które zaszły na określonym obszarze powierzchni ziemi w określonym czasie – detekcja koherentna. Czas trwania tego okresu jest zwykle określany przez częstotliwość patrolowania danego obszaru. Śledzenie zmian odbywa się na podstawie analizy połączonych współrzędnościowo obrazów danego obszaru, uzyskiwanych sekwencyjnie jeden po drugim. W takim przypadku możliwe są dwa poziomy szczegółowości analizy.

    Ryc. 5. Mapy pól minowych w reprezentacji trójwymiarowej podczas strzelania w różnych polaryzacjach: model (po prawej), przykład obrazu rzeczywistego obszaru powierzchni ziemi ze złożoną sytuacją podpowierzchniową (po lewej ), uzyskane za pomocą radaru zainstalowanego na pokładzie śmigłowca

    Ryż. Rys. 6. Zobrazowanie optyczne (na górze) i radarowe (na dole) fragmentu terenu z konwojem samochodów poruszającym się po leśnej drodze

    Pierwszy poziom polega na wykrywaniu istotnych zmian i opiera się na analizie odczytów amplitudy obrazu, które niosą główną informację wizualną. Najczęściej do tej grupy zaliczane są zmiany, które osoba może zobaczyć podczas jednoczesnego oglądania dwóch wygenerowanych obrazów radarowych. Drugi poziom opiera się na analizie zliczania faz i umożliwia wykrycie zmian niewidocznych dla ludzkiego oka. Należą do nich pojawienie się na drodze śladów (samochodu lub osoby), zmiana stanu okien, drzwi („otwarte – zamknięte”) itp.

    Kolejną interesującą funkcją SAR, również zapowiedzianą przez Sandię, jest nagrywanie wideo z radaru. W tym trybie dyskretne tworzenie apertury anteny z sekcji na sekcję, charakterystyczne dla trybu ciągłego pomiaru, zostaje zastąpione równoległym tworzeniem wielokanałowym. Oznacza to, że w każdym momencie nie jedna, ale kilka (liczba zależy od rozwiązywanych zadań) apertur jest syntetyzowanych. Rodzajem analogu liczby utworzonych otworów jest szybkość klatek w konwencjonalnym nagrywaniu wideo. Funkcja ta pozwala na realizację selekcji celów ruchomych na podstawie analizy otrzymanych obrazów radarowych, z wykorzystaniem zasad detekcji koherentnej, co jest zasadniczo alternatywą dla standardowych radarów, które wybierają cele ruchome na podstawie analizy częstotliwości Dopplera w odebranych sygnał. Skuteczność wdrożenia takich selektorów ruchomych celów jest bardzo wątpliwa ze względu na znaczne koszty sprzętu i oprogramowania, dlatego takie tryby najprawdopodobniej pozostaną tylko eleganckim sposobem rozwiązania problemu wyboru, pomimo możliwości, które otwierają się na wybór cele poruszające się z bardzo małą prędkością (poniżej 3 km/h) h, co jest niedostępne dla SDC Dopplera). Bezpośrednie nagrywanie wideo w zasięgu radaru również nie znalazło obecnie zastosowania, ponownie ze względu na wysokie wymagania dotyczące prędkości, dlatego nie ma istniejących modeli sprzętu wojskowego, które realizują ten tryb w praktyce.

    Logiczną kontynuacją doskonalenia techniki pomiarów powierzchni ziemi w zasięgu radarowym jest rozwój podsystemów do analizy otrzymywanych informacji. W szczególności duże znaczenie ma rozwój systemów automatycznej analizy zobrazowań radarowych, które umożliwiają wykrywanie, rozróżnianie i rozpoznawanie obiektów naziemnych, które wpadły w obszar badań. Złożoność tworzenia takich systemów wiąże się ze spójnym charakterem obrazów radarowych, zjawiskami interferencji i dyfrakcji, które prowadzą do pojawienia się artefaktów - sztucznego olśnienia, podobnego do tych, które pojawiają się w przypadku napromieniowania celu o dużej efektywnej powierzchni rozpraszania . Ponadto jakość obrazu radarowego jest nieco niższa niż jakość podobnego (pod względem rozdzielczości) obrazu optycznego. Wszystko to prowadzi do tego, że obecnie nie ma skutecznych implementacji algorytmów rozpoznawania obiektów na obrazach radarowych, ale ilość prac prowadzonych w tym zakresie, pewne sukcesy osiągnięte w ostatnim czasie sugerują, że w niedalekiej przyszłości będzie można rozmawiać o inteligentnych bezzałogowych pojazdach rozpoznawczych, które mają zdolność oceny sytuacji naziemnej na podstawie analizy informacji otrzymywanych przez własny lotniczy sprzęt rozpoznania radarowego.

    Kolejnym kierunkiem rozwoju jest integracja, czyli skoordynowane połączenie z późniejszym wspólnym przetwarzaniem informacji z kilku źródeł. Mogą to być radary strzelające w różnych trybach lub radary i inny sprzęt rozpoznawczy (optyczny, podczerwony, multispektralny itp.).

    Dzięki temu nowoczesne radary z syntezą apertury antenowej pozwalają na rozwiązywanie szerokiego zakresu zadań związanych z prowadzeniem badań radarowych powierzchni Ziemi, niezależnie od pory dnia i warunków pogodowych, co czyni je ważnym środkiem pozyskiwania informacji o stanie Ziemi. powierzchni i znajdujących się na niej obiektów.

    Zagraniczny przegląd wojskowy nr 2 2009 str. 52-56

    DZWONEK

    Są tacy, którzy czytają tę wiadomość przed tobą.
    Zapisz się, aby otrzymywać najnowsze artykuły.
    E-mail
    Nazwać
    Nazwisko
    Jak chciałbyś przeczytać The Bell?
    Bez spamu