Testy wirtualne (XPlane, JSBSim) głowicy obserwacyjnej w środowisku symulacyjnym na potrzeby walidacji systemu.
Notice description
Powstaje w kontekście projektu:
FENG.01.01-IP.02-1790/23 - Opracowanie innowacyjnej głowicy obserwacyjnej dedykowanej do bezzałogowych statków powietrznych z wykorzystaniem autorskiego systemu stabilizacji oraz technologii intuicyjnego sterowania.
Przedmiotem zamówienia jest usługa kompleksowego zaplanowania, wykonania i udokumentowania testów walidacyjnych projektu głowicy oraz oprogramowania symulacyjnego głowicy obserwacyjnej, realizowanych w dedykowanym komputerowym środowisku symulacyjnym opracowanym na potrzeby projektu B+R Zamawiającego. Testy mają na celu weryfikację poprawności i zgodności oprogramowania symulacyjnego z wymaganiami funkcjonalnymi i wydajnościowymi, identyfikację defektów projektowych wraz z opracowaniem korekty założeń projektowych oraz opracowanie wytycznych do korekty oprogramowania symulacyjnego, wraz z ich opracowaniem i wdrożeniem.
Szczegółowy zakres prac:
Etap I – Warsztat startowy i Plan Testów
Wykonawca przeprowadzi minimum jedno spotkanie warsztatowe z Zamawiającym w celu doprecyzowania zakresu, interfejsów i ograniczeń. Efektem warsztatu będzie zaakceptowany przez Zamawiającego Plan Testów zawierający:
1. listę przypadków testowych z podziałem na grupy (funkcjonalne, algorytmiczne, wydajnościowe, AI, brzegowe),
2. metryki i kryteria akceptacji dla każdego przypadku,
3. procedury zbierania logów, artefaktów wideo/klatek i telemetrii.
Etap II – Scenariusze testowe środowiska symulacyjnego
Wykonawca przygotuje i uruchomi zestaw scenariuszy testowych obejmujących co najmniej:
A) Obiekty i ruch
• dwie klasy detekcji: pojazdy mechaniczne i osoby,
• różne odległości, prędkości, kierunki ruchu i trajektorie obiektów,
• wiele obiektów jednocześnie,
• zasłonięcia i okluzje, obiekty częściowo widoczne, obiekty o cechach podobnych do tła.
B) Dynamika głowicy i platformy
• różne kąty obserwacji (elewacja, azymut, roll),
• symulacja ruchu platformy nośnej: drgania, wibracje, nagłe zmiany kierunku,
• tryby pracy głowicy: śledzenie obiektów, stabilizacja.
C) Warunki oświetleniowe
• pełne oświetlenie dzienne,
• zmierzch / świt (niskie kąty padania światła),
• noc w paśmie widzialnym przy sztucznym oświetleniu — jeśli dotyczy / jeśli wspierane przez symulator,
• oświetlenie w obiektyw (efekt oślepienia, prześwietlenie).
D) Warunki atmosferyczne i środowiskowe
• mgła i zamglenie (różne wartości widzialności),
• opady deszczu i śniegu (jeśli wspierane przez symulator),
• zróżnicowane tła i środowiska: teren otwarty, zabudowa, drogi, zadrzewienie — w ramach dostępnych zasobów sceny.
Etap III – Testy funkcjonalne i wydajnościowe
A) Testy funkcjonalne głowicy i obrazu
• zgodność zachowania obrazu z ruchem platformy i głowicy (stabilizacja, opóźnienia),
• reakcja na zmiany parametrów (zoom, tryby stabilizacji, czułość).
B) Testy wydajnościowe środowiska symulacyjnego
Testy symulatora jako systemu — niezależne od metryk detekcji AI.
• stabilność generacji klatek w czasie rzeczywistym: pomiar FPS (średni, minimalny, odchylenie),
• obciążenie zasobów sprzętowych: CPU, GPU, RAM — jeśli środowisko symulacyjne umożliwia pomiar,
• stabilność przy dużej złożoności sceny (wiele obiektów, złożone tła, trudne warunki atmosferyczne).
C) Testy odpornościowe / przypadki brzegowe
• skrajne prędkości i przyspieszenia obiektów i głowicy,
• szybkie przejście między skrajnymi warunkami oświetleniowymi,
• sceny o bardzo niskim kontraście wizualnym.
Etap IV – Testy przydatności do AI
Etykiety referencyjne (ground truth):
Zamawiający dostarcza mechanizm adnotacji lub gotowe etykiety referencyjne niezbędne do obliczenia metryk detekcji.
Testy obejmują:
• pomiar mAP, Precision, Recall, F1-score w podziale na klasy i kategorie scenariuszy,
• pomiar jakości ograniczających ramek detekcyjnych (IoU) — na podstawie dostarczonych etykiet z bounding boxami,
• analizę trudnych przypadków i ryzyk dla uczenia: aliasing, artefakty renderingu, nienaturalne tekstury, niski kontrast.
Etap V – Testy algorytmów systemu sterowania, nawigacji i przetwarzania
W ramach tego etapu Wykonawca przeprowadzi testy następujących obszarów algorytmicznych systemu w środowisku symulacyjnym:
A) Testy funkcji warstwy aplikacji – logika biznesowa
Weryfikacja poprawności działania warstwy logiki biznesowej systemu sterowania głowicą, obejmująca:
• poprawność realizacji zadań misji: inicjalizacja, sekwencjonowanie trybów pracy, przełączanie kontekstu operacyjnego,
• zarządzanie priorytetami zadań i obsługę współbieżnych żądań sterowania,
• reakcję systemu na zdarzenia zewnętrzne: alarmy, utrata śledzenia, wyjście obiektu z pola widzenia,
• poprawność logiki wyzwalania i kończenia sekwencji automatycznych (np. inicjalizacja śledzenia, autopoziomowanie),
• zgodność zachowania systemu ze specyfikacją stanów i przejść (maszyna stanów warstwy aplikacji).
B) Testy podstawowych funkcji i komfortu sterowania
Ocena poprawności funkcjonalnej i ergonomiczności interfejsu sterowania głowicą:
• responsywność i dokładność realizacji komend operatora (opóźnienie reakcji, overshooting, drgania resztkowe),
• intuicyjność sterowania: korelacja między wejściem operatora a ruchem głowicy w osi pan/tilt/roll,
• jakość i płynność śledzenia ręcznego — ocena subiektywna i obiektywna (odchyłka od trajektorii zadanej),
• działanie ograniczeń softwarowych (software stops): zachowanie przy próbie wyjścia poza zakres kątowy,
• testowanie trybów sterowania: ręczny, półautomatyczny (point-and-click), automatyczny (śledzenie obiektu),
• zachowanie przy nagłej utracie sygnału sterowania (failsafe) i przy wznowieniu.
C) Testy algorytmów motion control
Weryfikacja algorytmów odpowiedzialnych za wyznaczanie i realizację trajektorii ruchu głowicy:
• precyzja pozycjonowania kątowego (dokładność osiągnięcia zadanej pozycji pan/tilt): pomiar błędu ustalonego i przejściowego,
• jakość regulatora: charakterystyki przejściowe (czas narastania, przeregulowanie, czas ustalania) dla różnych nastaw i obciążeń,
• odporność algorytmu sterowania na zakłócenia: zewnętrzne drgania platformy, nielinearne tarcie w osi napędu,
• weryfikacja adaptacyjności nastaw regulatora w zmieniających się warunkach dynamicznych,
• testowanie limitów prędkości i przyspieszenia: zachowanie algorytmu przy saturacji wejść,
• poprawność realizacji ramp prędkości i profilów ruchu (trapezoidal/S-curve) dla komend pełnoobrotowych i małokrokowych.
D) Testy algorytmów state estimation
Weryfikacja dokładności i odporności algorytmów estymacji stanu głowicy i platformy:
• dokładność estymacji orientacji (kąty Eulera lub kwaterniony): błąd RMS w różnych warunkach dynamicznych,
• odporność filtru na zakłócenia pomiarowe sensorów IMU: szum, dryft, saturacja,
• zachowanie estymatora podczas manewru o dużej dynamice (szybkie obroty, gwałtowne przyspieszenia platformy),
• zbieżność algorytmu po inicjalizacji i po chwilowej utracie danych sensorycznych,
• weryfikacja opóźnień estymacji względem ruchu rzeczywistego (group delay filtru),
• ocena wpływu błędów kalibracji sensorów na jakość estymacji — testy z symulowaną niekalibrowaną IMU.
E) Testy algorytmów nawigacji
Weryfikacja algorytmów odpowiedzialnych za wyznaczanie pozycji i orientacji systemu w przestrzeni:
• dokładność geolokalizacji wskazywanego punktu: błąd w funkcji odległości, kąta elewacji i warunków platformy,
• poprawność transformacji układów współrzędnych (body frame → NED → WGS84) w czasie rzeczywistym,
• działanie algorytmów fuzji danych nawigacyjnych (GPS/IMU lub IMU-only w trybie degraded),
• zachowanie systemu nawigacji przy zaniku sygnału GPS: poprawność przełączenia w tryb zliczania drogi (dead reckoning),
• odporność nawigacji na zakłócenia i anomalie danych wejściowych,
• weryfikacja dokładności wyznaczania linii celowania (LOS) i kompensacji paralaksy przy różnych odległościach celu.
F) Testy przetwarzania systemu operacyjnego
Weryfikacja poprawności i wydajności warstwy systemowej (OS) obsługującej algorytmy sterowania:
• deterministyczność schedulera: pomiar jitter’u czasu wykonania zadań krytycznych (control loop timing),
• obsługa przerwań i latencja reakcji systemu operacyjnego na zdarzenia sprzętowe,
• zachowanie systemu przy wysokim obciążeniu CPU: weryfikacja priorytetów wątków i braku zagłodzenia (starvation) zadań RT,
• poprawność mechanizmów IPC (inter-process communication): opóźnienia i spójność danych między procesami systemu,
• testowanie zachowania przy przeciążeniu kolejek komunikatów i buforów danych,
• weryfikacja odzysku po błędach krytycznych: watchdog, restart procesów, integralność stanu po restarcie.
Wymagane rezultaty
Nr Rezultat Zakres minimalny
D1 Plan Testów Lista przypadków testowych (w tym dla Etapu V), metryki i kryteria akceptacji, procedury zbierania artefaktów. Do akceptacji przez Zamawiającego przed startem testów.
D3 Raport cząstkowy Po realizacji ∼25–30% zakresu testów; zawiera wstępne wyniki i ewentualne ryzyka, plan korekt programistycznych
D5 Repozytorium artefaktów Logi, pliki konfiguracyjne, próbki wideo/klatek z kluczowych scenariuszy. Zakres do uzgodnienia.
D6 Raport końcowy Metodyka, wyniki funkcjonalne, wydajnościowe i AI, wyniki testów algorytmów (Etap V, A–G), analiza problemów z klasyfikacją (krytyczne/istotne/drobne), rekomendacje, ocena przydatności danych dla AI, lista wdrożonych korekt programistycznych.
Kryteria odbioru
Odbiór każdego etapu następuje na podstawie pisemnego protokołu odbioru podpisanego przez obie strony. Zamawiający ma prawo zgłosić uwagi w terminie 5 dni roboczych od dostarczenia efektów etapu. Wykonawca zobowiązany jest do wprowadzenia poprawek w uzgodnionym terminie.
Harmonogram realizacji
Nr Etap Termin od podpisania umowy
1 Etap I i II do T0 + 30 dni kalendarzowych
2 Etap III do T0 + 60 dni kalendarzowych
3 Etap IV do T0 + 90 dni kalendarzowych
4 Etap V do T0 + 120 dni kalendarzowych
Poufność
Wykonawca podpisze umowę NDA / klauzulę poufności przed uzyskaniem dostępu do środowiska symulacyjnego i dokumentacji technicznej projektu.
Prawa do rezultatów i własność intelektualna
Wszelkie rezultaty prac wytworzonych w ramach zamówienia — raporty, zestawienia, nagrania, analizy i rekomendacje — stanowią własność Zamawiającego i mogą być przez niego swobodnie wykorzystywane w ramach projektu.
Miejsce realizacji
Kraj: Polska, Województwo: mazowieckie, Powiat: Warszawa, Gmina: Śródmieście, Miejscowość: Warszawa
FENG.01.01-IP.02-1790/23 - Opracowanie innowacyjnej głowicy obserwacyjnej dedykowanej do bezzałogowych statków powietrznych z wykorzystaniem autorskiego systemu stabilizacji oraz technologii intuicyjnego sterowania.
Przedmiotem zamówienia jest usługa kompleksowego zaplanowania, wykonania i udokumentowania testów walidacyjnych projektu głowicy oraz oprogramowania symulacyjnego głowicy obserwacyjnej, realizowanych w dedykowanym komputerowym środowisku symulacyjnym opracowanym na potrzeby projektu B+R Zamawiającego. Testy mają na celu weryfikację poprawności i zgodności oprogramowania symulacyjnego z wymaganiami funkcjonalnymi i wydajnościowymi, identyfikację defektów projektowych wraz z opracowaniem korekty założeń projektowych oraz opracowanie wytycznych do korekty oprogramowania symulacyjnego, wraz z ich opracowaniem i wdrożeniem.
Szczegółowy zakres prac:
Etap I – Warsztat startowy i Plan Testów
Wykonawca przeprowadzi minimum jedno spotkanie warsztatowe z Zamawiającym w celu doprecyzowania zakresu, interfejsów i ograniczeń. Efektem warsztatu będzie zaakceptowany przez Zamawiającego Plan Testów zawierający:
1. listę przypadków testowych z podziałem na grupy (funkcjonalne, algorytmiczne, wydajnościowe, AI, brzegowe),
2. metryki i kryteria akceptacji dla każdego przypadku,
3. procedury zbierania logów, artefaktów wideo/klatek i telemetrii.
Etap II – Scenariusze testowe środowiska symulacyjnego
Wykonawca przygotuje i uruchomi zestaw scenariuszy testowych obejmujących co najmniej:
A) Obiekty i ruch
• dwie klasy detekcji: pojazdy mechaniczne i osoby,
• różne odległości, prędkości, kierunki ruchu i trajektorie obiektów,
• wiele obiektów jednocześnie,
• zasłonięcia i okluzje, obiekty częściowo widoczne, obiekty o cechach podobnych do tła.
B) Dynamika głowicy i platformy
• różne kąty obserwacji (elewacja, azymut, roll),
• symulacja ruchu platformy nośnej: drgania, wibracje, nagłe zmiany kierunku,
• tryby pracy głowicy: śledzenie obiektów, stabilizacja.
C) Warunki oświetleniowe
• pełne oświetlenie dzienne,
• zmierzch / świt (niskie kąty padania światła),
• noc w paśmie widzialnym przy sztucznym oświetleniu — jeśli dotyczy / jeśli wspierane przez symulator,
• oświetlenie w obiektyw (efekt oślepienia, prześwietlenie).
D) Warunki atmosferyczne i środowiskowe
• mgła i zamglenie (różne wartości widzialności),
• opady deszczu i śniegu (jeśli wspierane przez symulator),
• zróżnicowane tła i środowiska: teren otwarty, zabudowa, drogi, zadrzewienie — w ramach dostępnych zasobów sceny.
Etap III – Testy funkcjonalne i wydajnościowe
A) Testy funkcjonalne głowicy i obrazu
• zgodność zachowania obrazu z ruchem platformy i głowicy (stabilizacja, opóźnienia),
• reakcja na zmiany parametrów (zoom, tryby stabilizacji, czułość).
B) Testy wydajnościowe środowiska symulacyjnego
Testy symulatora jako systemu — niezależne od metryk detekcji AI.
• stabilność generacji klatek w czasie rzeczywistym: pomiar FPS (średni, minimalny, odchylenie),
• obciążenie zasobów sprzętowych: CPU, GPU, RAM — jeśli środowisko symulacyjne umożliwia pomiar,
• stabilność przy dużej złożoności sceny (wiele obiektów, złożone tła, trudne warunki atmosferyczne).
C) Testy odpornościowe / przypadki brzegowe
• skrajne prędkości i przyspieszenia obiektów i głowicy,
• szybkie przejście między skrajnymi warunkami oświetleniowymi,
• sceny o bardzo niskim kontraście wizualnym.
Etap IV – Testy przydatności do AI
Etykiety referencyjne (ground truth):
Zamawiający dostarcza mechanizm adnotacji lub gotowe etykiety referencyjne niezbędne do obliczenia metryk detekcji.
Testy obejmują:
• pomiar mAP, Precision, Recall, F1-score w podziale na klasy i kategorie scenariuszy,
• pomiar jakości ograniczających ramek detekcyjnych (IoU) — na podstawie dostarczonych etykiet z bounding boxami,
• analizę trudnych przypadków i ryzyk dla uczenia: aliasing, artefakty renderingu, nienaturalne tekstury, niski kontrast.
Etap V – Testy algorytmów systemu sterowania, nawigacji i przetwarzania
W ramach tego etapu Wykonawca przeprowadzi testy następujących obszarów algorytmicznych systemu w środowisku symulacyjnym:
A) Testy funkcji warstwy aplikacji – logika biznesowa
Weryfikacja poprawności działania warstwy logiki biznesowej systemu sterowania głowicą, obejmująca:
• poprawność realizacji zadań misji: inicjalizacja, sekwencjonowanie trybów pracy, przełączanie kontekstu operacyjnego,
• zarządzanie priorytetami zadań i obsługę współbieżnych żądań sterowania,
• reakcję systemu na zdarzenia zewnętrzne: alarmy, utrata śledzenia, wyjście obiektu z pola widzenia,
• poprawność logiki wyzwalania i kończenia sekwencji automatycznych (np. inicjalizacja śledzenia, autopoziomowanie),
• zgodność zachowania systemu ze specyfikacją stanów i przejść (maszyna stanów warstwy aplikacji).
B) Testy podstawowych funkcji i komfortu sterowania
Ocena poprawności funkcjonalnej i ergonomiczności interfejsu sterowania głowicą:
• responsywność i dokładność realizacji komend operatora (opóźnienie reakcji, overshooting, drgania resztkowe),
• intuicyjność sterowania: korelacja między wejściem operatora a ruchem głowicy w osi pan/tilt/roll,
• jakość i płynność śledzenia ręcznego — ocena subiektywna i obiektywna (odchyłka od trajektorii zadanej),
• działanie ograniczeń softwarowych (software stops): zachowanie przy próbie wyjścia poza zakres kątowy,
• testowanie trybów sterowania: ręczny, półautomatyczny (point-and-click), automatyczny (śledzenie obiektu),
• zachowanie przy nagłej utracie sygnału sterowania (failsafe) i przy wznowieniu.
C) Testy algorytmów motion control
Weryfikacja algorytmów odpowiedzialnych za wyznaczanie i realizację trajektorii ruchu głowicy:
• precyzja pozycjonowania kątowego (dokładność osiągnięcia zadanej pozycji pan/tilt): pomiar błędu ustalonego i przejściowego,
• jakość regulatora: charakterystyki przejściowe (czas narastania, przeregulowanie, czas ustalania) dla różnych nastaw i obciążeń,
• odporność algorytmu sterowania na zakłócenia: zewnętrzne drgania platformy, nielinearne tarcie w osi napędu,
• weryfikacja adaptacyjności nastaw regulatora w zmieniających się warunkach dynamicznych,
• testowanie limitów prędkości i przyspieszenia: zachowanie algorytmu przy saturacji wejść,
• poprawność realizacji ramp prędkości i profilów ruchu (trapezoidal/S-curve) dla komend pełnoobrotowych i małokrokowych.
D) Testy algorytmów state estimation
Weryfikacja dokładności i odporności algorytmów estymacji stanu głowicy i platformy:
• dokładność estymacji orientacji (kąty Eulera lub kwaterniony): błąd RMS w różnych warunkach dynamicznych,
• odporność filtru na zakłócenia pomiarowe sensorów IMU: szum, dryft, saturacja,
• zachowanie estymatora podczas manewru o dużej dynamice (szybkie obroty, gwałtowne przyspieszenia platformy),
• zbieżność algorytmu po inicjalizacji i po chwilowej utracie danych sensorycznych,
• weryfikacja opóźnień estymacji względem ruchu rzeczywistego (group delay filtru),
• ocena wpływu błędów kalibracji sensorów na jakość estymacji — testy z symulowaną niekalibrowaną IMU.
E) Testy algorytmów nawigacji
Weryfikacja algorytmów odpowiedzialnych za wyznaczanie pozycji i orientacji systemu w przestrzeni:
• dokładność geolokalizacji wskazywanego punktu: błąd w funkcji odległości, kąta elewacji i warunków platformy,
• poprawność transformacji układów współrzędnych (body frame → NED → WGS84) w czasie rzeczywistym,
• działanie algorytmów fuzji danych nawigacyjnych (GPS/IMU lub IMU-only w trybie degraded),
• zachowanie systemu nawigacji przy zaniku sygnału GPS: poprawność przełączenia w tryb zliczania drogi (dead reckoning),
• odporność nawigacji na zakłócenia i anomalie danych wejściowych,
• weryfikacja dokładności wyznaczania linii celowania (LOS) i kompensacji paralaksy przy różnych odległościach celu.
F) Testy przetwarzania systemu operacyjnego
Weryfikacja poprawności i wydajności warstwy systemowej (OS) obsługującej algorytmy sterowania:
• deterministyczność schedulera: pomiar jitter’u czasu wykonania zadań krytycznych (control loop timing),
• obsługa przerwań i latencja reakcji systemu operacyjnego na zdarzenia sprzętowe,
• zachowanie systemu przy wysokim obciążeniu CPU: weryfikacja priorytetów wątków i braku zagłodzenia (starvation) zadań RT,
• poprawność mechanizmów IPC (inter-process communication): opóźnienia i spójność danych między procesami systemu,
• testowanie zachowania przy przeciążeniu kolejek komunikatów i buforów danych,
• weryfikacja odzysku po błędach krytycznych: watchdog, restart procesów, integralność stanu po restarcie.
Wymagane rezultaty
Nr Rezultat Zakres minimalny
D1 Plan Testów Lista przypadków testowych (w tym dla Etapu V), metryki i kryteria akceptacji, procedury zbierania artefaktów. Do akceptacji przez Zamawiającego przed startem testów.
D3 Raport cząstkowy Po realizacji ∼25–30% zakresu testów; zawiera wstępne wyniki i ewentualne ryzyka, plan korekt programistycznych
D5 Repozytorium artefaktów Logi, pliki konfiguracyjne, próbki wideo/klatek z kluczowych scenariuszy. Zakres do uzgodnienia.
D6 Raport końcowy Metodyka, wyniki funkcjonalne, wydajnościowe i AI, wyniki testów algorytmów (Etap V, A–G), analiza problemów z klasyfikacją (krytyczne/istotne/drobne), rekomendacje, ocena przydatności danych dla AI, lista wdrożonych korekt programistycznych.
Kryteria odbioru
Odbiór każdego etapu następuje na podstawie pisemnego protokołu odbioru podpisanego przez obie strony. Zamawiający ma prawo zgłosić uwagi w terminie 5 dni roboczych od dostarczenia efektów etapu. Wykonawca zobowiązany jest do wprowadzenia poprawek w uzgodnionym terminie.
Harmonogram realizacji
Nr Etap Termin od podpisania umowy
1 Etap I i II do T0 + 30 dni kalendarzowych
2 Etap III do T0 + 60 dni kalendarzowych
3 Etap IV do T0 + 90 dni kalendarzowych
4 Etap V do T0 + 120 dni kalendarzowych
Poufność
Wykonawca podpisze umowę NDA / klauzulę poufności przed uzyskaniem dostępu do środowiska symulacyjnego i dokumentacji technicznej projektu.
Prawa do rezultatów i własność intelektualna
Wszelkie rezultaty prac wytworzonych w ramach zamówienia — raporty, zestawienia, nagrania, analizy i rekomendacje — stanowią własność Zamawiającego i mogą być przez niego swobodnie wykorzystywane w ramach projektu.
Miejsce realizacji
Kraj: Polska, Województwo: mazowieckie, Powiat: Warszawa, Gmina: Śródmieście, Miejscowość: Warszawa
Time limit for receipt of tenders
2026-03-26 11:00:00.0
Location
Kraj: Polska, Województwo: mazowieckie, Powiat: Warszawa, Gmina: Śródmieście, Miejscowość: Warszawa
Category assortment
Measurements, tests and technical acceptance
Market research and development
Network infrastructure devices
Telecommunications infrastructure
Licences and software
Portable memory storage devices
Telecommunications equipment and accessories
Hardware, parts and accessories
Internet and telephone services
Software development
Implementation services
Maintenance and support
Market research and development
Network infrastructure devices
Telecommunications infrastructure
Licences and software
Portable memory storage devices
Telecommunications equipment and accessories
Hardware, parts and accessories
Internet and telephone services
Software development
Implementation services
Maintenance and support
Buyer details
VERTIGO GLOBAL SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
Solec 63
00-409 Warszawa
Województwo: mazowieckie
Kraj: Polska
NIP: 7011122673
Solec 63
00-409 Warszawa
Województwo: mazowieckie
Kraj: Polska
NIP: 7011122673