Wszystkie posty

hoaxer

Obrady o bezpieczeństwie

Internet Corporation for Assigned Names and Numbers (ICANN) – organizacja zajmująca się m.in. przyznawaniem adresów IP – zamierza na najbliższym spotkaniu omówić kwestię działania światowych sieci komputerowych i ich odporności w czasie kryzysów.

Po atakach terrorystycznych na Amerykę, Internet był najszybszym i najsprawniejszym medium. Działał nawet wtedy gdy zawiodły połączenia telefonii stacjonarnej i komórkowej.

Działanie sieci mogą jednak zakłócić terroryści. Internet może być także wykorzystany do przeprowadzenia cyberataków na firmy lub organizacje rządowe czy międzynarodowe. Na spotkaniu ICANN będą więc poruszone najważniejsze problemy bezpieczeństwa. Zostaną też przedstawione inżynierom i politykom ewentualne środki zaradcze. Duży nacisk będzie położony na obecny system adresowy. Uszkodzenie tylko kilku procent najważniejszych serwerów może bowiem doprowadzić do unieruchomienia globalnej sieci i chaosu w ogólnoświatowej łączności. Listopadowa konferencja odbędzie się w siedzibie ICANN w Marina Del Rey w Kalifornii.

Źródło: onet.pl autor: Robert Hajduk

TPSA kontra Internet

Pewno wszyscy modemiarze oraz ci z Was, którzy łączą się z Internetem poprzez SDI lub Neostradę zauważyli, iż od kilku dni Internet działa wolno, jak żółw. Powoli otwierają się wszystkie strony (często wyskakuje time out), nie da się ściągnąć poczty (również time out), komunikatory internetowe nie chcą się zalogować.

Wytłumaczenie tego problemu znajduje się na stronie TP S.A., oto fragment:

Wzrastające zapotrzebowanie na coraz nowsze i bardziej różnorodne sposoby dostępu do sieci skłaniają TP S.A.-„POLPAK” do modernizacji i rozbudowy sieci. W związku z prowadzonymi pracami mogą nastąpić przerwy w dostępie Internetu, o czym będzemy Państwa na tej stronie informować.

Wskutek rozprzestrzeniania się w światowych zasobach Internetu nowego wirusa występują przeciążenia niektórych elementów sieci co może powodować chwilowe zakłócenia w ruchu. Trwają prace nad usunięciem problemu.

W dniach od 3 września 2001 do 11 października 2001 w godzinach 04:00 – 07:00 planowane są prace modernizacyjne sieci Polpak-T. W związku z tym istnieje niewielkie prawdopodobieństwo wystąpienia około 15 minutowych przerw w dostępie komutowanym do Internetu poprzez numer tel. 0 20 21 22 i 0 20 24 22. Prace będą dotyczyły terenu całej Polski i będą prowadzone kolejno w poszczególnych województwach.

Z dobrze poinformowanych źródeł wiemy jednak, iż głównym problemem jest właśnie… wspomniany między wierszami wirus, którym zainfekował się nasz kochany (???) monopolista. Cóż, czekamy, aż Szanowni Panowie z TP S.A. zainstalują sobie MkS_Vira

Internet bez TP S.A. ?!

Internet bez TP S.A. czy to możliwe ? Okazuje się, że tak. Firma Intertele S.A., wysunęła swoją alternatywę w kierunku numerów dostępowych naszej kochanej Telekomunikacji Polskiej S.A.

W pierwszej kolejności, firma Intertele, zaatakowała rzeszowską strefę numeracyjną. Każdy internauta, ma możliwość wyboru w łączeniu się do sieci poprzez numer: 020 21 22, czy 020 94 96. Intertele gwarantuje poziom usług na nieco lepszym poziomie, niż popularne „ppp”. Koszt połączenia, jest taki sam jak w przypadku numeru 020 21 22.

Węzeł dostępowy Intertele obsługuje modemy, działające w standardzie V.90 i starsze. Maksymalna prędkość połączenia wynosi 57 600 b/s. Użytkownicy korzystający z numeru Intertele mają możliwość obejrzenia historii własnych połączeń z węzłem dostępowym firmy, co pozwala na łatwe kontrolowanie kosztów dostępu do Internetu.

„Dość sceptycznie podchodzę to takich inicjatyw. Wydaje mi się, że oferowanie tego typu dostępu nie jest zbyt dochodowym interesem, dlatego traktowałbym to raczej jako próbę zbudowania przyczółka, zdobycia klientów, poprzedzającego rozszerzenie oferty. Oferowanie dostępu do Internetu w naszym kraju zawsze jest w jakimś stopniu konkurowaniem z monopolistą w tym sektorze polskiego rynku, czyli Telekomunikacją Polską. Problem jednak w tym, że małym (i nie tylko małym) firmom trudno jest rywalizować z kimś, od kogo jest się uzależnionym, bo przecież Intertele wykorzystuje istniejącą infrastrukturę telekomunikacyjną. Może się zdarzyć, że gdy firma zechce zwiększyć zakres usług lub zasięg oferty, TP SA może się to nie spodobać – a nasz narodowy operator pokazał już, że potrafi sobie radzić z konkurentami” – powiedział nam Andrzej Piotrowski, dyrektor Instytutu e-Gospodarki w Centrum im. Adama Smitha.

Więcej informacji:
– http://dialup.rzeszow.pl
– http://dialup.warszawa.pl

MPlayer 0.50pre1

Na stronach domowych znajduje się kolejna wersja popularnej aplikacja do odtwarzania filmów i animacji o dużych możliwościach – MPlayera 0.50pre1.

W nowej wersji w koncu pojawił się tak długo oczekiwany tryb GUI. Zmienie uległ także format dokumentacji a także poprawiono kilka błędów. Najważniejsze jednak przed nami: ze strony projektu można pobrać oficjalne fonty iso-8859-2

– MPlayer – the movie player for linux

Pokonać intruza!

Ataki młodych, zdolnych hakerów, których umiejętności potrafią wyrządzić niewyobrażalne szkody, to część współczesnej mitologii. Legendy o niewychwytywalnych przestępcach komputerowych podsycają jedynie atmosferę paraliżującego strachu przed obcowaniem z siecią.

Szał związany z zakupem odpowiedniego zabezpieczenia systemów komputerowych obserwowany w krajach zachodnich po woli przekrada się za Odrę. Amerykańscy analitycy szacują, że w 2005 r. wartość rynku programów zabezpieczających wyniesie 14 mld USD. Publikowane w Stanach Zjednoczonych dane finansowe, dotyczące strat wywołanych przez wirusy i włamania do systemów komputerowych, i naszych pracodawców wprawiają w popłoch. 266 mld USD, bo tyle wynoszą poniesione koszty, stanowi ogromną kwotę. Nie dziwi więc, że wokół tematu bezpieczeństwa krążą działające na wyobraźnię fantastyczne historie. Ataki młodych, zdolnych hakerów, których umiejętności potrafią wyrządzić niewyobrażalne szkody, to część współczesnej mitologii. Legendy o niewychwytywalnych przestępcach komputerowych podsycają jedynie atmosferę paraliżującego strachu przed obcowaniem z siecią. Tymczasem prawda jest taka, że działania sprawców przestępstw komputerowych w skali światowej nie są tak niebezpieczne, jak się powszechnie uważa. Nieuwaga i naiwność pracowników firm plasują się na pierwszym miejscu przyczyn naruszenia bezpieczeństwa.Magdalena Sawicka, rzecznik prasowy firmy Symantec, podaje, że błędy człowieka wciąż stanowią ponad 50-proc. zagrożenie prawidłowego funkcjonowania systemu. „Do tej grupy zaliczamy błędy przy wdrożeniach rozwiązań informatycznych, słabo wyszkolony personel. Dużą grupę (10%) stanowią nieuczciwi pracownicy, którzy najczęściej są podsuwani bądź przekupywani przez konkurencję, a także grupy przestępcze, mające na celu przejęcie poufnych informacji. Podobny wpływ na bezpieczeństwo mają niezadowoleni pracownicy (ok. 9%), którzy z powodu złych warunków pracy i braku perspektyw mogą przekazać poufne informacje lub umożliwić osobie niepowołanej dostęp do systemu. Wbrew oczekiwaniom, najmniejszą grupę stanowią ataki z zewnątrz (5%) i programy złośliwe (6%)” – zaznacza Magdalena Sawicka.
Nie ulega jednak wątpliwości, że w ostatnich latach nastąpił gwałtowny wzrost liczby ataków zewnętrznych. Od początku lat 90. zanotowano ponad 800-proc. wzrost przestępstw komputerowych, a poniesione straty wyniosły w I połowie 2000 r. w USA 1,5 mld USD. Stąd nieustannie rośnie zainteresowanie firm ochroną bezpieczeństwa komputerowego. Strategia bezpieczeństwa – zdaniem Magdaleny Sawickiej – powinna obejmować następujące grupy rozwiązań: „programy antywirusowe, łączące wielowarstwową ochronę przed wirusami i kodem mobilnym z zarządzaniem komunikacją za pośrednictwem Internetu pod kątem poufności oraz niewłaściwego wykorzystywania danych; ocenę zabezpieczeń systemów komputerowych; narzędzia oraz usługi pozwalające na automatyczne wykrywanie i korygowanie powszechnych błędów w konfiguracji komputerów i sieci; ochronę typu firewall, wykrywanie nie autoryzowanych prób dostępu”.
Zgodnie z danymi Symanteca w Polsce najpopularniejszym rozwiązaniem zabezpieczającym sieci informatyczne są firewalle i programy antywirusowe. Bardziej kompleksowe narzędzia, czyli programy do zarządzania ryzykiem, pozwalające na mapowanie sieci i wykrywanie jej słabych punktów, zyskują coraz większą popularność głównie wśród firm, dla których utrata danych bądź też ich przejęcie przez nieuczciwą konkurencję może spowodować bardzo poważne konsekwencje finansowe czy karne, stąd rosnąca popularność tych rozwiązań wśród firm z branż: ubezpieczeniowej, bankowej, telekomunikacyjnej.

Na porządku dziennym

Statystyki, dotyczące włamań do systemów prowadzone przez CERT Polska (polski oddział Computer Emergency Response Team), nie oddają w pełni skali zjawiska. Mirosław Maj z CERT Polska podaje, że wszelkie dane związane z naruszeniem bezpieczeństwa teleinformatycznego obarczone są niskim wskaźnikiem zgłaszalności. Nie ulega jednak wątpliwości, że ubiegły rok na całym świecie stał pod znakiem skomasowanych ataków DDoS i DoS, które dotknęły niejedną firmę, w tym także te największe. „Być może ataki tego typu stały się na tyle powszechne, że przestano je zgłaszać, traktując je jako normalną część związaną z obsługą urządzeń sieciowych dołączonych do Internetu. Jednak należy zastrzec, że są to tylko przypuszczenia i CERT Polska nie ma szczegółowych danych na ten temat” – czytamy w ostatnim raporcie CERT.
Okazuje się, że najczęstsze są ataki na system poczty elektronicznej i serwery WWW. „Konsekwencje naruszenia zabezpieczeń nie ograniczają się do utraty poczty elektronicznej z ostatniej godziny lub nawet z całego dnia” – zaznacza Magdalena Sawicka, rzecznik prasowy firmy Symantec. – „Zdarzenia takie mają potencjalny wpływ na wizerunek marki, zaufanie klientów, udział w rynku, a nawet ceny akcji. W rzeczywistości udane ataki z zewnątrz mogą potencjalnie nawet zniszczyć firmę i ochrona przed nimi powinna ten fakt uwzględniać. Myślę, że rozsądek osób, odpowiadających za bezpieczeństwo, i świadomość poziomu zagrożenia mają olbrzymi wpływ na podjęcie decyzji o wdrożeniu kompleksowego systemu zabezpieczeń. Często jednak z braku wiedzy czy braku wyobraźni ten ważny segment w działalności firmy pozostaje zaniedbany”.

Rozsądek jest w kwestii bezpieczeństwa bardzo istotnym elementem strategii obronnej. Warto zwrócić uwagę na fakt, że pomimo wzrastającej liczby ataków z zewnątrz, poważnym niebezpieczeństwem są też pracownicy firm, którzy potrafią bez zastanowienia otworzyć każdy załącznik przybyły w liście elektronicznym. Na tak nieroztropne działania chyba nie ma lekarstwa, a rozwijanie świadomości poziomu ryzyka, na jakie można narazić firmę w wyniku komunikacji i współdziałania za pośrednictwem Internetu, często nie daje upragnionych rezultatów.
Po drugiej stronie

Ciekawą kwestią jest też to, jakie przestępstwa informatyczne popełniają Polacy. CERT Polska nie prowadzi dokładnych statystyk, dotyczących tego zagadnienia. „Niemniej z bardzo dużym prawdopodobieństwem można stwierdzić, że rozkład statystyczny przestępstw sieciowych popełnianych przez Polaków nie różni się od tego, jaki odnotowuje się w innych krajach” – mówi Mirosław Maj, przedstawiciel CERT Polska. – „Tendencje związane z popularnością danego rodzaju przestępstw sieciowych, które są obserwowane na świecie, są również charakterystyczne dla tego, co się dzieje w naszym kraju. W tej dziedzinie, podobnie jak w wielu innych związanych z Internetem, nie istnieją wyraźne granice pomiędzy poszczególnymi państwami”. Można jednak stwierdzić, że odsetek polskich przestępców sieciowych nie jest tak duży jak w krajach zachodnich, co z pewnością wiąże się z faktem, iż w naszym państwie dostęp do Internetu wciąż pozostaje o wiele droższy i nierzadko trudniejszy. O włamaniach do polskich firm nie słyszy się też tak często jak o podobnych procederach za granicą. Metody obrony przed atakiem pozostają jednak w obu przypadkach podobne.

O to, jak zabezpieczają się polskie firmy, zapytaliśmy Michała Kołodziejczyka, zastępcę dyrektora pionu IT ds. rozwoju w Wirtualnej Polsce. „Najważniejsza zasada to ukrycie przed osobami postronnymi możliwie jak największej informacji, dotyczących własnej infrastruktury, tak by poprzez obserwacje z zewnątrz (z Internetu) potencjalny przestępca mógł zdobyć ich jak najmniej bądź nie miał do nich całkowicie dostępu”- mówi Michał Kołodziejczyk. – „Sieci wewnętrzne firm są zazwyczaj odseparowane od sieci zewnętrznej. Komputery w sieciach wewnętrznych mają prywatne adresy, a połączenie ze światem zewnętrznym odbywa się poprzez urządzenia filtrujące i monitorujące ruch. W ten sposób nie można przesyłać innych pakietów i korzystać z innych usług, niż zostało to dopuszczone przez projektantów zabezpieczeń”. Oprócz sieci są monitorowane także systemy operacyjne serwerów oraz poszczególne aplikacje na tych serwerach, obsługujące połączenia internetowe. „Często stosowane są też pułapki, które wykrywają i natychmiast informują o próbach włamań” – zaznacza zastępca dyrektora pionu IT ds. rozwoju WP. – „Systemy operacyjne oraz aplikacje mogą mieć również instalowane poprawki podnoszące bezpieczeństwo. Firmy usuwają też nie wykorzystywane opcje aplikacji i systemów operacyjnych jako źródła potencjalnych furtek do systemu
Michał Kołodziejczyk podkreśla, że bardzo ważny jest czynnik ludzki. „Wszystkie najważniejsze parametry infrastruktury sieciowej firm, takie jak ruch w sieci do poszczególnych serwerów, obciążenie serwerów, ilość używanych zasobów, liczba połączeń sieciowych są nieustannie monitorowane przez pracowników firm. Na podstawie ich obserwacji doświadczony administrator jest w stanie wykryć próby włamań do systemu, które najczęściej wiążą się z nienaturalnym działaniem systemu”.

System detekcji intruzów jest bardzo istotny w kwestii zapewnienia bezpieczeństwa firmy. Zdanie to podziela Robert Pająk z portalu Interia.pl. „Takie rozwiązania wyszukujące i raportujące wszelkie nieprawidłowości pracy systemów pełnią kluczową rolę” – komentuje. Sieć w Interii jest zbudowana w sposób utrudniający penetrację, m.in. ze względu na strefy ze zdefiniowanymi przywilejami. Dodatkowe zabezpieczenia obejmują nadmiarowość (duplikowanie sprzętu na wypadek awarii podstawowych systemów), backup, ochronę alarmową i przeciwpożarową. „Nad wdrażaniem nowinek zwiększających bezpieczeństwo systemów czuwa dział bezpieczeństwa” – mówi Robert Pająk. – „Generalną zasadą w zakresie ochrony w portalu Interia.pl jest hasło, że to, co nie jest dozwolone, jest zabronione”.

Z jednej strony krzepiące jest to, że problem zabezpieczeń w naszym kraju nie jest pomijany milczeniem i firmy dbające o swoją markę potrafią rozsądnie chronić własne dane. Z drugiej strony niezwykły boom związany z początkiem paniki przed przestępcami komputerowymi oznacza, że coraz większe nakłady finansowe będą przeznaczane na zakup i implementację systemów zabezpieczających. Amerykańscy analitycy szacują, że w 2005 r. wartość rynku programów zabezpieczających wyniesie 14 mld USD. Wynika z tego, że przez najbliższych kilka lat temat ochrony danych będzie bardzo żywy. Trzeba jednak zdać sobie sprawę z tego, że nawet zakup najnowszej wersji programu zabezpieczającego nie uchroni firmy przed atakiem, jeżeli jej pracownicy będą postępować nierozsądnie.

Źródło: onet.pl Tekst autorstwa Anny Meller

Linux 2.4.11-pre1

Ukazała się pierwsza wersja rozwojowa nowego kernela. Zmiany w stosunku do jadra 2.4.10 są następujące:

– Chris Mason: fix ppp race conditions
– LT: buffers-in-pagecache coherency, buffer.c cleanups
– Al Viro: block device cleanups/fixes
– Anton Altaparmakov: NTFS 1.1.20 update
– Andrea Arcangeli: VM tweaks

URLScan Security Tool

URLscan to nowe narzędzie Microsoftu które ma na celu zwiększenie bezpieczeństwa serwerów www opartych na IIS w wersji 4.0 i nowszych. Po jego zainstalowaniu wszystkie żądania dotyczące strony www są filtrowane w oparciu o reguły znajdujące się w pliku konfiguracyjnym.

URLscan jest filtrem ISAPI pozwalającym administratorowi na skonfigurowanie IIS w taki sposób, aby odrzucał żądania w oparciu o następujące kryteria:

– rozszerzenia plików,
– podejrzane kodowanie,
– obecność znaków różnych niż ASCII w URL,
– obecność sekwencji znaków w URL,
– obecność konkretnego nagłówka w żądaniu.
– metoda żądania (request method),

Więcej informacji na temat URLScan’u można znaleźć tutaj.

Bazy danych Open Source w Praktyce

W dniach 3-4 października 2001 roku, firma Software organizuje konferencję „2001.PostgreSQL.CON – Bazy danych Open Source w Praktyce”.

Konferencja ta odbędzie się w hotelu Gromada (Warszawa, pl. Powstańców Warszawy 2). Celem spotkania jest zaprezentowanie praktycznych aspektów budowy wydajnych systemów bazodanowych z wykorzystaniem rozwiązań Open Source (PostgreSQL, MySQL, Interbase). Prelegenci dokonają analizy zastosowań różnych systemów baz danych, wyjaśnią, która baza w konkretnej sytuacji jest najlepsza, przedstawią sposoby instalacji i konfiguracji oraz jak zoptymalizować jej pracę.

Uczestnicy konferencji, oprócz treści wykładów, otrzymają komplet materiałów konferencyjnych, książkę „PostgreSQL”, specjalną płytę CD zawierającą wszystkie materiały konferencyjne w wersji elektronicznej oraz oprogramowanie omawiane podczas wykładów, skrypty konfiguracyjne, rozszerzoną dokumentację i dodatkowy software, a także numer pisma Linux+, dedykowany bazom danych Open Source, i gadżety niespodzianki.

Konferencja jest przeznaczona dla projektantów i administratorów systemów baz danych, programistów i developerów zorientowanych na zagadnienia bazodanowe, osób zainteresowanych profesjonalnym wykorzystaniem baz danych Open Source.

Więcej informacji na stronach głównych konferencji.

Microsoft Windows XP

NASDAQ znajdujący się na Times Square ogłosiło w dosyć nietypowy sposób datę premiery, która zapowiadana jest na 25 października w New York City, najnowszego produktu giganta z Redmond – Microsoft Windows XP.

Zdjęcię o wysokiej rozdzielczości można obejrzeć klikając na ten link (1392×2048 .jpg – 456 kb).