Wszystkie posty

hoaxer

Internet w niebezpieczeństwie

Specjaliści informują o olbrzymim wzroście liczby wirusów. Według firmy Postini obecnie zauważyć można 20-krotnie większą niż zwykle aktywność szkodliwego kodu.

Luki w serwisach Ministerstwa Środowiska

Kontynuując temat zabezpieczeń systemów instytucji rządowych w Polsce nasza redakcja postanowiła przyjrzeć się nieco bliżej serwisom Ministerstwa Środowiska – mos.gov.pl. Jak się okazało są one podatne na ataki typu SQL Injecion (polegają głównie na wykorzystaniu błędów w językach skryptowych, które skupiają się na przekazie danych od użytkownika do bazy danych / wikipedia) uznane w środowisku osób zorientowanych na security za trywialne i niezwykle popularne.

Vista już złamana?

Alex Ionescu, współtwórca oprogramowania ReactOS, poinformował, że udał mu się złamać system DRM zastosowany w 64-bitowej wersji Windows Vista. Jeśli jest to prawda, to możliwe będzie kopiowanie materiałów chronionych tych systemem.

Ionescu nie podał żadnych szczegółów dotyczących sposobu, w jaki złamał DRM. Na swoim blogu stwierdził, że to, co zrobił jest oczywistym złamaniem Digital Millennium Copyright Act (DMCA), a on nie chce mieć problemów z prawem.

Microsoft zastosował w Windows Vista technologię, która nazwał Protected Environment (PE). Jej celem jest uniemożliwienie przechwycenia sygnału wędrującego np. z napędu DVD do karty graficznej. Uzyskano to, m.in., dzięki szyfrowaniu komunikacji pomiędzy tymi urządzeniami.

Ponadto każdy sterownik, który pracuje w środowisku PE musi być cyfrowo podpisany przez jego autora oraz Microsoft. Jeśli nie jest, przekazywana zawartość audio i wideo zostaje pozbawiona dodatkowych danych tak, że jest ona przekazywana w standardowych rozdzielczościach, a nie w HD.

Ionescu twierdzi, że poradził sobie ze wszystkimi ograniczeniami. Poinformował ponadto, że złamał też technologię PatchGuard. Jej celem jest zamknięcie jądra 64-bitowej wersji Visty przed kodem pochodzącym z zewnątrz.

źródło: heise-security

Przemysłowe metody produkcji szkodliwego kodu

Specjaliści zauważyli postępującą „industrializację” w dziedzinie tworzenia szkodliwego kodu. W bieżącym roku będziemy mieli do czynienia z rosnącą liczbą spamu, phishingu, szkodliwego oprogramowania i innych niebezpiecznych działań.

Przyczyną takiego stanu rzeczy jest łączenie się cybeprzestępców w zorganizowane, skomplikowane struktury, które zajmują się tworzeniem i rozprowadzaniem swoich produktów. Z przeprowadzonych właśnie badań wynika, że struktury te przypominają struktury produkcyjne i dystrybucyjne współczesnego przemysłu.

Współautor studium, firma IBM, uważa, że taka sytuacja powoduje, iż firmom specjalizującym się w bezpieczeństwie IT coraz trudniej będzie walczyć z przestępcami.

„Utworzenie takiej infrastruktury oznacza nie tylko, że mogą przeprowadzać bardziej precyzyjne ataki, ale że mogą być to ataki skierowane przeciwko konkretnej osobie. Nigdy dotąd pojedynczy ludzie nie byli tak bardzo narażeni na atak cyberprzestępców” – mówi Guner Ollmann, dyrektor ds. strategii bezpieczeństwa w należącym do IBM-a oddziale Security Systems.

W najbliższej przyszłości konieczna zatem będzie zmiana strategii, którą wykorzystują programy zabezpieczające. Trzeba będzie porzucić popularne obecne działanie na podstawie sygnatur, które umożliwiają rozpoznanie i zniszczenie znanych fragmentów szkodliwego kodu. Zamiast tego muszą powstać programy, które rozpoznają szkodliwy kod na podstawie analizy jego zachowania.

W raporcie stwierdzono również, że wzrośnie liczba ataków na przeglądarki. Najnowsze łaty Microsoftu, Mozilli czy Opery ich nie powstrzymają. Stanie się tak dlatego, że cyberprzestępcy zaczynają wykorzystywać stare sposoby, na które osoby odpowiedzialne za bezpieczeństwo nie zwracają już uwagi.

Wzrośnie też liczba spamu obrazkowego, który jest znacznie trudniejszy do zwalczenia, gdyż nie skutkują w jego wypadku wszelkie metody analizy tekstu. Ten przesyłany jest bowiem w formie pliku graficznego i traktowany przez filtry antyspamowe jak zwykły obrazek.

źródło: iTnews

Trojany – główny problem Internetu

Z najnowszego raportu firmy Sophos wynika, że w ostatnich miesiącach dokonała się znacząca zmiana dotycząca zagrożeń, jakie dla użytkowników niesie korzystanie z Internetu.

Już w 2005 roku zauważono, że liczba koni trojańskich jest większa, niż liczba wirusów i robaków pisanych specjalnie dla systemów Windows. Wówczas konie trojańskie stanowiły 62% ogólnej liczby szkodliwego kodu.

Obecnie wiadomo, że nie był to przejściowy trend. Specjaliści obliczyli, że w ubiegłym roku aż 8 na 10 fragmentów szkodliwego kodu stanowiły właśnie konie trojańskie lub programy o bardzo podobnym działaniu.

Oznacza to, że cyberprzestępcy kładą obecnie szczególny nacisk na tworzenie botnetów – sieci komputerów-zombie.

Szkodliwy kod pochodził przede wszystkim ze Stanów Zjednoczonych, Chin, Rosji, Ukrainy i Holandii. Jednak jego źródło pochodzenia nie jest związane z liczbą infekcji. Tak więc mieszkańcy pozostałych krajów nie mogą stwierdzić, że ich problem ten nie dotyczy.

Specjaliści zauważyli też inne, niepokojące zjawisko. „Liczba e-maili ze szkodliwymi załącznikami spadła do 1 na 44. Nie oznacza to jednak, że zrobiło się bezpieczniej. Cyberprzestępcy zrezygnowali taktyki, która polegała na próbach jednoczesnego zarażenia olbrzymiej liczby komputerów tym samym kodem. Złośliwe oprogramowanie jest bardziej zróżnicowane, a ataki bardziej wyspecjalizowane i przeprowadzane na mniejszą skalę. Nie dochodzi do wielkich epidemii, ponieważ to przyciąga uwagę” – mówi Paul Ducklin, główny technolog Sophos Asia Pacific. Cyberprzestępcy wolą obecnie działać po cichu.

Najlepszym dowodem jednak na to, że w Internecie robi się coraz bardziej niebezpiecznie są kolejne statystyki.

Jak poinformował Ducklin, w samym tylko 2006 roku wykryto 41 536 nowych fragmentów szkodliwego kodu. Co gorsze liczba ta gwałtownie rośnie.

Średnia dla całego roku wynosi około 113 fragmentów szkodliwego kodu dziennie, ale już dla listopada (7612 wykrytych nowych fragmentów) jest to 245 dziennie.

Najbardziej rozpowszechnioną linią szkodliwego kodu była w 2006 roku rodzina Mytob. Stanowiła ona 30% całości złośliwego oprogramowania. W pierwszej 10 znalazły się również rodziny Netsky, Sober, Zafi, Nyxem, Bagle, MyDoom, Stratio, Clagger i Dref.

Źródło: computerworld.com

Wykrywacz kłamst w Skype

Firma Kish Kish, współpracująca z producentem popularnego komunikatora internetowego Skype, przedstawiła ciekawy dodatek do programu, wykrywający padające z ust rozmówcy kłamstwo.

Wirtualny wykrywacz kłamstw firmy Kish Kish, sygnowany przez firmę Skype, według zapewnień producenta, jest w stanie orzec, czy rozmówca mówi prawdę czy kłamie, na podstawie brzmienia głosu. Wykrywacz reaguje na subtelne różnice w natężeniu głosu, jego barwie i tonie, rozpoznając zmiany głosu wywołane kłamstwem.

Zainstalowana aplikacja uruchamia się automatycznie wraz z rozpoczęciem rozmowy przez komunikator Skype. Podczas pierwszych 10 sekund program automatycznie dostosowuje się do parametrów głosu rozmówcy. Po tym czasie aplikacja rozpoczyna pomiar zdenerwowania w głosie i informuje w momencie wykrycia kłamstwa.

Program można pobrać ze strony producenta, firmy Kish Kish (www.kishkish.com)

Źródło: Red Ferret

Internet na podsłuchu

Z nieoficjalnych informacji wynika, że FBI zbiera więcej informacji na temat internautów, niż dotychczas sądzono. Federalne Biuro Śledcze powinno kolekcjonować jedynie dane konkretnych podejrzanych osób. Wygląda jednak na to, że zbieranie informacji odbywa się na masową skalę, a zgromadzone dane można było przeszukiwać pod kątem nazwiska, adresu e-mail czy słów kluczowych.

Informacje takie wskazują, że FBI posiada technologie bardziej zaawansowane niż osławiony Carnivore (Mięsożerca), przemianowany później na DCS1000. Przypuszczalnie FBI zaczęło stosować metody podobne do Narodowej Agencji Bezpieczeństwa (NSA), o których dowiedziano się przypadkiem podczas jednego z procesów sądowych.

Gdy służby mają podejrzenia wobec jednego z internautów, a dostawca Internetu nie jest w stanie wyizolować jego adresu IP lub określić, kim jest podejrzany, podsłuch obejmuje wszystkie osoby, korzystające z usług tego dostawcy. Sprawdzany jest cały ruch przewodzący przez łącza danego operatora. Monitorowany jest zwykle ruch odbywający się w obrębie sieci lokalnej, a punktem kontrolnym jest ruter lub switch.

Z czasem pojawiły się oskarżenia, że służby specjalne zaczęły standardowo wykorzystywać tego typu masowe metody podsłuchu. Tak więc nawet w sytuacji, gdy znany jest adres IP podejrzanej osoby, podsłuchiwani są wszyscy, a dopiero później nagrane dane są filtrowane pod kątem wyłuskania z nich informacji dotyczących podejrzanego.

„To gorsze niż Carnivore” – mówi Kevin Bankston z Electronic Frontier Foundation. „Oni podsłuchują wszystkich, a potem mogą zmienić osobę, przeciwko której prowadzą śledztwo”.

Nowe metody są o tyle niepokojące, że Carnivore – który nota bene został przez FBI porzucony ponad 2 lata temu – podlegał niezależnym audytom i nadzorowi Kongresu, o tyle nowymi technikami niewiele osób się interesuje. Ponadto Mięsożerca najprawdopodobniej na bieżąco filtrował informacje, tak że przechowywane były tylko te, które dotyczyły podejrzanych.

Departament Sprawiedliwości nie zajął jeszcze stanowiska wobec nowych metod działania FBI. Budzą one jednak poważne wątpliwości. Prawo federalne przewiduje bowiem, że agenci FBI mają obowiązek „minimalizowania przechwytywanej komunikacji i ograniczania jej do osób objętych śledztwem”.

Tę zasadę „minimalizowania” wprowadzono po to, by służby mundurowe dawały nawet osobom podejrzanym maksimum prywatności i by nie mogły monitorować konwersacji nie związanych ze śledztwem. Ponadto muszą na bieżąco informować o danych uzyskanych w ten sposób sędziego, który wydał zgodę na podsłuch. W przypadkach gdy wydana zostaje taka zgoda, przed założeniem podsłuchu każdorazowo ustalane są zasady jego prowadzenia. Zwyczajowo przewidują one, że jednorazowo agenci mogą przysłuchiwać się rozmowie przez dwie minuty, a pomiędzy kolejnymi „sesjami podsłuchowymi” musi minąć co najmniej minuta. Ponadto prawo mówi o podsłuchu w czasie rzeczywistym i nie przewiduje tworzenia bazy danych z tysiącami innych rozmów.

Służby specjalne, a obecnie i FBI, powołują się jednak na przepis, który zezwala na zachowywanie takich danych w przypadku przechwycenia rozmowy zakodowanej lub prowadzonej w obcym języku. Wówczas dane można składować, a „minimalizacji” należy dokonać najszybciej jak to tylko możliwe.

Prawnicy, sędziowie, obrońcy praw obywatelskich, agenci NSA i FBI różnie interpretują te same przepisy. Zapewne więc w najbliższym czasie będziemy świadkami sporów prawnych, w wyniku których zostanie ustalone, w jakim stopniu i kogo można podsłuchiwać w Internecie.

żródło: cNET

Ojciec Internetu ostrzega

Vint Cerf, twórca stosu protokołów TCP/IP, jeden z ojców Internetu ostrzega, że Internet znajduje się w niebezpieczeństwie. Przemawiając podczas Światowego Forum Ekonomicznego Cerf wyraził opinię, że Sieci zagrażają botnety.

Botnety to sieci komputerów-zombie, czyli maszyn które bez wiedzy właściciela są kontrolowane przez cyberprzestępców. Sieci takie wykorzystywane są do rozsyłania spamu, szkodliwego oprogramowania oraz przeprowadzania ataków typu DDoS.

Zdaniem Cerfa aż 150 milionów pecetów jest zarażonych i stanowi część jakiegoś botnetu. Oznaczałoby to, iż zarażony jest co czwarty komputer podłączony do Sieci.

Mark Sunner, główny analityk ds. bezpieczeństwa w MessageLabs uważa, że naszkicowany przez Cerfa obraz jest prawdziwy. Sunner mówi, że niedawno specjaliści mogli obserwować tworzenie i pracę botnetu Spam Thru.

Jego twórcy nie tylko wyposażyli go w oprogramowanie antywirusowe, które chroniło go przed innymi botnetami, ale okazało się również, że jest on 10-krotnie bardziej wydajny od konkurencji, a przy tym trudniejszy do wykrycia.

Zdaniem Sunnera Spam Thru to był jedynie test, który zapowiada to, co czeka nas w przyszłości. Botnety osiągnęły kamień milowy na drodze swojego rozwoju. Są bardzo zaawansowane technologicznie, mniejsze, trudniejsze do wykrycia i bardziej wydajne niż dotychczas.

źródło: ZDNet | kopalniawiedzy.pl

Vista sobie nie radzi?

Firma Webroot Software twierdzi, że Windows Vista nie potrafi bronić się przed szkodliwymi programami. Przedsiębiorstwo przeprowadziło testy z udziałem 15 najbardziej rozpowszechnionych obecnie robaków, wirusów i koni trojańskich. Wynika z nich, że 84% szkodliwego kodu jest przepuszczanych przez systemy ochronne Visty.

Wynik taki jest niezgodny z wynikami testów przeprowadzanych przez inne firmy, w których Vista wypadała lepiej. Dlatego też Webroot uznało, że wcześniej Vista była przeceniana.

Mamy więc do czynienia z kolejną odsłoną informacyjnego zamieszania wokół Visty.

Microsoft naraził się niektórym dużym twórcom oprogramowania zabezpieczającego ogłaszając, że ze względów bezpieczeństwa dostęp do jądra 64-bitowej edycji systemu będzie całkowicie zablokowany.

Wielcy twórcy oprogramowania oskarżyli wówczas firmę z Redmond o to, że prowadzi działania monopolistyczne chcąc w ten sposób promować własne programy zabezpieczające. Giganta niespodziewanie wzięły w obronę mniejsze firmy antywirusowe, które zauważyły, że ich programy bez najmniejszego problemu współpracują z Vistą, a więc dostęp do jądra systemu nie przeszkadza w stworzeniu dobrze działającej aplikacji.

Później dowiedzieliśmy się, że firma Sophos przeprowadziła badania, z których wynikało, że 2 na 10 współczesnych robaków potrafią zagrozić Viście. Odpowiedział na to Jim Allchin, wiceprezes Microsoftu, który powiedział, że za sytuację taką odpowiadają źle napisane aplikacje firm trzecich.

Obecnie na zarzuty firmy Webroot odpowiada rzecznik prasowy koncernu z Redmond: Windows Vista jest najbezpieczniejszym systemem z rodziny Windows. Należy jednak zauważyć, że nie istnieje w 100 procentach bezpieczny system operacyjny. Firma po raz kolejny zaleciła użytkownikom swojego OS-u, by stosowali oprogramowanie antywirusowe i inne aplikacje zabezpieczające.

Domowa wersja Windows Visty zadebiutuje jutro, 30 stycznia. Dopiero po kilku miesiącach dowiemy się, na ile w rzeczywistości system ten jest bezpieczny.

źródło: Vnunet | kopalniawiedzy.pl