sobota, 30 czerwca 2012

Koniec PC? - jeszcze nie czas

Dotychczas niewiele firm korzysta w jakikolwiek sposób z technologii zwirtualizowanych stacji roboczych. Jak uważają analitycy, widać pewne oznaki ożywienia rynkowego, ale wciąż nie są one wystarczające, aby określić, czy pójście w kierunku wirtualnym to istotny trend.

Pojawiają się coraz to doskonalsze i dojrzalsze rozwiązania na tym rynku. Poprawiła się także ich wydajność, dzięki zastosowaniu przez wiodących producentów, takich jak VMware czy Citrix, specjalizowanych protokołów dostarczania obrazu wirtualnych maszyn (PC over IP lub HDX). Szacuje się jednak, że na naprawdę dojrzałe systemy zunifikowanego zarządzania, obsługujące stacje robocze, urządzenia mobilne, serwery i chmurę, przyjdzie nam jeszcze poczekać jeszcze rok lub dwa. Według analityków z ABI Research, rynek wirtualnych desktopów sięgnie w roku 2016 wartości 5 miliardów dolarów.


Polecamy Serwery "zombie" w centrum danych


Architektura systemu VMware View 5Przejście na Windows 7 nie okazało się długo oczekiwanym punktem zwrotnym we wdrożeniach VDI. Cena zmiany sprzętu i oprogramowania jest porównywalna z kosztem budowy infrastruktury i serwerów wymaganych przez technologię wirtualną. Oczekiwany w końcu tego roku Windows 8 również nie będzie okazją do szybkiej migracji na wirtualne desktopy. Ma on mieć wbudowany mechanizm wirtualizacyjny Hyper-V, który do desktopowego systemu wprowadza wirtualizację, co staje niejako w sprzeczności z koncepcją VDI.


"Komputer stacjonarny jest wykorzystywany w najbardziej wyspecjalizowanych pracach, takich jak obróbka zdjęć czy grafiki. Wymagający grafik, fotograf czy projektant 3D zgodzą się ze stwierdzeniem, że w ich pracy niezbędny jest komputer stacjonarny ze wszelkimi wartościami dodanymi: wydajnością i sporymi możliwościami modyfikacji" - zwraca uwagę Marcin Piszczek, Country Product Manager w ASUS Polska. - "W korporacjach, które zatrudniają tysiące ludzi i mają nie mniej stanowisk roboczych, desktopy są znacznie bardziej korzystnym cenowo rozwiązaniem. Kolejną kwestią, która ma spore znaczenie w tym przypadku, jest koszt serwisu tych urządzeń. W przypadku komputera stacjonarnego wymiana jednego wadliwego komponentu jest tańsza niż zakup nowego urządzenia.


Polecamy BYOD prekursorem desktopów open source?


Ostatecznie jednak VDI zwycięża, jeśli chodzi o zwrot z inwestycji, dzięki znacznemu ograniczeniu kosztów suportu desktopów. Koszty pracy przy uruchamianiu i serwisowaniu serwera, który może zastąpić 20-30 maszyn, są znacznie mniejsze niż przy instalacji, obsłudze czy aktualizacji takiej liczby komputerów. Technologia VDI oferuje także wyższe bezpieczeństwo danych poprzez centralizację zarządzania - w tym możliwość wymuszenia określonych reguł, uporządkowanie kwestii backupu na poziomie serwera.

IPv6 a sprawa polska

Adresy IPv4 stały się towarem deficytowym. 31 stycznia 2011 r. organizacja IANA (Internet Assigned Numbers Authority) przydzieliła dwa ostatnie bloki adresów IPv4 dla APNIC - RIR (Regional Internet Registry), rejestratora domen z regionu Azji i Pacyfiku. Oznacza to, że IANA nie ma więcej dostępnych puli adresów IPv4, które można by przydzielić pięciu regionalnym rejestratorom na różnych kontynentach.

Polecamy IPv6: internetowego końca świata w 2012 nie będzie


Wprowadzanie 6. wersji protokołu IP obecnie ma bardzo duże znaczenia dla rozwoju internetu. Lokalne organizacje RIR współpracują w zakresie rozwiązań IPv6 z operatorami na poziomie lokalnym, regionalnym oraz globalnym. Konieczne jest wypracowanie mechanizmów pozwalających na przygotowanie operatorów na brak adresów IPv4.


Wdrażanie IPv6 na świecie


Na razie niewielu internautów używa IPv6Dostawcy usług szerokopasmowych, których rozwój zależy od dostępu do nowych adresów IP, jako pierwsi poczuli zagrożenie brakiem adresów IPv4. To właśnie oni na dobre rozpoczęli tworzenie planów wdrożenia i rozwoju IPv6. Na świecie większość dużych ISP (w tym: AT&T, Comcast, Cox Communications, France Telecom/Orange, Telecom Italia, T-Mobile, Verizon) aktywnie wdraża IPv6 we własnych strukturach szerokopasmowych. W odpowiedzi na ich potrzeby producenci sprzętu dostarczają coraz więcej rozwiązań obsługujących IPv6. Czołowi dostawcy treści także wprowadzają opcję IPv6 na obsługiwanych serwerach. Pozwala to udostępniać zasoby zarówno użytkownikom IPv6, jak i IPv4.


Polecamy World IPv6 Launch - dużo hałasu, efektów brak?

Dlaczego nie warto zwlekać z wdrażaniem IPv6?Jest co najmniej kilka powodów, dla których warto zabrać się do wdrożenia IPv6 już teraz. Stopniowe wprowadzanie IPv6 oznacza znacznie mniejsze koszty implementacji niż robienie tego później jednorazowo. Ćwicząc obsługę IPv6 na niewielkim odcinku sieci, możemy zyskać doświadczenie, które potem pozwoli unikać problemów przy wdrażaniu nowego protokołu w całej sieci. Możemy także sprawdzić sprzęt na zgodność z protokołem IPv6, a w razie problemów zaplanować jego wymianę. Operatorzy doskonale wiedzą, że dysponując wręcz nieograniczoną liczbę adresów dostępnych przez internet, mogą zaoferować nowe usługi, które pozwolą zwiększyć przychód z klienta.Dostawcy usług szerokopasmowych rozumieją jednak, że większość treści w internecie nadal będzie dostępna tylko przez IPv4. Problemem może być - wobec przydziału adresów IPv6 dla nowych klientów - dostęp do tej zawartości. Nie wszystkie sposoby rozwiązania tego dylematu mogą się sprawdzić.

Jedną z opcji jest tradycyjna translacja adresów NAT, która pozwala na przydzielanie klientom publicznego adresu IPv6 oraz prywatnego adresu IPv4. Jest ona określana często jako podwójny stos (DualStack). Inną możliwością jest NAT64, pozwalający na komunikację urządzeń IPv6 ze sprzętem korzystającym z IPv4. Oba rozwiązania mają pewne problemy z aplikacjami (m.in. VoIP czy gry online). Mechanizmy te mogą także wpływać na wydajność całej komunikacji. Nie będą również działały aplikacje rozpoznające użytkownika, ponieważ będzie on ukryty za centralnym NAT.

niedziela, 24 czerwca 2012

Pojedynek smartfonów i mobilnych OS-ów

Zanim zajmiemy się testowaniem smartfonów, przyjrzyjmy się statystykom rynkowym. W końcu liczby pokazują najlepsze rozwiązania - jedne dzięki swojej innowacyjności i użyteczności, inne dzięki marketingowi. Na jedne i drugie użytkownicy głosują portfelami.

Raport firmy analitycznej Gartner (listopad 2011 r.) wykazał znaczny wzrost popytu na smartfony. W III kw. ub. r. sprzedano ich aż 115 mln, o 42% więcej niż rok wcześniej. Liderem na rynku producentów został Samsung, który w ciągu 12 miesięcy oddał w ręce użytkowników trzykrotnie więcej smartfonów (24 mln sztuk). Wzrost popularności koreański koncern zawdzięcza m.in. udanym urządzeniom serii Galaxy. Analitycy podkreślają jednak, że miejsca na ścisłym podium zaawansowanych smartfonów będą się zmieniać, głównie za sprawą kolejnych spektakularnych premier (np. wprowadzenie na rynek iPhone’a 4S w październiku 2011 r. z pewnością wpłynęło na sprzedaż w IV kw. ub. r.).


Polecamy Smartfony, tablety i bezpieczeństwo firmy


Drugie miejsce w tej nieustającej rywalizacji przypadło firmie Apple, która w III kw. 2011 r. sprzedała 17 mln sztuk iPhone’ów, o 21% więcej niż rok wcześniej. Specjaliści wskazują, że dla koncernu coraz ważniejsze są rynki zbytu potężnych krajów rozwijających się. W Brazylii, Meksyku, Rosji i Chinach już obecnie sprzedaje się 16% wszystkich iPhone’ów. Inwestując w trudniejsze rynki Apple musi płynnie kształtować swoją politykę cenową.


Konkurencja wśród producentów smartfonów sprawia, że powstają innowacyjne rozwiązania, które mają szansę stać się przebojem kolejnych miesięcy. Mniej widowiskowy, choć niezmiernie ważny, jest wyścig o najlepszy mobilny system operacyjny. Wymagania użytkowników są coraz większe, stale rośnie również liczba aplikacji gotowych do zainstalowania i usług dodanych, oferowanych przez producentów oraz operatorów.


Według informacji Gartnera, III kw. 2011 r. był znaczący dla firmy Google i jej platformy mobilnej Android. Po kilku latach starań udziały rynkowe tego systemu przekroczyły 50%. Zbiór szacunkowych danych, określających faktyczne zainteresowanie Androidem, robi wrażenie nawet na osobach niezwiązanych bezpośrednio z branżą. Pod koniec listopada 2011 r. w użyciu było ponad 200 mln urządzeń obsługiwanych przez system Google Android, a liczba pobrań aplikacji z Google Play (dawny Android Market) przekroczyła 10 mld!


Mimo, iż od kupienia przez Google firmy Android upłynęło mniej niż 7 lat, to sam system w jednym tylko roku obrachunkowym przyniósł koncernowi 2,5 mld przychodów (przede wszystkim dzięki reklamom). Eksperci są przekonani, że rok 2012 również będzie należał do Androida, tym bardziej, że rośnie jego rola w biznesie.


Na drugim miejscu w zestawieniu Gartnera dotyczącym platform mobilnych znalazł się Symbian. System ten jest wciąż obecny na rynku (16,9% udziałów) dzięki popularności smartfonów Nokii. Fiński koncern zapowiedział jednak, że rezygnuje z dalszych prac nad rozwojem swego systemu, decydując się na integrację z Windows Phone (Microsoft). Koniec 2012 r. może zatem oznaczać zupełne zniknięcie Symbiana z rynku.


Polecamy 5 trendów w świecie smartfonów


Wówczas jego miejsce zajmie iOS (Apple), który już obecnie jest głównym konkurentem Google Android. W III kw. 2011 r. udziały rynkowe iOS wynosiły 15%, jednak były one szacowane jeszcze przed premierą iPhone’a 4S. Najnowszy smartfon Apple’a odniósł duży sukces już w kilka dni po premierze (ponad 4 mln sprzedanych sztuk w ciągu 3 dni od daty premiery). Według najbardziej optymistycznych prognoz, w 2012 r. nowych nabywców może znaleźć ponad 95 mln sztuk iPhone’a 4S, co znacznie zmieni obraz rynku smartfonów.


Specjaliści Gartnera wskazują ponadto, że wciąż relatywnie mocną pozycję na rynku (11%) mają urządzenia Research In Motion BlackBerry, które stosowane są jednak głównie w biznesie. Udziały Windows Phone (Microsoft) są znikome, ale prace nad rozwojem i popularyzacją tej platformy wciąż trwają.


Kliknij, aby powiększyć

Bezpieczny roaming Wi-Fi

Roaming Wi-Fi jest dosyć skomplikowanym procesem, polegającym na przełączaniu uwierzytelnionego klienta sieci bezprzewodowej między punktami dostępowymi w ramach jednorodnej infrastruktury bezprzewodowej. Przyczyna złożoności roamingu wynika głównie ze zróżnicowania strategii bezpieczeństwa w infrastrukturze bezprzewodowej.

Polecamy Jak zabezpieczyć sieć WiFi w firmie?

Bezpieczne i szybkie przełączanie ma szczególne znaczenie przy obsłudze aplikacji wrażliwych na opóźnienia, takich jak aplikacje głosowe czy wideo, ale także systemy ERP/CRM.

Jak realizowane jest przełączanie?

Standardowe przełączanie w sieci bezprzewodowej przebiega w bezpieczny, ale dosyć powolny sposób. Klient Wi-Fi przemieszcza się z obszaru znajdującego się w zasięgu punktu dostępowego A, do obszaru w zasięgu punktu dostępowego B. Jeżeli każdy punkt dostępowy znajduje się w tej samej podsieci IP, mamy do czynienia z przełączaniem w warstwie drugiej (L2).

Przełączanie (roaming) w warstwach L2/L3Kliknij, aby powiększyćPrzełączanie (roaming) w warstwach L2/L3Warto pamiętać, że przełączanie realizowane jest po stronie klienta, który odpowiada za wyszukanie, negocjacje oraz przełączenie do punktu dostępowego. Proces przełączania następuje w momencie, gdy klient traci łączność z danym punktem dostępowym. Utrata łączności może nastąpić na skutek różnych sytuacji, np. przemieszczenia się poza zasięg danego punktu dostępowego lub wykrycia punktu dostępowego o lepszych parametrach.

Inny przypadek to, gdy klient Wi-Fi utraci połączenie i konieczne będzie przeprowadzenie ponownej asocjacji dla danego punktu dostępowego. Sytuacja ta występuje wtedy, gdy pojawią się interferencje, duża liczba błędnych ramek itp. W momencie utraty łączności z danym punktem dostępowym, klient skanuje cały zakres częstotliwości, odkrywając sąsiadujący punkt dostępowy o możliwie najlepszych parametrach. Kryteria wyboru nowego punktu dostępowego zależą od producenta sprzętu.

Polecamy Bezpieczeństwo WiFi - bezprzewodowe testy penetracyjne

Po przyłączeniu się do nowego punktu dostępowego, realizowane jest uwierzytelnianie - w standardowym modelu poprzez protokół 802.1X. Czas potrzebny na ten proces będzie w środowisku 802.1X znacznie dłuższy niż w sieciach otwartych lub opartych na PSK (Pre-Shared Keys). Aby więc uzyskać szybsze przełączanie, warto skorzystać z innych mechanizmów niż 802.1X (o czym dalej).

Punkt dostępowy, do którego przełączył się nasz klient, rozsyła ramkę rozgłoszeniową MAC do urządzeń sieciowych, wykorzystując adres źródłowy przełączającego się klienta. Ramka powoduje aktualizację tablic CAM wszystkich urządzeń, m.in. przełączników na trasie między punktami dostępowymi. Informowany jest także poprzednio wykorzystywany punkt dostępowy.

Android - kolos na glinianych nogach?

Mimo że Google wydał miliardy dolarów na rozwój platformy Android to zaangażowanie i przywiązanie koncernu do tego systemu operacyjnego nie wydaje się zbyt mocne. W ub. r. przychody z Androida, generowane przez używanie mobilnej wyszukiwarki Google w smartfonach (reklamy), wyniosły ok. 500 mln dolarów. W odniesieniu do prognozowanych, łącznych przychodów giganta z Mountain View, liczonych na 40 mld USD, jest to mniej niż 1,5%.

Warto wiedzieć, że jeszcze do niedawna więcej korzyści firmie przynosili użytkownicy iPhone’ów i iPad-ów. Obecnie szacuje się, że Android delikatnie wysuwa się na prowadzenie. Trudno jednak oczekiwać, że to zmieni podejście koncernu do Androida. Wyraźnie widać, że dla Google bardziej liczy się efekt skali niż wyznaczanie klarownej ścieżki rozwoju mobilnej platformy.

Lojalności nie powinno się również spodziewać po dostawcach sprzętu, na którym instalowany jest system Android. Duża aktywność producentów smartfonów i tabletów podyktowana jest przede wszystkim chęcią zysku. Według analityków, najbardziej innowacyjną firmą w zakresie wprowadzania autorskich poprawek do Androida jest Samsung.

Asortyment produktów koreańskiego koncernu dalece jednak wykracza poza platformę mobilną Google. Firma inwestuje w rozwój własnego systemu Bada, który wskutek niedawnych decyzji zostanie połączony z opartą na Linuksie platformą Tizen (następca MeeGo). Samsung oferuje również smarftony oparte na Windows Phone, co dodatkowo uniezależnia tę firmę od jednego dostawcy konkretnego systemu operacyjnego.
Ekspansja innych producentów, szczególnie tych zlokalizowanych w Azji, przyczyniła się do powstania dobrze znanych problemów z aktualizacją Google Android. Aby zachęcić klientów do częstego wymieniania smartfonów zwlekają oni z publikowaniem nowszych wersji systemu mobilnego lub wręcz uniemożliwiają jego instalację na starszych urządzeniach.

Platformie Android może także zaszkodzić ewentualna przegrana w toczącym się procesie między Google a Oracle o naruszenie praw autorskich, związanych z użyciem języka Java podczas projektowania systemu. Firma Oracle pokazała już w przeszłości, że umie wygrywać podobne spory. Kilka lat temu firmie SAP nakazano wypłacić Oracle 1,3 mld USD za naruszenie własności intelektualnej (kolejne odwołania SAP znacznie zmniejszyły tę kwotę, ale wymowa wyroku została utrzymana). Jeśli Google przegra proces to na open-source’owych hasłach promujących platformę Android powstanie wyraźna rysa, a motywacja koncernu do inwestowania w mobilny system operacyjny może zmaleć jeszcze bardziej.

Pomimo tych niepokojących znaków, przyszłość Androida ostatecznie będzie jednak zależeć od użytkowników. A jak na razie na ich wielkie poparcie platforma ta może liczyć.

Ochrona wrażliwych danych w przedsiębiorstwie

Jednym z zasadniczych celów zabezpieczania systemów komputerowych jest ochrona wrażliwych danych przed dostaniem się ich w niepowołane ręce w wyniku niezamierzonych lub świadomych i złośliwych działań. Kontrola (obejmująca: monitorowanie, szyfrowanie, filtrowanie i blokowanie wrażliwych informacji zawartych w danych spoczynkowych, danych w ruchu oraz danych w użytkowaniu) - to najważniejszy element ogólnej strategii zabezpieczania danych. Wśród różnych rozwiązań wykorzystywanych do ochrony danych ważną rolę odgrywają systemy DLP (Data Leak Prevention).

Polecamy DLP - komercyjnie i za darmo

DLP stosuje się, aby wykrywać i zapobiegać wyciekom wrażliwych danych poza fizyczne i logiczne granice przedsiębiorstwa lub obszary stanowiące granicę dla tych danych. Dane mogą być zagrożone na różne sposoby. W ostatnich latach byliśmy świadkami spektakularnych wycieków danych. Kradziono wrażliwe dane finansowe lub ujawniano tajne dokumenty rządowe (por. ramka).

Wycieki informacji - głośne incydenty z ostatnich lat• Portal WikiLeaks ujawnia w 2010 r. ponad 200 tys. tajnych dokumentów dyplomatycznych Stanów Zjednoczonych. Udostępnione informacje okazały się kłopotliwe dla rządów wielu państw i spowodowały dużo zamieszania w światowej dyplomacji. Wyciek był dziełem tylko jednego człowieka - szeregowego Bradleya Manninga, który miał nieograniczony dostęp do sieci przesyłowej tajnych protokołów dyplomatycznych. Incydent unaocznił, jak wielkie szkody może poczynić jeden człowiek.

• Na początku 2011 r. koncern Sony zagroził sankcjami prawnymi nastolatkowi oskarżonemu o wykonywanie nielegalnych modyfikacji sprzętowych w konsoli do gier. W odwecie hakerzy wzięli na cel giganta elektroniki konsumenckiej. Podczas jednego z ataków wykradziono dane ponad 100 mln klientów Sony.

• W marcu 2011 r. RSA, obecnie dział bezpieczeństwa EMC, stał się ofiarą ataku, który naraził kluczowe komponenty jego rozwiązania do zabezpieczania danych SecurID. Napastnicy wysyłali do pracowników RSA e-maile z załącznikami zawierającymi eksploit zero-day. Incydent ten spowodował znaczące szkody u klientów RSA, którzy byli atakowani z wykorzystaniem informacji uzyskanych w wyniku pierwotnego ataku. Z tego powodu wielu użytkowników zrezygnowało z używania SecurID, co odbiło się znacząco na dochodach firmy.

W raporcie o naruszeniach danych, opublikowanym w 2011 r. przez amerykańskiego operatora Verizon, można znaleźć wiele interesujących statystyk dotyczących zagrożeń dla danych. Raport omawia ok. 800 takich incydentów.

Niemal każdy dostawca systemów do ochrony sieci oferuje jakąś formę narzędzi DLP. Różnorodność dostępnych rozwiązań jest duża - od prostego szyfrowania, po narzędzia do rozpoznawania danych i agenty do monitorowania desktopa, bram WWW i poczty elektronicznej, analizatory sieciowe itp. Więksi dostawcy - CA, McAfee, RSA, Symantec, Websense - oferują pełne zestawy narzędzi, traktując ochronę sieci kompleksowo. Spróbujemy bliżej przyjrzeć się problemom związanym z wdrażaniem DLP.

Broadband, czyli jak szybko?

Łącze szerokopasmowe, czyli jakie?

Definicja szerokiego pasma transportowego nigdy nie była jednoznaczna, gdyż w miarę modernizacji technologii przesyłowych oraz rosnącego apetytu klientów, przepustowość kanału systematycznie ewoluowała w górę. W odróżnieniu od wąskopasmowych linii do transportu głosu (64 kb/s), pierwsze "szerokopasmowe" łącza tworzone na liniach telefonicznych udostępniały przekaz danych z szybkością najpierw 384 kb/s (6x64 kb/s), a następnie do 1920 kb/s (30 kanałów B) w technologii z integrowaniem usług ISDN PRA (Primary Rate Access). Po uwzględnieniu synchronizacji łączna przepustowość takiego traktu wyniosła 2048 Mb/s. Od lat stanowi ona podstawowy kanał dostępu szerokopasmowego (2 Mb/s) w przedsiębiorstwach, z przeznaczeniem do wymiany danych i wdrażania internetowych usług multimedialnych.


Dostęp do internetu można podzielić na trzy klasy szybkości: szerokopasmowy, lecz "wolny" poniżej 2 Mb/s (zwykle 512 lub 1024 Mb/s), szybki o przepustowości 2-30 Mb/s (typowo 6 Mb/s lub 8 Mb/s) oraz bardzo szybki, pozwalający na transmisje powyżej 30 Mb/s (praktycznie do 100 Mb/s). Ta nieformalna klasyfikacja nie jest jednak spójna, gdyż w wielu państwach europejskich za szerokopasmowy dostęp przyjmuje się przepustowość niewiele ponad 1 Mb/s, natomiast Komisja Europejska oficjalnie podaje w swych statystykach, że do świadczenia szerokopasmowego internetu wystarczy łącze o przepustowości nie mniejszej niż 144 kb/s. Dzisiaj wiadomo, że powszechny, ale "wolny" dostęp szerokopasmowy - nawet 512 kb/s - nie może zaspokoić ani bieżących, ani przyszłych potrzeb aktywnych użytkowników internetu.


Instalacje szerokopasmoweKliknij, aby powiększyćInstalacje szerokopasmoweO ile w biznesie przepustowość 2 Mb/s jest wystarczająca do efektywnego działania większości aplikacji firmowych, o tyle użytkownik domowy ma bardziej wyrafinowane potrzeby. Wzrost tych wymagań wiąże się z innym charakterem korzystania z internetu w domu, np. poprzez sesje wideo. W miarę usprawniania wideoterminali oraz powiększania się grona użytkowników usług IPTV, zainteresowanie szerszym pasmem staje się oczywiste. Sprzyjają temu również popularne gry online czy korzystanie z interaktywnych aplikacji, a także usług oferowanych abonentom mobilnym.


Domowy internauta liczy na dostęp na poziomie 25-30 Mb/s, a wkrótce, żeby skorzystać z zaawansowanych wideousług, będzie potrzebował przepustowości sięgającej 100 Mb/s. Wobec rosnącej liczby takich klientów, a w rezultacie nasilania się zmiennego i mało przewidywalnego rozkładu i natężenia obciążeń pasma - modernizacja szkieletu i zwiększenie przepustowości sieci dostępowej stają się niezbędne.


Zapotrzebowanie na pasmo w sieciach LAN/MAN stale rośnie, jednak wyzwaniem dla operatorów jest nie tyle nagły wzrost liczby klientów, ile częste korzystanie przez nich z multimediów w technologii streamingowej, pozwalającej na dostarczanie cyfrowych treści w czasie rzeczywistym. Według Nokia Siemens Networks, za 10 lat każdy użytkownik telefonu komórkowego lub tabletu będzie codziennie transmitował ok. 1 GB danych. Tradycyjne sieci szkieletowe nie są w stanie zaspokoić takiego zapotrzebowania na pasmo, stąd konieczność ich modernizacji.

Wiadomości świat sony ericsson Artykuły biurowe Zbiornik Reklamy Cycki Odloty