Провайдер 1 Гбіт с. Чому великі провайдери інтернету відмовилися від високошвидкісних тарифів


Ми з котом трохи «розігнали» виту пару, що приходить в квартиру

Зазвичай вважається, що «стелю» DSL - 20-30 Мбіт / с, FTTB (оптика до будинку плюс кручена пара до квартири) - 100 Мбіт / с, а PON підтримує швидкості вище 100 мегабіт. Ми з колегами вирішили розвіяти міфи і «розігнати» FTTB для окремо взятого провайдера.

Насамперед ми полізли на горище в будинку. Вже зараз до нас в кожен дім приходить не менше 1 Гбіт / с, а на домовому вузлі є відповідний гігабітний «мідний» порт. Тобто ми можемо просто взяти і перемкнути будь-яку квартиру, де лежить наш кабель, в відповідний порт і забезпечити швидкості більш 400 Мбіт / с.

Власне, ми це вже зробили в рамках бета-тестів, а днями запустили в комерційну експлуатацію послуги в Москві з новими швидкостями. Так, ви, швидше за все, можете підключитися.

Що це було, кеп?

  Наша магістральна і міська мережі мають запас вільної ємності, значно перевершує потреби клієнтів навіть у години найвищої, максимально можливого навантаження. Взяти хоча б гаряче улюблений мною і котом свято Новий рік, в який більше привітань отримують ті бабусі, які вже подружилися з інтернетом і «скайп».

В чому різниця з PON

  У тому, що наша FTTB-мережа, що дозволяє все це зробити, вже існує. Ніяких модифікацій не потрібно. Кабель вже заходить в вашу квартиру. Всі дроти лежать. Оптика проходить до вузлів в будинках. Потрібно просто взяти і перемкнути кабель в інший порт комутатора. Усе! До вас вже підходить такий канал, але ви про це не знали. А PON потрібно будувати - це нова інфраструктура по всьому місту. Там є ще одна засада - від районних АТС розходяться оптичні жили, які вимагають пропрієтарних ж клієнтських пристроїв. А у нас зі звичайною FTTB-мережею можна використовувати що завгодно. Хоча адаптованих під L2TP пристроїв небагато.

Як це працює

  З магістрального кільця на рівень міста приходить здоровенний транспортний канал. Далі по місту розходиться кілька великих кілець. Від них - кільця або mesh-структури поменше, на рівні під'їздів робляться «зірки». Від першого рівня до шафи в під'їзді йдуть оптичні транспортні лінки. На комутаторі рівня доступу, ми перекоммутіруем кабель в гігабітний порт ... і все, у нас тепер є гігабітний лінк до клієнта.

Це результати мого колеги без кота, зате з Wi-Fi (801.11 ac).

Технічна можливість

  Після того, як я зміг перевірити це на декількох точках, ми встановили такі лінки для всіх співробітників компанії, що працюють над проектом. Досить швидко, треба сказати. Технічних обмежень майже немає: єдине, є буквально пара десятків кварталів в Москві, де потрібно небагато модернізувати обладнання, але ми вже працюємо над цим.

ще обмеження

  Ви будете сміятися, але ми не знайшли способів утилізувати такі швидкості. Так ось, виявилося, що забити такий канал можна тільки дуже специфічними завданнями - це або CCTV з купи камер, або HD-відео на всіх членів сім'ї одночасно, або завдання фотографа, що заливає кудись картинки. Ще - мережеві диски. Загалом, за винятком торрентів - мрія провайдера: клієнт один раз в день робить «вжух» з важким файлом і дико радіє.

Зате виник ряд інших речей, які безпосередньо стосуються маркетингу. Перше - майже всі ресурси віддають контент куди повільніше, ніж дозволяє приймати канал. Це вічна проблема «чому у мене гальмує Інтернет, а тести показують нормальну швидкість». Тому що потрібні ресурси, здатні забезпечити великій кількості клієнтів віддачу контенту на високій швидкості. Так що кому-то доведеться розпрощатися з ілюзіями, далеко не кожен ресурс відповідає даним вимогам.
  100Мбит / с - це вже дуже швидко для з'єднання з Інтернет для переважної більшості користувачів. Швидкості ще вище можуть знадобитися тим, хто змушений працювати з файлами дуже великого обсягу.


На цій фотографії правильно все, включаючи роутер

До десктопу або ноутбука лінк повинен підходити міддю - Wi-Fi, тим більше, в умовах перешкод від інших мереж, просто не дозволить роздати канал на такій швидкості. Тому оптимальний варіант - десктоп на кабелі, планшети і телефони - по повітрю.

Самі кінцеві пристрої теж можуть різати трафік. Природно, у вас повинен бути пристрій, що підтримує 400 Мбіт / с (роутер або мережева карта). В беті, правда, розкрилася пара сюрпризів з тим, що реально тримати такий трафік можуть не всі пристрої, незважаючи на заяви про це.

тести

  Тут починається найцікавіше. Ми взяли 10 високопродуктивних пристроїв з підтримкою L2TP.

Гігабіт це швидко, особливо для домашнього використання, тому і роутери повинні бути відповідні. Скажу відразу - все моделі охопити і оперативно протестувати не представлялося можливим, тому ми орієнтувалися на підтримку гігабітного підключення, дводіапазонного Wi-Fi і хороших відгуків від користувачів.

Наш шорт-лист:
   Asus RT-68U
   D-Link DIR 825 D1
   Pre-sale зразок від нового виробника Totolink
   Zyxel Keenetic Ultra
   Apple Air port Time capsule

Як тільки я протестував пристрою за нашими чекліст в офісі, прийшов час тестувати пристрої в польових умовах, тут можна оцінити реальну продуктивність пристрою.

Для цього дійства я постарався підготуватися грунтовно, взяв MacBook Pro 15 retina (late 2012) - основний робочий ноут, в окремий десктоп встромив SSD на 128GB і до купи підключив туди Wi-Fi адаптер Asus PCE-AC68 щоб ніщо не заважало розганятися, так само взяв USB Wi-Fi адаптер Totolink A2000UA c підтримкою 802.11ac на всякий випадок. Крім цього захопив iPad mini, iPhone 5 і Samsung Galaxy note - на них будемо тестувати Wi-Fi.

Для перевірки швидкості, крім звичних ресурсів, таких як - speedtest та завантаження файлів, встановив Iperf на один з наших серверів, підключених по гігабітного лінку в нашу core-мережу. Начебто все, вийшло якось так:

Трохи про методику тестів

  У багатьох оглядах роутерів, які я бачив, зазвичай збираються стенди з програмами для генерації трафіку. Ми ж вирішили вчинити по-іншому: провести тестування так, як це буде робити абонент, який перевіряє швидкість нашого доступу в Інтернет.
  Основними інструментами виставили:
  1) Speedtest.net - без нього нікуди
  2) Mirror.yandex.ru
  3) Iperf - трохи синтетики
  4) Youtube

Список невеликий, але на цих ресурсах можна оцінити наскільки швидко працює доступ в Інтернет, так би мовити натуральний продукт і ніякої синтетики.

Приступаємо до тестів

  Для початку подивимося, які з Wi-Fi мереж вже є поруч

  «Народний» діапазон 2.4GHz - ні багато ні мало

5GHz - навіть сюди дісталися, але мереж не так багато, дві з них наші

Asus RT-68U


Топовий роутер від Asus. Начинка пристрою вселяє повагу: чіп від Broadcom BCM4708A, 256MB RAM, 128MB Flash, підтримка 802.11ac і Beamforming присутній.

Патч-корд: спідтест показав 224Mbps на завантаження і 196Mbps на Upload

Хороший результат, продовжуємо тестувати, на черзі Iperf.

На цьому тесті у нас сталося непередбачене. Чи то роутер почав "глючити", то чи iperf, але результати вище 50Mbps не піднімалися. Нічого страшного, давайте подивимося на більш життєвий тест - скачування файлу з Яндекса.

Практично 35МБ в секунду!

Я ще кілька разів прогнав тести, потім вирішив все ж почистити SSD, з такими швидкостями він швидко забивався.

Тепер поглянемо на те, як швидко працює Wi-Fi. Бездротова мережа, штука примхлива, і безліч чинників може впливати на кінцеву продуктивність. Ноутбук розташовувався в 4 метрах від роутера по прямій.

Спідтест показав практично 165Mbps на Download і 166 на Upload. Достойно! Особливо, коли мова йде про діапазон 2.4GHz

Iperf показав схожі значення:

Перемкнемося тепер на 5GHz. Оскільки роутер вміє працювати з 802.11ac, а мій робочий Macbook немає, я підключив зовнішній адаптер c підтримкою 802.11ac 2x2.

Підключення пройшло успішно ... Погляньмо на спідтест:

209Mbps на Download 111 на Upload, швидше за все 210Mbps це поточний стелю для продуктивності роутера по L2TP. Будемо сподіватися, що в нових прошивках Asus це виправить.

Iperf показав результати ще нижче:

D-Link Dir 825 D1

Наступний на черзі представник середнього цінового діапазону D-Link DIR825. Роутер обладнаний Dual-Band Wi-Fi модулем, що на поточний момент рідкість для середнього цінового діапазону. Подивимося на що здатний цей роутер.

Підключення через патч-корд

Перейдемо до тестування Wi-Fi мережі. У роутере встановлені дві антени Airgain, тому я очікую високі швидкості і по Wi-Fi.

Для мережі працює в діапазоні 2.4GHz:

Ця частота максимально завантажена, тому такий результат в принципі був очікуваним. Як же проявить себе 5GHz?

130-150Mbps. При детальному колупання налаштувань, з'ясувалося, що якщо відключати шифрування Wi-Fi мережі продуктивність збільшується. Звичайно, я не відкрив Америку, але на інших роутерах такої закономірності не вивів.

Переходимо до наступного піддослідному - Totolink

  Цей роутер має схожі характеристики з D-Link DIR 825, побудовані вони на одному і тому ж SoC - RTL8197D, але в це роутере радіомодуль підтримує 802.11ac. Цікаво буде оцінити його можливості в реальних умовах.

Патч корд:

ЕЕ ... ладно, залишу без коментарів.

Наближаємося до реальності.

Чесно кажучи, не думав, що «дідок» RTL8197D здатний в L2TP через себе прокачувати через себе на таких швидкостях. Від цього стає цікавіше результати тестування Wi-Fi мережі.

  «Народна» частота - 2.4GHz

І speedtest і iperf показали практично ідентичні результати.
  На 5GHz швидкість взагалі повинна бути позамежної! Напевно ...

А ось і ні, хоча підключення показувало що з'єднання встановлено зі швидкістю 867Mbps.

Iperf намагається спустити на землю, і це у нього непогано виходить.

Наш останній учасник марафону - Zyxel Keenetic Ultra

Популярна модель серед пристроїв L2TP. Добре «розганяється» і стабільно працює. Підключаємо патч-корд і запускаємо спідтест:

І скачаю вже став рідним, на час тестів, дистрибутив Fedorа:

На жаль, ця модель від Zyxel не підтримує 802.11ac, тому буду задовольнятися 802.11n. Приступаємо!

Подивимося на 5GHz

Ні багато ні мало - стандарт. Мене такий стан не влаштувало, і я вирішив підключити до роутера нову Time Capsule з підтримкою 802.11ac (досить умовною для РСТ-моделі).

Ось! Шкода що, що таймкапсулу виробники не кладуть в комплекті зі своїми роутерами.

А якщо міряти швидкість на телефоні / планшеті?

Більшість користувачів, особливо хто не знайомий з методологіями різних тестів продуктивності, і просто запускають додаток на своєму телефоні. Я теж так зроблю.

В наявності був iPhone, планшет і телефон на Android. Тестувати на кожному з роутере підключення, сенсу немає, тому я зупинився на останній моделі роутера.

Для 2.4GHz і 5GHz відповідно, тут ми вперлися в стелю продуктивності Wi-Fi модуля на телефоні. Девайси на Андройде показали приблизно ті ж результати, при цьому, на планшеті така швидкість була отримана при підключенні до мережі на 5GHz, на 2.4GHz швидше за все буде нижче:

Ну і тести на вулиці:

Що вийшло?

  Процес тестування нової послуги надзвичайно захопив нас з котом, так що в підсумку ми перевірили 10 роутерів різних виробників, цінових категорій з різною «начинкою». Ось найцікавіші:
  • Zyxel Keenetic Ultra
  • D-Link DIR825
  • Toto-Link
  • Asus RT-68U
  • Zyxel Keenetic Giga II
  • TP-Link Archer C7 v.1
  • D-Link DIR 850L
  • Buffalo WZR-1759DHP
  • Netgear R7000 «Highthawk»
  • Arcadian
  Так що якщо у вас вдома SSD або RAID з HDD, є хороший Wi-Fi роутер, і якщо ви вирішуєте специфічні завдання, що вимагають швидкого інтернету, то вам нова послуга буде корисна.

Ціна

  Послуга нова, опис на сайті з'явиться через пару днів. Вартість 1850 рублів на місяць, якщо без нашого роутера.

UPD, на прохання в коментарях:

Asus RT-68U D-Link DIR 825 D1 Toto-Link Zyxel Keenetic Ultra
По кабелю (WAN-LAN)
Speedtest D: 224,2 Mbps U: 196.77 Mbps
D: 352.16 Mbps U: 370.3 Mbps D: 462.6 Mbps U: 255.8 Mbps D: 408.22 Mbps U: 275.59 Mbps
Iperf 26.3Mbps 354 Mbps 379 Mbps ~ 35MB / s ~ 43 MB / s ~ 50MB / s ~ 52MB / s
Wi-Fi 2.4GHz
Speedtest D: 164.53 Mbps U: 165.68 Mbps D: 86.72 Mbps U: 57.82 Mbps D: 155.01 Mbps U: 118.62 Mbps D: 131.57 Mbps U: 113.53 Mbps
Iperf 140Mbps 52.5 Mbps 152Mbps 132 Mbps
Wi-Fi 5GHz
Speedtest D: 209.4 Mbps U: 111.38 Mbps D: 148.27 Mbps U: 149.45 Mbps D: 233 Mbps U: 132.76 Mbps D: 185.4 Mbps U: 181.07 Mbps
Iperf 163Mbps 130 Mbps 192 Mbps 171 Mbps

У минулому році всі великі провайдери раптом почали вводити тарифи із запаморочливою швидкістю. Триста мегабіт в секунду! П'ять сотень! Гігабіт! А потім потихеньку від них відмовилися. І зараз у мого улюбленого ОнЛайм максимум 100 Мбіт / с, у Білайну стільки ж (з одним застереженням, про яку трохи нижче), і у все ще чомусь живого Акадо 150 Мбіт / с, хоча останній може писати що завгодно, віриться все одно з працею.

Чому провайдери зрізали швидкість? На думку спадають різні варіанти, від дорожнечі інвестицій в мережеву інфраструктуру до наслідків санкцій. Але насправді все набагато, набагато простіше. Вийшло, як у відомому анекдоті, який люблю розповідати.

Леоніда Ілліча Брежнєва запитують:

- Чому в магазинах немає м'яса?

- Ми йдемо в комунізм семимильними кроками, скотина за нами не встигає.

Скотина - це рівень техніки, якої ми звикли користуватися.

Дотягнути гігабіт до квартири - завдання недешева, але абсолютно реальна. І швидкість цю забезпечити можна. Але ось потім починається нехороше.

Для прокачування навіть 500 Мбіт / с потрібен топовий роутер. Максимум річної давності. А краще зовсім свіженький. Інакше перегріється і захлинеться. Таких роутерів у населення на руках дуже мало. Таким мотлохом користуємося, що дух захоплює. Працює ж? Ну і нехай працює, чого міняти. Навіть гігабітні порти досі не скрізь є.

Для передачі даних з такою швидкістю по повітрю потрібна підтримка 802.11ac / І роутером, і, що важливо, кінцевим пристроєм. Тим часом, аж до теперішнього часу офіційні поставки ноутбуків з 802.11ac в Росію були заборонені через відсутність сертифікації Мінзв'язку. Так що тільки 802.11n і пікові 450 Мбіт / с, а насправді - близько 300. І навіть на нечисленних пристроях, ввезених "в сіру", пікова швидкість з'єднання рідко перевищувала 866 Мбіт / с.

І як все відбувалося на практиці?

Людина з роутером., Купленим п'ять років тому, і зоопарком техніки, що не підтримують 802.11ac, підключає гігабітний тариф і з обуренням зауважує, що швидкість-то не та! Більше 300 мегабіт не виходить ніяк! Обдурили, тварі криворукий! Починаються гнівні послання в форуми, листи і дзвінки в техпідтримку. З'ясувати причини того, що відбувається без візиту майстра неможливо. Так що і їх починають ганяти. Майстри кажуть користувачам - купуйте нові роутери, оновлюйте техніку. Це викликає нову хвилю обурень - ах ви тварі, не тільки гроші дерете щомісяця, так ще розводите на апаратуру! Так я вас засуджу!

Загалом, місяця через три такого бедламу провайдери зрозуміли, що нерви дорожче. І прибрали високошвидкісні тарифи з сайтів. Більшості користувачів, насправді, і 100 мегабіт дівати нікуди. І навіть 50. Так що зникнення тарифів ніхто особливо не помітив.

Мені пишуть, що невеликі провайдери ще намагаються продавати швидкість 400 і навіть 500 Мбіт / с, але чи то у них користувачі прокачані, то чи техпідтримка з титановими нервами. МГТС тримає в асортименті тариф на 500 мегабіт, проте їм діватися нікуди, вони з таким пафосом тягли "гігабіт на кожен будинок", що відмовитися від нього неможливо. Білайн продає 365 мегабіт на найдорожчому тарифі, але тільки в комплекті зі своїм роутером (до речі, дуже прикольним - перша реалізація 802.11ac на чіпсеті Mediatek). У будь-якому випадку, боюся, ще пару-трійку років нам повернення на гігабітний рівень в масовому сегменті не світить.

Ми з котом трохи «розігнали» виту пару, що приходить в квартиру

Зазвичай вважається, що «стелю» DSL - 20-30 Мбіт / с, FTTB (оптика до будинку плюс кручена пара до квартири) - 100 Мбіт / с, а PON підтримує швидкості вище 100 мегабіт. Ми з колегами вирішили розвіяти міфи і «розігнати» FTTB для окремо взятого провайдера.

Насамперед ми полізли на горище в будинку. Вже зараз до нас в кожен дім приходить не менше 1 Гбіт / с, а на домовому вузлі є відповідний гігабітний «мідний» порт. Тобто ми можемо просто взяти і перемкнути будь-яку квартиру, де лежить наш кабель, в відповідний порт і забезпечити швидкості більш 400 Мбіт / с.

Власне, ми це вже зробили в рамках бета-тестів, а днями запустили в комерційну експлуатацію послуги в Москві з новими швидкостями. Так, ви, швидше за все, можете підключитися.

Що це було, кеп?

  Наша магістральна і міська мережі мають запас вільної ємності, значно перевершує потреби клієнтів навіть у години найвищої, максимально можливого навантаження. Взяти хоча б гаряче улюблений мною і котом свято Новий рік, в який більше привітань отримують ті бабусі, які вже подружилися з інтернетом і «скайп».

В чому різниця з PON

  У тому, що наша FTTB-мережа, що дозволяє все це зробити, вже існує. Ніяких модифікацій не потрібно. Кабель вже заходить в вашу квартиру. Всі дроти лежать. Оптика проходить до вузлів в будинках. Потрібно просто взяти і перемкнути кабель в інший порт комутатора. Усе! До вас вже підходить такий канал, але ви про це не знали. А PON потрібно будувати - це нова інфраструктура по всьому місту. Там є ще одна засада - від районних АТС розходяться оптичні жили, які вимагають пропрієтарних ж клієнтських пристроїв. А у нас зі звичайною FTTB-мережею можна використовувати що завгодно. Хоча адаптованих під L2TP пристроїв небагато.

Як це працює

  З магістрального кільця на рівень міста приходить здоровенний транспортний канал. Далі по місту розходиться кілька великих кілець. Від них - кільця або mesh-структури поменше, на рівні під'їздів робляться «зірки». Від першого рівня до шафи в під'їзді йдуть оптичні транспортні лінки. На комутаторі рівня доступу, ми перекоммутіруем кабель в гігабітний порт ... і все, у нас тепер є гігабітний лінк до клієнта.

Це результати мого колеги без кота, зате з Wi-Fi (801.11 ac).

Технічна можливість

  Після того, як я зміг перевірити це на декількох точках, ми встановили такі лінки для всіх співробітників компанії, що працюють над проектом. Досить швидко, треба сказати. Технічних обмежень майже немає: єдине, є буквально пара десятків кварталів в Москві, де потрібно небагато модернізувати обладнання, але ми вже працюємо над цим.

ще обмеження

  Ви будете сміятися, але ми не знайшли способів утилізувати такі швидкості. Так ось, виявилося, що забити такий канал можна тільки дуже специфічними завданнями - це або CCTV з купи камер, або HD-відео на всіх членів сім'ї одночасно, або завдання фотографа, що заливає кудись картинки. Ще - мережеві диски. Загалом, за винятком торрентів - мрія провайдера: клієнт один раз в день робить «вжух» з важким файлом і дико радіє.

Зате виник ряд інших речей, які безпосередньо стосуються маркетингу. Перше - майже всі ресурси віддають контент куди повільніше, ніж дозволяє приймати канал. Це вічна проблема «чому у мене гальмує Інтернет, а тести показують нормальну швидкість». Тому що потрібні ресурси, здатні забезпечити великій кількості клієнтів віддачу контенту на високій швидкості. Так що кому-то доведеться розпрощатися з ілюзіями, далеко не кожен ресурс відповідає даним вимогам.
  100Мбит / с - це вже дуже швидко для з'єднання з Інтернет для переважної більшості користувачів. Швидкості ще вище можуть знадобитися тим, хто змушений працювати з файлами дуже великого обсягу.


На цій фотографії правильно все, включаючи роутер

До десктопу або ноутбука лінк повинен підходити міддю - Wi-Fi, тим більше, в умовах перешкод від інших мереж, просто не дозволить роздати канал на такій швидкості. Тому оптимальний варіант - десктоп на кабелі, планшети і телефони - по повітрю.

Самі кінцеві пристрої теж можуть різати трафік. Природно, у вас повинен бути пристрій, що підтримує 400 Мбіт / с (роутер або мережева карта). В беті, правда, розкрилася пара сюрпризів з тим, що реально тримати такий трафік можуть не всі пристрої, незважаючи на заяви про це.

тести

  Тут починається найцікавіше. Ми взяли 10 високопродуктивних пристроїв з підтримкою L2TP.

Гігабіт це швидко, особливо для домашнього використання, тому і роутери повинні бути відповідні. Скажу відразу - все моделі охопити і оперативно протестувати не представлялося можливим, тому ми орієнтувалися на підтримку гігабітного підключення, дводіапазонного Wi-Fi і хороших відгуків від користувачів.

Наш шорт-лист:
   Asus RT-68U
   D-Link DIR 825 D1
   Pre-sale зразок від нового виробника Totolink
   Zyxel Keenetic Ultra
   Apple Air port Time capsule

Як тільки я протестував пристрою за нашими чекліст в офісі, прийшов час тестувати пристрої в польових умовах, тут можна оцінити реальну продуктивність пристрою.

Для цього дійства я постарався підготуватися грунтовно, взяв MacBook Pro 15 retina (late 2012) - основний робочий ноут, в окремий десктоп встромив SSD на 128GB і до купи підключив туди Wi-Fi адаптер Asus PCE-AC68 щоб ніщо не заважало розганятися, так само взяв USB Wi-Fi адаптер Totolink A2000UA c підтримкою 802.11ac на всякий випадок. Крім цього захопив iPad mini, iPhone 5 і Samsung Galaxy note - на них будемо тестувати Wi-Fi.

Для перевірки швидкості, крім звичних ресурсів, таких як - speedtest та завантаження файлів, встановив Iperf на один з наших серверів, підключених по гігабітного лінку в нашу core-мережу. Начебто все, вийшло якось так:

Трохи про методику тестів

  У багатьох оглядах роутерів, які я бачив, зазвичай збираються стенди з програмами для генерації трафіку. Ми ж вирішили вчинити по-іншому: провести тестування так, як це буде робити абонент, який перевіряє швидкість нашого доступу в Інтернет.
  Основними інструментами виставили:
  1) Speedtest.net - без нього нікуди
  2) Mirror.yandex.ru
  3) Iperf - трохи синтетики
  4) Youtube

Список невеликий, але на цих ресурсах можна оцінити наскільки швидко працює доступ в Інтернет, так би мовити натуральний продукт і ніякої синтетики.

Приступаємо до тестів

  Для початку подивимося, які з Wi-Fi мереж вже є поруч

  «Народний» діапазон 2.4GHz - ні багато ні мало

5GHz - навіть сюди дісталися, але мереж не так багато, дві з них наші

Asus RT-68U


Топовий роутер від Asus. Начинка пристрою вселяє повагу: чіп від Broadcom BCM4708A, 256MB RAM, 128MB Flash, підтримка 802.11ac і Beamforming присутній.

Патч-корд: спідтест показав 224Mbps на завантаження і 196Mbps на Upload

Хороший результат, продовжуємо тестувати, на черзі Iperf.

На цьому тесті у нас сталося непередбачене. Чи то роутер почав "глючити", то чи iperf, але результати вище 50Mbps не піднімалися. Нічого страшного, давайте подивимося на більш життєвий тест - скачування файлу з Яндекса.

Практично 35МБ в секунду!

Я ще кілька разів прогнав тести, потім вирішив все ж почистити SSD, з такими швидкостями він швидко забивався.

Тепер поглянемо на те, як швидко працює Wi-Fi. Бездротова мережа, штука примхлива, і безліч чинників може впливати на кінцеву продуктивність. Ноутбук розташовувався в 4 метрах від роутера по прямій.

Спідтест показав практично 165Mbps на Download і 166 на Upload. Достойно! Особливо, коли мова йде про діапазон 2.4GHz

Iperf показав схожі значення:

Перемкнемося тепер на 5GHz. Оскільки роутер вміє працювати з 802.11ac, а мій робочий Macbook немає, я підключив зовнішній адаптер c підтримкою 802.11ac 2x2.

Підключення пройшло успішно ... Погляньмо на спідтест:

209Mbps на Download 111 на Upload, швидше за все 210Mbps це поточний стелю для продуктивності роутера по L2TP. Будемо сподіватися, що в нових прошивках Asus це виправить.

Iperf показав результати ще нижче:

D-Link Dir 825 D1

Наступний на черзі представник середнього цінового діапазону D-Link DIR825. Роутер обладнаний Dual-Band Wi-Fi модулем, що на поточний момент рідкість для середнього цінового діапазону. Подивимося на що здатний цей роутер.

Підключення через патч-корд

Перейдемо до тестування Wi-Fi мережі. У роутере встановлені дві антени Airgain, тому я очікую високі швидкості і по Wi-Fi.

Для мережі працює в діапазоні 2.4GHz:

Ця частота максимально завантажена, тому такий результат в принципі був очікуваним. Як же проявить себе 5GHz?

130-150Mbps. При детальному колупання налаштувань, з'ясувалося, що якщо відключати шифрування Wi-Fi мережі продуктивність збільшується. Звичайно, я не відкрив Америку, але на інших роутерах такої закономірності не вивів.

Переходимо до наступного піддослідному - Totolink

  Цей роутер має схожі характеристики з D-Link DIR 825, побудовані вони на одному і тому ж SoC - RTL8197D, але в це роутере радіомодуль підтримує 802.11ac. Цікаво буде оцінити його можливості в реальних умовах.

Патч корд:

ЕЕ ... ладно, залишу без коментарів.

Наближаємося до реальності.

Чесно кажучи, не думав, що «дідок» RTL8197D здатний в L2TP через себе прокачувати через себе на таких швидкостях. Від цього стає цікавіше результати тестування Wi-Fi мережі.

  «Народна» частота - 2.4GHz

І speedtest і iperf показали практично ідентичні результати.
  На 5GHz швидкість взагалі повинна бути позамежної! Напевно ...

А ось і ні, хоча підключення показувало що з'єднання встановлено зі швидкістю 867Mbps.

Iperf намагається спустити на землю, і це у нього непогано виходить.

Наш останній учасник марафону - Zyxel Keenetic Ultra

Популярна модель серед пристроїв L2TP. Добре «розганяється» і стабільно працює. Підключаємо патч-корд і запускаємо спідтест:

І скачаю вже став рідним, на час тестів, дистрибутив Fedorа:

На жаль, ця модель від Zyxel не підтримує 802.11ac, тому буду задовольнятися 802.11n. Приступаємо!

Подивимося на 5GHz

Ні багато ні мало - стандарт. Мене такий стан не влаштувало, і я вирішив підключити до роутера нову Time Capsule з підтримкою 802.11ac (досить умовною для РСТ-моделі).

Ось! Шкода що, що таймкапсулу виробники не кладуть в комплекті зі своїми роутерами.

А якщо міряти швидкість на телефоні / планшеті?

Більшість користувачів, особливо хто не знайомий з методологіями різних тестів продуктивності, і просто запускають додаток на своєму телефоні. Я теж так зроблю.

В наявності був iPhone, планшет і телефон на Android. Тестувати на кожному з роутере підключення, сенсу немає, тому я зупинився на останній моделі роутера.

Для 2.4GHz і 5GHz відповідно, тут ми вперлися в стелю продуктивності Wi-Fi модуля на телефоні. Девайси на Андройде показали приблизно ті ж результати, при цьому, на планшеті така швидкість була отримана при підключенні до мережі на 5GHz, на 2.4GHz швидше за все буде нижче:

Ну і тести на вулиці:

Що вийшло?

  Процес тестування нової послуги надзвичайно захопив нас з котом, так що в підсумку ми перевірили 10 роутерів різних виробників, цінових категорій з різною «начинкою». Ось найцікавіші:
  • Zyxel Keenetic Ultra
  • D-Link DIR825
  • Toto-Link
  • Asus RT-68U
  • Zyxel Keenetic Giga II
  • TP-Link Archer C7 v.1
  • D-Link DIR 850L
  • Buffalo WZR-1759DHP
  • Netgear R7000 «Highthawk»
  • Arcadian
  Так що якщо у вас вдома SSD або RAID з HDD, є хороший Wi-Fi роутер, і якщо ви вирішуєте специфічні завдання, що вимагають швидкого інтернету, то вам нова послуга буде корисна.

Ціна

  Послуга нова, опис на сайті з'явиться через пару днів. Вартість 1850 рублів на місяць, якщо без нашого роутера.

UPD, на прохання в коментарях:

Asus RT-68U D-Link DIR 825 D1 Toto-Link Zyxel Keenetic Ultra
По кабелю (WAN-LAN)
Speedtest D: 224,2 Mbps U: 196.77 Mbps
D: 352.16 Mbps U: 370.3 Mbps D: 462.6 Mbps U: 255.8 Mbps D: 408.22 Mbps U: 275.59 Mbps
Iperf 26.3Mbps 354 Mbps 379 Mbps ~ 35MB / s ~ 43 MB / s ~ 50MB / s ~ 52MB / s
Wi-Fi 2.4GHz
Speedtest D: 164.53 Mbps U: 165.68 Mbps D: 86.72 Mbps U: 57.82 Mbps D: 155.01 Mbps U: 118.62 Mbps D: 131.57 Mbps U: 113.53 Mbps
Iperf 140Mbps 52.5 Mbps 152Mbps 132 Mbps
Wi-Fi 5GHz
Speedtest D: 209.4 Mbps U: 111.38 Mbps D: 148.27 Mbps U: 149.45 Mbps D: 233 Mbps U: 132.76 Mbps D: 185.4 Mbps U: 181.07 Mbps
Iperf 163Mbps 130 Mbps 192 Mbps 171 Mbps

Я не дуже поспішав перевести свою домашню мережу зі швидкості 100 Мбіт / с на 1 Гбіт / с, що для мене досить дивно, оскільки я передаю по мережі велику кількість файлів. Однак коли я витрачаю гроші на апгрейд комп'ютера або інфраструктури, я вважаю, що повинен відразу ж отримати приріст продуктивності в додатках і іграх, які я запускаю. Багато користувачів люблять потішити себе новою відеокартою, центральним процесором і яким-небудь пристроєм. Однак з якихось причин мережеве обладнання не приваблює такого ентузіазму. Дійсно, складно вкласти зароблені гроші в мережеву інфраструктуру замість чергового технологічного подарунка на день народження.

Однак вимоги щодо пропускної спроможності у мене дуже високі, і в один момент я зрозумів, що інфраструктури на 100 Мбіт / с вже не вистачає. У всіх моїх домашніх комп'ютерів вже встановлені інтегровані адаптери на 1 Гбіт / с (на материнських платах), тому я вирішив взяти прайс-лист найближчій комп'ютерної фірми і подивитися, що мені потрібно для переведення всієї мережевої інфраструктури на 1 Гбіт / с.

Ні, домашня гигабитная мережу зовсім не така складна.

Я купив і встановив все обладнання. Я пам'ятаю, що раніше на копіювання великого файлу по 100-Мбіт / с мережі йшло близько півтори хвилини. Після апгрейда на 1 Гбіт / с той же файл став копіюватися за 40 секунд. Приріст продуктивності приємно порадував, але все ж я не отримав десятикратного переваги, яке можна було очікувати з порівняння пропускної спроможності 100 Мбіт / с і 1 Гбіт / с старої і нової мереж.

В чому причина?

Для гигабитной мережі всі її частини повинні підтримувати 1 Гбіт / с. Наприклад, якщо у вас встановлені гігабітні мережеві карти і відповідні кабелі, але концентратор / комутатор підтримує всього 100 Мбіт / с, то і вся мережа буде працювати на 100 Мбіт / с.

Перша вимога - мережевий контролер. Найкраще, якщо кожен комп'ютер в мережі буде оснащений гігабітним мережним адаптером (окремим або інтегрованим на материнську плату). Ця вимога задовольнити найпростіше, оскільки більшість виробників материнських плат пару останніх років інтегрують гігабітні мережеві контролери.

Друга вимога - мережева карта теж повинна підтримувати 1 Гбіт / с. Є поширена помилка, що для гігабітних мереж потрібно кабель категорії 5e, але насправді навіть старий кабель Cat 5 підтримує 1 Гбіт / с. Втім, кабелі Cat 5e мають кращі характеристики, тому вони будуть більш оптимальним рішенням для гігабітних мереж, особливо якщо довжина у кабелів буде пристойна. Втім, кабелі Cat 5e сьогодні все одно найдешевші, оскільки старий стандарт Cat 5 вже застарів. Нові та більш дорогі кабелі Cat 6 володіють ще кращими характеристиками для гігабітних мереж. Ми порівняємо продуктивність кабелів Cat 5e проти Cat 6 трохи пізніше в нашій статті.

Третій і, напевно, найдорожчий компонент в гигабитной мережі - це концентратор / комутатор з підтримкою 1 Гбіт / с. Звичайно, краще використовувати комутатор (можливо, в парі з маршрутизатором), оскільки концентратор або хаб - не інтелектуальний пристрій, просто транслює всі дані по всім доступним портам, що призводить до появи великої кількості колізій і уповільнює продуктивність мережі. Якщо вам потрібна висока продуктивність, то без гигабитного комутатора не обійтися, оскільки він перенаправляє мережеві дані лише на потрібний порт, що ефективно підвищує швидкість роботи мережі по з рівнянню з концентратором. Маршрутизатор зазвичай містить вбудований комутатор (з декількома портами LAN), а також дозволяє підключати вашу домашню мережу до Інтернету. Більшість домашніх користувачів розуміють переваги маршрутизатора, тому гігабітний маршрутизатор - варіант цілком привабливий.

Наскільки швидким повинен бути гігабіт? Якщо ви чуєте префікс "гіга", то напевно маєте на увазі 1000 мегабайт, при цьому гигабитная мережа повинна забезпечувати 1000 мегабайт в секунду. Якщо ви так вважаєте, то ви не самотні. Але, на жаль, в дійсності все інакше.

Що ж таке гігабіт? Це 1000 мегабіт, а не 1000 мегабайт. В одному байті 8 бітів, тому просто порахуємо: 1 000 000 000 бітів розділити на 8 бітів \u003d 125 000 000 байтів. У мегабайті близько мільйона байтів, тому гигабитная мережа повинна забезпечувати теоретичну максимальну швидкість передачі даних близько 125 Мбайт / с.

Звичайно, 125 Мбайт / с звучить не так вражаюче, як гігабіт, але подумайте: мережа з такою швидкістю повинна теоретично передавати гігабайт даних всього за вісім секунд. А 10-Гбайт архів повинен передаватися за все за хвилину і 20 секунд. Швидкість неймовірна: просто згадайте, скільки часу йшло на передачу гігабайта даних до того моменту, як USB-брелоки стали такими швидкими, як сьогодні.

Очікування були серйозними, тому ми вирішили передати файл по гигабитной мережі і насолодитися швидкістю близькою до 125 Мбайт / с. У нас немає будь-якої спеціалізованої чудесного обладнання: проста домашня мережа з деякими старими, але пристойними технологіями.

Копіювання 4,3-Гбайт файлу з одного домашнього комп'ютера на інший виконувалося з середньою швидкістю 35,8 Мбайт / с (ми проводили тест п'ять разів). Це всього лише 30% від теоретичного стелі гигабитной мережі 125 Мбайт / с.

У чому ж причини проблеми?

Підібрати компоненти для установки гигабитной мережі досить просто, але от змусити мережу працювати на максимальній швидкості набагато складніше. Фактори, які можуть призвести до уповільнення мережі, досить численні, але як ми виявили, все впирається в те, наскільки швидко жорсткі диски здатні передавати дані на мережевий контролер.

Перше обмеження, яке потрібно враховувати - інтерфейс гігабітного мережного контролера з системою. Якщо ваш контролер підключений через стару шину PCI, то кількість даних, яке вона теоретично може передати, становить 133 Мбайт / с. Для пропускної здатності 125 Мбайт / с у Gigabit Ethernet цього здається достатнім, але пам'ятайте, що пропускна здатність шини PCI розподіляється по всій системі. Кожна додаткова карта PCI і багато системні компоненти будуть використовувати ту ж саму пропускну здатність, що знижує ресурси, доступні мережевої карти. У контролерів з новим інтерфейсом PCI Express (PCIe) таких проблем немає, оскільки кожна лінія PCIe забезпечує, як мінімум 250 Мбайт / с пропускної здатності, причому ексклюзивно для пристрою.

Наступний важливий фактор, який впливає на швидкість мережі - кабелі. Багато фахівців вказують на те, що в разі прокладки мережевих кабелів поруч з кабелями живлення, які є джерелами перешкод, низькі швидкості гарантовані. Велика довжина кабелів теж проблемна, оскільки мідні кабелі Cat 5e сертифіковані під максимальну довжину 100 метрів.

Деякі фахівці рекомендують прокладати кабелі нового стандарту Cat 6 замість Cat 5e. Часто такі рекомендації виправдати складно, але ми спробуємо протестувати вплив категорії кабелю на маленьку гигабитную домашню мережу.

Не будемо забувати і про операційну систему. Звичайно, в гігабітному оточенні ця система використовується досить рідко, але слід згадати, що Windows 98 SE (і старі операційні системи) не зможуть використовувати переваги гигабитного Ethernet, оскільки стек TCP / IP цієї операційної системи ледь вміє навантажувати 100-Мбіт / с з'єднання в повною мірою. Windows 2000 і більш свіжі версії Windows вже підійдуть, хоча в старих операційних системах доведеться виконати деякі настройки, щоб вони використовували мережу по максимуму. Ми будемо використовувати 32-бітну ОС Windows Vista для наших тестів, і хоча у Vista в якихось завданнях репутація не найкраща, ця система підтримує гигабитную мережу з самого початку.

Тепер перейдемо до жорстких дисків. Навіть старого інтерфейсу IDE до специфікації ATA / 133 має бути досить для підтримки теоретичної швидкості передачі файлів 133 Мбайт / с, а новіша специфікація SATA відповідає всім вимогам, оскільки вона забезпечує, як мінімум, пропускну здатність 1,5 Гбіт / с (150 Мбайт / с). Однак якщо кабелі та контролери можуть справлятися з передачею даних на такій швидкості, самі жорсткі диски - немає.

Візьмемо для прикладу типовий сучасний жорсткий диск на 500 Гбайт, який повинен забезпечувати постійну пропускну здатність близько 65 Мбайт / с. На початку пластин (зовнішні доріжки) швидкість може бути вище, проте у міру переходу на внутрішні доріжки пропускна спроможність падає. Дані на внутрішніх доріжках зчитуються повільніше, на швидкості близько 45 Мбайт / с.

Нам здавалося, що ми розглянули всі можливі «вузькі місця». Що залишалося робити? Потрібно було провести кілька тестів і подивитися, чи зможемо ми дістатися по продуктивності мережі до теоретичної межі 125 Мбайт / с.

Тестова конфігурація

тестові системи серверна система клієнтська система
CPU Intel Core 2 Duo E6750 (Conroe), 2,66 ГГц, FSB-1333, кеш 4 Мбайт Intel Core 2 Quad Q6600 (Kentsfield), 2,7 ГГц, FSB-1200, кеш 8 Мбайт
Материнська плата ASUS P5K, Intel P35, BIOS 0902 MSI P7N SLI Platinum, Nvidia nForce 750i, BIOS A2
Мережа Вбудований контролер Abit Gigabit LAN Вбудований контролер nForce 750i Gigabit Ethernet
пам'ять Wintec Ampo PC2-6400, 2x 2048 Мбайт, DDR2-667, CL 5-5-5-15 на 1,8 В A-Data EXTREME DDR2 800+, 2x 2048 Мбайт, DDR2-800, CL 5-5-5-18 на 1,8 В
Відкрите ASUS GeForce GTS 250 Dark Knight, 1 Гбайт GDDR3-2200, 738 МГц GPU, 1836 МГц блок шейдерів MSI GTX260 Lightning, 1792 Мбайт GDDR3-1998, 590 МГц GPU, тисячі двісті дев'яносто шість МГц блок шейдерів
Жорсткий диск 1 Seagate Barracuda ST3320620AS, 320 Гбайт, 7200 об / хв, кеш 16 Мбайт, SATA 300
Жорсткий диск 2 2x Hitachi Deskstar 0A-38016 в RAID 1, 7200 об / хв, кеш 16 Мбайт, SATA 300 Western Digital Caviar WD50 00AAJS-00YFA, 500 Гбайт, 7200 об / хв, кеш 8 Мбайт, SATA 300
Блок живлення Aerocool Zerodba 620w, 620 Вт, ATX12V 2.02 Ultra HE1000X, ATX 2.2, 1000 Вт
Мережевий комутатор D-Link DGS-1008D, 8-Port 10/100/1000 Unmanaged Gigabit Desktop Switch
Програмне забезпечення та драйвери
ОС Microsoft Windows Vista Ultimate 32-bit 6.0.6001, SP1
версія DirectX DirectX 10
графічний драйвер Nvidia GeForce 185.85

Тести і настройки

Тести і нстройкі
Nodesoft Diskbench Version: 2.5.0.5, file Copy, Creation, Read, and Batch Benchmark
SiSoftware Sandra 2009 SP3 Version 2009.4.15.92, CPU Test \u003d CPU Arithmetic / Multimedia, Memory Test \u003d Bandwidth Benchmark

Перед тим, як ми перейдемо до будь-яких тестів, ми вирішили протестувати жорсткі диски без використання мережі, щоб подивитися, яку пропускну здатність ми можемо очікувати в ідеальному сценарії.

У нашій домашній гигабитной мережі працюють два ПК. Перший, який ми будемо називати сервером, оснащений двома дисковими підсистемами. Основний жорсткий диск - 320-Гбайт Seagate Barracuda ST3320620AS віком пару років. Сервер працює в якості мережевого сховища NAS з RAID-масивом, що складається з двох 1-Тбайт жорстких дисків Hitachi Deskstar 0A-38016, які віддзеркалювати для надмірності.

Другий ПК в мережі ми назвали клієнтом, у нього два жорсткі диски: обидва 500-Гбайт Western Digital Caviar 00AAJS-00YFA віком близько півроку.

Спочатку ми протестували швидкість системних жорстких дисків сервера і клієнта, щоб подивитися, яку продуктивність ми можемо від них очікувати. Ми використовували тест жорсткого диска в пакеті SiSoftware Sandra 2009.

Наші мрії про досягнення гигабитной швидкості передачі файлів відразу ж розсіялися. Обидва з одиночних жорстких дисків досягли максимальної швидкості читання близько 75 Мбайт / с в ідеальних умовах. Оскільки даний тест проводиться в реальних умовах, а накопичувачі заповнені на 60%, то ми можемо очікувати швидкості читання ближче до індексу 65 Мбайт / с, який ми отримали у обох жорстких дисків.

Але давайте подивимося на продуктивність RAID 1 - найкраще у даного масиву в тому, що апаратний RAID-контролер може збільшувати продуктивність читання, отримуючи дані з обох жорстких дисків одночасно, аналогічно масивів RAID 0; але даний ефект виходить (наскільки ми знаємо) тільки з апаратними RAID-контролерами, але не з програмними рішеннями RAID. У наших тестах масив RAID забезпечив набагато більш високу продуктивність читання, ніж один жорсткий диск, тому великі шанси того, що ми отримаємо високу швидкість передачі файлів по мережі з масиву RAID 1. Масив RAID забезпечив вражаючу пікову пропускну здатність 108 Мбайт / с, але в реальності продуктивність повинна бути близька до індексу 88 Мбайт / с, оскільки масив заповнений на 55%.

Тому ми повинні отримати близько 88 Мбайт / с по гигабитной мережі, чи не так? Це не так близько до стелі гигабитной мережі 125 Мбайт / с, але набагато швидке 100-Мбіт / с мереж, у яких стелю становить 12,5 Мбайт / с, так що отримати 88 Мбайт / с на практиці було б зовсім непогано.

Але не все так просто. Те, що швидкість читання з жорстких дисків досить висока, зовсім не означає, що вони будуть швидко записувати інформацію в реальних умовах. Давайте проведемо кілька тестів записи на диски до використання мережі. Ми почнемо з нашого сервера і скопіюємо 4,3-Гбайт образ зі швидкісного масиву RAID на 320-Гбайт системний жорсткий диск і назад. Потім ми скопіюємо файл з клієнтського диска D: на його диск C :.

Як бачимо, копіювання з швидкого масиву RAID на диск C: дало середню швидкість всього 41 Мбайт / с. А копіювання з диска C: на масив RAID 1 призвело до зниження до всього 25 Мбайт / с. Що відбувається?

Саме так і трапляється в реальності: жорсткий диск C: випущений трохи більше року тому, але він заповнений на 60%, ймовірно, трохи фрагментований, так що за записом він рекордів не б'є. Є й інші чинники, а саме, наскільки швидко працює система і пам'ять в цілому. Масив RAID 1 складено з відносного нового "заліза", але через надмірність інформацію потрібно записувати на два жорсткі диски одночасно, що знижує продуктивність. Хоча масив RAID 1 може дати високу продуктивність читання, швидкістю запису доведеться пожертвувати. Звичайно, ми могли використовувати масив RAID 0 з чергуванням, який дає високу швидкість запису і читання, але якщо один жорсткий диск "помре", то вся інформація буде зіпсована. В цілому, RAID 1 є більш правильним варіантом, якщо для вас цінні дані, що зберігаються на NAS.

Втім, не все втрачено. Новий 500-Гбайт накопичувач Digital Caviar здатний записувати наш файл зі швидкістю 70,3 Мбайт / с (середній результат по п'яти тестових прогонів), а також дає максимальну швидкість 73,2 Мбайт / с.

З урахуванням усього сказаного ми очікували отримати в реальних умовах максимальну швидкість передачі по гигабитной мережі 73 Мбайт / с з масиву NAS RAID 1 на диск C: клієнта. Ми також протестуємо передачу файлів з клієнтського диска C: на серверний диск C: щоб дізнатися, чи можемо ми реалістично очікувати 40 Мбайт / с в цьому напрямку.

Почнемо з першого тесту, в рамках якого ми відсилали файл з клієнтського диска C: на диск C: сервера.

Як бачимо, результати відповідають нашим очікуванням. Гігабітна мережу, здатна в теорії дати 125 Мбайт / с, відсилає дані з клієнтського диска C: з максимально можливою швидкістю, ймовірно, в районі 65 Мбайт / с. Але, як ми показали вище, серверний диск C: може записувати тільки зі швидкістю близько 40 Мбайт / с.

Тепер давайте скопіюємо файл зі швидкісного RAID-масиву сервера на диск C: комп'ютера клієнта.

Все виявилося так, як ми і припускали. З наших тестів ми знаємо, що диск C: комп'ютера клієнта здатний записувати дані зі швидкістю близько 70 Мбайт / с, і продуктивність гигабитной мережі виявилася дуже близька до даної швидкості.

На жаль, отримані нами результати і близько не підходять до теоретичної максимальної пропускної здатності 125 Мбайт / с. Чи можемо ми протестувати граничну швидкість роботи мережі? Звичайно, але не в реалістичному сценарії. Ми спробуємо передати інформацію по мережі з пам'яті в пам'ять, щоб обійти будь-які обмеження жорстких дисків по пропускній здатності.

Для цього ми створимо 1-Гбайт RAM-диск на серверному і клієнтському ПК, після чого передамо 1-Гбайт файл між цими дисками по мережі. Оскільки навіть повільна пам'ять DDR2 здатна передавати дані зі швидкістю більше 3000 Мбайт / с, то обмежуючим фактором виявиться мережева пропускна здатність.

Ми отримали максимальну швидкість роботи нашої гигабитной мережі 111,4 Мбайт / с, що дуже близько до теоретичної межі 125 Мбайт / с. Прекрасний результат, скаржитися на нього не доводиться, оскільки реальна пропускна здатність все одно не буде досягати теоретичного максимуму через передачу додаткової інформації, помилок, повторних передач і т.д.

Висновок буде наступним: сьогодні продуктивність передачі інформації по гигабитной мережі впирається в жорсткі диски, тобто швидкість передачі буде обмежена найповільнішим вінчестером, що бере участь в процесі. Відповівши на найважливіше питання, ми можемо переходити до тестів швидкості в залежності від конфігурації кабелів, щоб наша стаття була повною. Чи зможе оптимізація прокладки кабелів дати швидкість мережі, ще більш близьку до теоретичної межі?

Оскільки продуктивність в наших тестах була близька до передбачуваної, ми навряд чи побачимо якісь поліпшення при зміні конфігурації кабелів. Але ми все одно хотіли провести тести, щоб наблизитися до теоретичного обмеження по швидкості.

Ми провели чотири тести.

Тест 1: за замовчуванням.

В даному тесті ми використовували два кабелю довжиною близько 8 метрів, кожен з яких був підключений до комп'ютера на одному кінці і до гігабітного комутатора на іншому. Ми залишили кабелі там, де їх прокладали, тобто по сусідству з кабелями живлення і розетками.

На цей раз ми використовували ті ж 8-м кабелі, що і в першому тесті, але перенесли мережевий кабель якнайдалі від кабелів живлення і подовжувачів.

В даному тесті ми зняли один з 8-м кабелів і замінили його метровим кабелем Cat 5e.

В останньому тесті ми замінили 8-м кабелі Cat 5e на 8-му кабелі Cat 6.

Загалом, наше тестування різних конфігурацій кабелів не показала серйозної різниці, але висновки зробити можна.

Тест 2: знижуємо перешкоди з боку кабелів живлення.

У невеликих мережах, таких як наша домашня мережа, тести показують, що вам можна не турбуватися про прокладання кабелів LAN поруч з кабелями електропроводки, розетками та подовжувачами. Звичайно, наведення при цьому будуть вище, але серйозного ефекту на швидкість мережі це не дасть. Втім, з урахуванням усього сказаного, краще уникати прокладки поруч з кабелями живлення, та й слід пам'ятати, що у вашій мережі ситуація може виявитися іншою.

Тест 3: зменшуємо довжину кабелів.

Це не зовсім коректний тест, але ми намагалися виявити різницю. Слід пам'ятати, що заміна восьмиметрового кабелю на метровий може привести до впливу на результат просто різних кабелів, ніж різниці в відстані. У будь-якому випадку, в більшості тестів ми не бачимо значущої різниці за винятком аномального підйому пропускної спроможності під час копіювання з клієнтського диска C: на серверний C :.

Тест 4: замінюємо кабелі Cat 5e на Cat 6.

Знову ж таки, ми не виявили суттєвої різниці. Оскільки довжина кабелів становить близько 8 метрів, великі по довжині кабелі можуть дати велику різницю. Але якщо у вас довжина не максимальна, то кабелі Cat 5e будуть цілком нормально працювати в домашній гигабитной мережі з відстанню між двома комп'ютерами 16 метрів.

Цікаво зауважити, що маніпуляції з кабелями не дали ніякого ефекту на передачу даних між RAM-дисками комп'ютерів. Цілком очевидно, що якийсь інший компонент в мережі обмежував продуктивність магічною цифрою 111 Мбайт / с. Втім, подібний результат все одно прийнятний.

Чи дають гігабітні мережі гигабитную швидкість? Як виявляється, майже дають.

Однак в реальних умовах швидкість мережі буде серйозно обмежуватися жорсткими дисками. У синтетичному сценарії пам'ять-пам'ять наша гигабитная мережу дала продуктивність, дуже близьку до теоретичної межі 125 Мбайт / с. Звичайні ж швидкості в мережі з урахуванням продуктивності жорстких дисків будуть обмежуватися рівнем від 20 до 85 Мбайт / с, в залежності від використовуваних вінчестерів.

Ми також протестували вплив кабелів живлення, довжини кабелю і переходу з Cat 5e на Cat 6. В нашій невеликої домашньої мережі жоден зі згаданих факторів не впливав істотно на продуктивність, хоча ми хочемо відзначити, що в більшій і більш складної мережі з великими довжинами ці фактори можуть впливати набагато сильніше.

Загалом, якщо ви передаєте в домашній мережі велику кількість файлів, то ми рекомендуємо встановлювати гигабитную мережу. Перехід з мережі на 100 Мбіт / с дасть приємний приріст продуктивності, по крайней мере, ви отримаєте дворазове збільшення швидкості передачі файлів.

Gigabit Ethernet в домашній мережі може дати більший приріст продуктивності, якщо ви будете зчитувати файли з швидкого сховища NAS, де використовується апаратний масив RAID. У нашій тестовій мережі ми передавали 4,3-Гбайт файл всього за одну хвилину. За з'єднанню на 100 Мбіт / с той же самий файл копіювався близько шести хвилин.

Гігабітні мережі стають все більш доступними. Тепер залишилося тільки дочекатися, коли швидкості жорстких дисків піднімуться до такого ж рівня. А поки що ми рекомендуємо створювати масиви, здатні обійти обмеження сучасних технологій HDD. Тоді ви зможете вичавити більше продуктивності з гигабитной мережі.

Массачусетським технологічним університетом в травні 1993 була відкрита перша в світі Інтернет-газета - The Tech.

Вже до 2008 року сумарна швидкість роздач перевищила значення в 172 Гбіт / с, що склало 1/4 всього трафіку Московської точки обміну трафіком MSK-IX. Близько 3 тис запитів від клієнтів в секунду - 10 мільйонів на годину, 240 мільйонів на добу. 40 000 тис пакетів в сек на мережевому інтерфейсі. 15 000 переривань в секунду. 1200 процесів приблизно в top-е. Завантаження на 8 ядерної машині - 10-12 в години пік. І все одно частина запитів Дропана. Чи не встигали обслуговувати. На жаль, знайти сучасне значення peer-to-peer трафіку не вдалося, хто знає - поділіться в коментарях для порівняння.

В Україні в серпні 2005 року з'явився регіональний трекер - torrents.net.ua, необхідність створення ресурсу була обумовлена \u200b\u200bвідсутністю у більшості користувачів на Україні швидкісного і безлімітного доступу до світового трафіку.

До вересня 2008 року трекер був закритий для користувачів не із зони UA-IX, тому кількість користувачів зростала невисокими темпами.

Перші хостинг-провайдери

  А що з розміщенням сайтів? Спочатку хостинг-провайдерів, як таких, не існувало. Веб-сайти розміщувалися на серверах університетів і організацій, які мають постійне підключення до мережі Інтернет. Відстежити, що відбувалося в період 1991-1995 зараз досить проблематично, 1995 сервіс Angelfire пропонував безкоштовно аж 35 КБ місця під сторінки користувачів, а GeoCities - цілий 1 МБ. Більш докладно про перші кроки хостингу читайте в однойменній статті «Перші кроки хостингу», яка публікувалася в нашому блозі раніше і є на сьогоднішній день, мабуть, однією з найбільш повноцінних.

  $ 200 / місяць за 200 МБ квоти на сервері і 3000 МБ вихідного трафіку (500 МБ для мінімального тарифного плану), а трафік понад ліміту оплачувався з розрахунку від $ 55 до $ 27 за GB). Можна було підключити і «виділену лінію» для свого сайту, тарифи були наступні: 128К - $ 395 / місяць, 384К - $ 799 / місяць, 1М - $ 1200 / місяць. Підключення «каналу» і активація хостингу також передбачали установчу плату в розмірі близько однієї абонплати. В кінці 2000 року цей же провайдер запропонував необмежений дисковий простір з оплатою тільки за трафік і знизив вартість трафіку до $ 40 за 20 GB. А вже в 2002 знизив тарифи до $ 20, зробив трафік «безлімітним» і знову ввів обмеження за квотою.

Цікаві також ціни на оренду перших виділених серверів в 2000:

Сервер з 8 ГБ HDD виглядає в сьогоднішній час справжнім «копалиною». Але що говорити, я особисто використовував до 2004 ПК з HDD, де корисної квоти було близько 7 ГБ. І звичайно ж плата в $ 5000 + / місяць за 6 Мбіт / с до сервера виглядає зараз моторошно. Пізніше ціна була знижена до $ 300 / Мбіт, але все ж це було не мало.

Само собою, що зниження цін на коннективність і вартість доступу в Інтернет проходило за рахунок збільшення кількості абонентів і побудови нових каналів зв'язку, в тому числі підводних оптичних магістралей. Коли стикаєшся з усією складністю прокладки кабелів по дну океану і дізнаєшся приблизну вартість проекту, стає зрозумілим чому 1 Мбіт / с через Атлантику міг коштувати $ 300 / місяць і навіть дорожче. Більш детально з історією розвитку магістральних підводних Інтернет-мереж Ви можете ознайомитися в нашій статті:

В Україні і РФ процес розміщення власних сайтів, почався, мабуть, з безкоштовного хостингу narod.ru від «Яндекса», у 2000 році:

Був ще такий проект від mail.ru - boom.ru, але цей безкоштовний хостинг не отримав такого поширення, як Народ. Згодом безкоштовний хостинг «Яндекса» був поглинений найуспішнішим безкоштовним конструктором сайтів і хостингом 2008-2010 роки - «uCoz» і по домену narod.ru тепер доступна можливість побудувати веб-сайт із застосуванням інструментів «uCoz». «Яндекс» відмовився від «Народу» через розвитку соціальних мереж та зниження інтересу до послуги побудови власних сайтів.

До 2002 року в Україні розміщувати власні сервери було вигідно хіба, що у провайдерів домашніх мереж, хоча більшість тримало свої сервери в офісах і навіть удома через дуже дорогого трафіку для послуги collocation, хоча це і порушувало умови надання послуг для домашніх абонентів. Багато хто просто вважав за краще використовувати для цих цілей звичайні стаціонарні комп'ютери і не витрачати гроші на «серверне» залізо. Такі аксакали зустрічаються і в наші дні. Але якщо тоді зрозуміти чому хочеться зробити собі «хостинг» вдома було можна, то зараз це зрозуміти складно. І мова не про людей, які люблять займатися тестами чого-небудь і для цього потребують сервері будинку.

Ситуація за кордоном була трохи краще, адже там Інтернет став доступним для населення раніше і процес розвитку було розпочато раніше. Нідерланди поступово стають «меккою» для розміщення серверів, так як пропонують гарне географічне положення, а значить зв'язність з безліччю операторів, низькі ціни на електрику, лояльне законодавство, що сприяє зростанню IT-сектори.

Так в 1997 році два пілота комерційних авіаліній вирішили заснувати компанію, яка допомагала іншим компаніям бути представленими в Інтернеті, створивши Інтернет-каталог, а також надавала послуги зі створення та розміщення веб-сайтів і підключення до мережі Інтернет. В Інтернет-архіві збереглася версія веб-сайту 1998 року, яка втім не містила нічого, окрім контакту:

Хоча, як ми бачимо, був інший хід - кількість включеної оперативної пам'яті стало набагато менше за замовчуванням :)

В цей же час в Україні один з найбільших кабельних провайдерів Інтернет і телебачення - «Воля», усвідомив, що будівництво власного дата-центру є величезною необхідністю. Так як абоненти домашнього Інтернет в основному «качають» трафік, при цьому вихідний канал залишається практично вільним і невикористаним. А це сотні мегабіт, які цілком можна було б продати, розмістивши виділені сервери абонентів. Плюс, можливо неслабо зекономити, так як маса абонентів могла б використовувати ресурси, які розміщуються в дата-центрі, замість закачування з дорогих зарубіжних серверів.

Так виник дата-центр «Воля», який вже в 2006 році запропонував наступні умови:

Фактично запропонувавши український трафік без урахування, з оплатою за спожитий зарубіжний трафік. Примітно, що вхідний зарубіжний трафік коштував на порядок дорожче виходить, воно і зрозуміло, адже він використовувався абонентами домашнього Інтернет. Плюс, як правило для серверів, які генерують трафік, запитальний трафік невеликий і становить від 2 до 30% від вихідного, в залежності від типу ресурсів, які розміщуються на сервері.

Так, якщо це веб-сторінки з великою кількістю елементів, то кількість запитальний трафіку вище, так як відбувається підтвердження успішного завантаження кожного з елементів, що призводить до збільшення зростання вхідного до сервера трафіку. Також вхідний трафік може генеруватися абонентами у випадках, коли вони завантажують що-небудь на сервер. При скачуванні файлів% вхідного трафіку незначний і складає менше 5% від вихідного в більшості випадків.

Цікавий також момент, що розміщення власного сервера в дата-центрі «Воля» є просто невигідним, тому що вартість така ж, як і при оренді. По суті дата-центр «Воля» пропонує сервери різного класу в оренду безкоштовно, в залежності від обраного тарифного плану.

Чому сервери можуть бути безкоштовними? Відповідь дуже проста. Устаткування стандартизовано, закуповується великими партіями. По суті в такому варіанті це все легше обслуговувати, простіше адмініструвати, автоматизувати, менше людино-годин потрібно. При розміщенні же серверів абонентів на «colo» з'являється ряд проблем, починаючи від того, що сервер може бути не стандартним і не поміститися в стійці, доведеться виділяти більше юнітів для розміщення, ніж планувалося спочатку або ж відмовляти абоненту, посилаючись на нестандартний корпус, закінчуючи тим, що потрібно допускати абонента на майданчик, надавати можливість проводити фізичні роботи з сервером, зберігати запасні комплектуючі на майданчику і допускати інженерів в разі необхідності заміни.

Таким чином «colo» виходить дорожче в обслуговуванні і надавати його за тарифами нижче для дата-центру позбавлене сенсу.

У Росії в цей час дата-центри пішли далі і починають пропонувати умовно необмежений трафік безкоштовно. Наприклад, Агава предлагет наступні умови:

Вхідний і вихідний трафік - необмежений і повністю безкоштовний. Повинні бути виконані наступні умови:

вхідний трафік не повинен перевищувати 1/4   від вихідного.
  Вихідний зарубіжний трафік не повинен бути більше вихідного російського.
  Примітка: трафік ділиться на російський і зарубіжний за географічною ознакою.
  Невиконання цих умов оплачується за наступними тарифами:

Перевищення входить на 1/4 вихідного оплачується за тарифом 30 руб. / ГБ.
  Перевищення вихідного зарубіжного над вихідним російським оплачується за тарифом 8,7 руб. / ГБ


  Примітно, що для простоти обліку в дата-центрі не стали морочитися зі списком мереж, які не належать до MSK-IX, SPB-IX (пунктів обміну трафіку в Москві і Пітері), які до того ж вже давно були об'єднані між собою, щоб забезпечити хорошу коннективність Пітера з М9 або М10 (точками обміну трафіку в Москві) і навпаки. Так як в регіонах Інтернет був ще мало поширений і% трафіку був реально невеликий, особливо по виділеним лініям. Що говорити, Норильськ отримав власне волокно тільки у вересні 2017 року, тільки в цьому році, і став останнім великим російським містом, який отримав власну ВОЛЗ! Вартість проекту склала близько 40 млн доларів США, загальна протяжність ВОЛЗ з Нового Уренгоя 986 км, пропускна здатність 40 Гбіт / с з можливістю розширення до 80 Гбіт / с в майбутньому.

Забавно дивитися, як в 2017 році, деякі люди здатні радіти високошвидкісного Інтернету, який був доступний для більшості з нас вже більше 10 років тому:

Ну, по-перше, я вже почала дивитися youtube, до цього я дивилася його раз на рік, коли їздила в Москву. Я прямо відкривала так ... і мене можна було не витягнути, а якщо там ще заходила в torrent і щось качала, то це взагалі ... І зараз я можу спокійно дивитися. Припустимо виходить відео, я його подивилася раз в тиждень і мені не треба цей весь набір інформації дивитися за раз. І я можу по скайпу спілкуватися з людьми! Це взагалі прям! Я йду така і знімаю: «я йду хлопці, дивіться це зима!», Єдиний мінус - IPhone на морозі вирубується.

  Про сам проект ВОЛЗ Ви можете подивитися детальний відео тут: частина 1 , частина 2 , частина 3 , частина 4   . Єдине, врахуйте, що журналісти допустили неточності, той же супутниковий канал за їхніми словами був всього 1 Гбіт / с на місто, хоча насправді загальний трафік до введення ВОЛЗ був близько 2,5 Гбіт / с. Ну і треба розуміти, що проблема була не тільки в швидкості, а скільки в високому пінг, який виходив при використанні супутникового Інтернет, на який знову прийшов повернутися в момент аварії на ВОЛЗ.

В кінці 2006 в РФ з'являються перші сайти з фільмами онлайн, файлообмінники і інші подібні ресурси, а для того, щоб зменшити витрати на закордонний трафік, так як український трафік може бути значним і не вкладатися в прописані тієї ж Агавою співвідношення, частина серверів великі проекти намагаються розмістити в дата-центрах з підключенням до UA-IX або створюють додатковий російський трафік штучно, застосовуючи torrent "и, які лунали виключно російським користувачам, а в деяких випадках файлообмінники, які були доступні виключно для російських IP-адрес. В результаті, якщо в Україні хотілося качати повноцінно і на хорошій швидкості, багато хто з користувачів купували російський VPN, так як швидкість на той же ifolder.ru була вище завжди з РФ:

Файлообмінники, незважаючи на популярність torrent, набувають вибухову популярність, так як швидкість скачування з них виявляється часто набагато вище, ніж при використанні torrent, при цьому не потрібно проводити роздачі і підтримувати рейтинг (коли ти віддаєш більше, ніж качаешь, або хоча б не більше , ніж в 3 рази менше). Всьому виною асиметричний DSL канал, коли швидкість на віддачу була значно нижче швидкості на прийом (в 10 разів і більше), ну і потрібно не забувати, що не кожен користувач бажав «сідувати» і зберігати безліч файлів у себе на комп'ютері.

Так, «Wnet» оплачував абоненту український трафік з розрахунку $ 1 за ГБ, при цьому зарубіжний трафік коштував абоненту $ 10 за ГБ за умови, що співвідношення вихідного трафіку до входить - 4/1. Безумовно - це було все ще значною платою, адже трафік опинявся безкоштовним тільки при наявності в 10 разів більшого українського трафіку. Таким чином, щоб генерувати безкоштовно 9 Мбіт / с в закордон, потрібно було генерувати 90 Мбіт / с в Україні. Що зовсім було несхожим на пропозицію Агавою, де досить було, щоб зарубіжний трафік не перевищував російський.

Тому раніше розглянуте пропозицію від дата-центру «Воля» було куди більш вигідним, ніж пропозиція від «Wnet», який до того ж, 1 жовтня 2006 року прийняв рішення про вихід з української точки обміну трафіком UA-IX, так як UA-IX відмовлялася продавати більше портів, які були необхідні «Wnet», можливо в слідстві «пиринговой війни», а саме лобіювання інтересів інших провайдерів, яким «Wnet» почав складати конкуренцію, а може бути і в слідстві відсутності тих. можливості надання додаткових портів, а може бути тому, що «Wnet» порушував угоду і будував пирингові включення з іншими учасниками точки обміну (особливість правил обміну

Завдяки чому в 2008 році «Воля» вже мала 20 Гбіт / с підключенням в UA-IX і 4 Гбіт / с в світ від декількох магістральних операторів. Подальший розвиток ринку хостинг-послуг можна відстежити вже в нашій історії:

Так як ми почали надавати хостинг-послуги з 2006 року серед користувачів нашого ресурсу, а з липня 2009 року виділили послуги в окремий проект - ua-hosting.com.ua, який в будущём вийшов на міжнародний рівень і повністю перебрався в закордон і нині відомий під брендом ua-hosting.company і доступний за коротким домену http://ua.hosting.

Варто відзначити, що за останні 10 років ринок зазнав величезних змін, і причина цього не лише в значному зниженні вартості магістральних каналів, скільки в перерозподілі аудиторії серед безлічі проектів, за рахунок закриття колись популярних проектів. Такі успішні ресурси, як файлоообменнікі, які займали топові місця за відвідуваністю в рейтингу Alexa, відійшли в небуття, з багатьох причин, але в основному - через безперервної війни з правовласниками.

Так в Україні знаменитий колись ex.ua, що генерує понад 15% всього трафіку української точки обміну UA-IX (по суті точки обміну трафіком в Києві, так як регіональні оператори рідко коли були представлені, особливо з появою точки обміну Giganet і DTEL-IX) був закритий після закриття не менш знаменитого fs.to, який купував у свій час 100 Гбіт / с в Нідерландах у нас. А справа з колись знаменитим megauload було ще більш резонансним, коли з дата-центру в Нідерландах, де ми розміщуємося, було вилучено понад 600 серверів цього файлообмінника. Rutracker був заблокований на території РФ Роскомнадзором, а torrents.net.ua в Україні припинив своє існування через острах репресій.

Аудиторія пішла в Youtube, Інстаграм і в інші соц. мережі. Сайти для дорослої аудиторії, мабуть, не втратили популярності, тільки тепер заробіток на тизерної рекламі для наших веб-майстрів з РФ і України втратив будь-який сенс через ціни на рекламу і оплачувати закордонні канали, ціна на які, до речі, знизилася в рази в порівнянні навіть з 2012 роком, коли здавалося, що дешевше вже бути не може, стало досить проблематично.

Ситуація на ринку магістральних каналів, з чого залежить відносна вартість доставки трафіку

  Як ми могли зрозуміти, ознайомившись з інформацією, представленою вище, ціна на трафік в Інтернет залежить від того в яку точку необхідно доставити трафік, наскільки популярно цей напрямок, з якою швидкістю на потік необхідно передати дані і з якою затримкою. А також ціна буде залежати від того по яких каналах зв'язку трафік буде проходити, що визначає те, наскільки прямий маршрут і який пріоритет трафіку буде в тому чи іншому випадку, який в свою чергу визначить кінцеве значення latency (пинга) з однієї точки в іншу.

Наприклад, 10 Гбіт / с з Нового Уренгоя в Норильськ коштуватимуть явно не $ 2000 / місяць і навіть не $ 6000 / місяць, так як в побудову ВОЛЗ було інвестовано понад $ 40 млн. Проект пропонується окупити за 15 років, таким чином щомісячна вартість каналу в 40 Гбіт / с становить 40/15/12 \u003d $ 0,22 млн, або $ 55 000 / місяць за 10 Гбіт / с і це ще не канал в Інтернет, а тільки вартість доставки трафіку по якісної ВОЛЗ між двома віддаленими населеними пунктами. І ці гроші треба брати зараз з населення Норильська, яке буде дивитися той же Youtube (трафік до якого буде коштувати ще дорожче, так як потрібно буде оплатити магістралей за доставку аж до мереж Youtube), а значить трафік з нього буде досить дорогим і активність населення там буде стримуватися цією ціною. Існує варіант, коли Youtube може захотіти бути до своїх користувачів «ближче» і захоче сплатити частину витрат на канал до них замість них, в такому випадку вартість доступу до ресурсу Youtube для населення Норильська може стати нижче. Цей приклад наочно демонструє те з чого може складатися ціна на доступ до конкретних ресурсів мережі Інтернет. Завжди хтось платить за Ваш трафік і якщо це не Ви - то або рекламодавці і ресурси які генерують цей трафік, або ж магістральний провайдер або просто Інтернет-провайдер, якому вигідний трафік з цього напрямку (скажімо для того, щоб отримати знижки на інші напрямки або будь-які податкові пільги, що може бути вигідно у випадку з Норильському або просто тому, що куплений досить широкий канал для отримання знижки на доставку трафіку і він простоює).

Магістральні оператори I рівня, такі, як Cogent, Telia, Level 3, Tata і інші відрізняються тим, що беруть гроші за доставку трафіку з усіх, хто до них підключений, тому трафікогенератори страются обмінюватися трафіком з провайдерами, де знаходиться їхня аудиторія безпосередньо. Таким чином, виникають ситуації, коли народжуються так звані пирингові війни, в тому числі і між магістральними операторами першого рівня і великими генераторами, коли пріоритет віддається конкретним споживачам, в той час як для інших може штучно завищуватиметься ціна співпраці, з метою задавити конкурента, або ж просто з метою збагачення, так як інших варіантів у генератора трафіку просто немає. Тому дуже часто виникали суперечки, в тому числі судові, так як деякі компанії не зберігали мережевий нейтралітет і намагалися зробити це дуже завуальовано.

Так до сих пір не вирішена суперечка між Cogent і Google щодо трафіку по IPv6 протоколу, через що по-просту неможливо зробити пірінг між компаніями для прямого обміну. Cogent вимагає грошей з Google за трафік в їх мережі, Google же хоче піріться безкоштовно, так як маса абонентів Cogent (дата-центри, провайдери домашнього Інтернет) є активними споживачами трафіку з мереж Google, хоча до слова, IPv4, а не IPv6, що зменшило б затримку і знизило вартість трафіку для цих абонентів, за умови зростання% IPv6 трафіку. Але Cogent це мабуть невигідно, так як він магістральний провайдер I рівня, і зовнішній трафік з його мереж оплачується магістральними провайдерами другого (платять магістральним провайдерам I рівня і отримують прибуток з провайдерів третього рівня) і навіть третього рівня (платять провайдерам другого рівня і отримують гроші з кінцевих клієнтів).

Для того, щоб розуміти з чого складається кінцева ціна трафіку для ресурсу, розглянемо ситуацію на прикладі популярного сервісу Cloudflare, суть якого в тому, щоб зробити веб-сайти «ближче» до своєї аудиторії, допомогти знизити навантаження на інфраструктуру, закеширувалася статичну інформацію і відфільтрувати можливі DDOS-атаки.

Зрозуміло, що Cloudflare розміщує сервери в усіх регіонах, де є попит на трафік, тобто практично по всьому світу. А для того, щоб заощадити на трафіку, намагається укладати пирингові угоди з регіональними провайдерами, які здатні доставити трафік від Cloudflare до користувачів безкоштовно, в обхід дорогих магістральних операторів Tier I рівня, які стягують плату за трафік в будь-яких випадках. Чому місцевим провайдерам це вигідно? При значних обсягах трафіку їм потрібно платити також, як і Cloudflare, операторам Tier I рівня значні кошти за доставку трафіку, куди вигідніше підключити свій канал «безпосередньо» (вкластися раз в будівництво) і отримувати трафік безкоштовно, ніж платити щомісяця великі гроші магістральному оператору. Навіть у випадках, коли прямий пірінг неможливий, буває вигідніше підключитися через мережі інших транзитних провайдерів, де вартість трафіку буде набагато нижче вартості трафіку при передачі через Tier I. Так, маршрут стає дуже прямим, можливо росте незначно пінг, можливо трохи падає швидкість передачі на потік, але якість може залишатися все ще прийнятним для здійснення такої економії.

Але не завжди є можливість укладати пирингові угоди, все ж в деяких регіонах Cloudflare змушений купувати досить великий% коннективности у магістральних провайдерів, причому ціна трафіку дуже варіюється, в залежності від регіону. На відміну від деяких хмарних сервісів, таких як Amazon Web Services (AWS) або традиційних CDN, які оплачують трафік часто мало не потерабайтно, Cloudflare платить за максимальне використання каналу протягом певного періоду часу (так званий «потік трафіку»), на основі максимальної кількості мегабіт в секунду, які використовуються на протязі місяця у будь-якого з магістральних провайдерів. Такий метод обліку називається burstable, а окремий випадок - 95th percentile. 95 перцентиль - це метод, який використовується для забезпечення гнучкості та пакетного використання ширини каналу. Це дозволяє споживачу послуг перевищувати встановлену тарифом смугу пропускання на 5% від усього часу користування каналом, без збільшення вартості. Наприклад, якщо Ваш тариф передбачає використання смуги пропускання в 5 Мбіт / с, то планка гранично допустимої ширини каналу може бути перевищена на 36 годин кожен місяць (5% від 30 днів). Використовувана смуга пропускання вимірюється і записується кожні 5 хвилин протягом місяця, як усереднене значення за цей малий п'ятихвилинний проміжок часу. Замір використовуваної смуги пропускання в кожному часовому інтервалі відбувається шляхом ділення кількості переданих даних за інтервал на 300 секунд (тривалість зазначеного інтервалу). В кінці місяця забирається 5% максимальних значень, а далі з решти 95% вибирається максимальне число і саме це значення використовується для розрахунку оплати за ширину каналу.

Існує легенда, що в ранні дні свого існування Google використовував контракти з 95 перцентилем, щоб проводити індексацію з дуже високою пропускною здатністю протягом одного 24-годинного періоду, а в решту часу інтенсивність споживання трафіку була значно нижче, тим самим забезпечувалася значна економія на оплаті споживаних каналів. Розумна, але поза сумнівом, не дуже довговічна стратегія, так як згодом все ж довелося будувати власні дата-центри і навіть канали, щоб індексувати ресурси більш часто і менше платити за міжконтинентальний транспортний трафік.

Ще одна «тонкість» полягає в тому, що зазвичай Ви платите магістральним провайдерам за переважаючий трафік (вхідний або вихідний), що у випадку з CloudFlare дозволяє повністю неоплачуваних вхідний трафік. Адже CloudFlare є кешируєтся проксі-сервісом, в слідстві чого результат (out) зазвичай перевищує вхід (in) приблизно в 4-5 разів. Тому тарифікація смуги пропускання відбувається виключно за значеннями вихідного трафіку, що дозволяє повністю не платити за вхід. З цієї ж причини сервіс не стягує додаткову плату, коли сайт потрапляє під DDOS-атаку. Атака безумовно збільшує споживання вхідного трафіку, але якщо атака не дуже велика, вхідний трафік як і раніше не буде перевищувати вихідний і, отже, це не збільшить вартість використовуваних каналів.

Велика частина пирингового трафіку зазвичай безкоштовна, чого не скажеш про трафік з сервісу Netflix, який змушений був після довгих дебатів оплатити Verizon і Comcast за пирингові включення для забезпечення можливості прийнятного за швидкістю відео-стриммингу для користувачів з мереж цих операторів.

На схемі вище ми можемо бачити, як росте кількість безкоштовних пірінгових включень Cloudflare з плином 3 місяців, як c IPv4, так і з IPv6 версією Інтернет-протоколу. А нижче, також протягом 3 місяців, ми можемо спостерігати глобальне зростання пирингового трафіку Cloudflare, який зараз використовує понад 3000 пірінгових включень і економить близько 45% коштів на оплату дорого магістрального транзитного трафіку.

Cloudflare не розголошує скільки точно платить за транзитний магістральний трафік, однак наводить порівняльні значення з різних регіонів з яких можна зробити приблизний висновок про розмір витрат.

Розглянемо на початку Північну Америку. Давайте припустимо, що в якості еталону в Північній Америці ми приймемо змішане середнє значення для всіх постачальників транзиту в розмірі $ 10 за Мбіт / с на місяць. Насправді оплата буде менше цієї суми і буде залежати від обсягів, а також від обраного магістального оператора, але вона може служити еталоном для порівняння вартості з іншими регіонами. Якщо ми приймаємо цей показник, то кожен 1 Гбіт / с буде обходитися в 10 000 доларів на місяць (знову ж, не забувайте, що це значення вище реального і характерно, як правило, в разі роздрібної покупки, це всього лише еталонний показник, який дозволяє зрозуміти відмінність).

Ефективна ціна за пропускну здатність в регіоні буде змішаною ціною вартості транзиту ($ 10 за Мбіт / с) і пирингового трафіку ($ 0 за Мбіт / с). Кожен байт, переданий по пиринге, є потенційним транзитним байтом, за який не потрібно платити. У той час, як Північна Америка має одну з найнижчих цін на транзит у світі, вона також має більш низькі середні показники пірінга. На наведеному нижче графіку показано співвідношення між пірінговим і транзитним трафіком в регіоні. І хоча за останні три місяці для Cloudflare воно стало краще, Північна Америка як і раніше відстає від усіх інших регіонів світу з точки зору пірінга.

Таким чином, в той час, як відсоток пирингового трафіку у Cloudflare перевищує 45% глобально, в північно-американському регіоні він становить всього лише 20-25%, що робить ефективну вартість 1 Мбіт / с без урахування знижок рівній $ 7,5-8 за Мбіт / с. В результаті чого Північна Америка є другим регіоном в світовому рейтингу регіонів з найдешевшим трафіком. Але де ж трафік найдешевший?

Ми вже розглядали раніше Європу, де вже дуже давно, на увазі історичної концентрації населення в певних регіонах, існує маса точок обміну, саме за рахунок цього вдається отримати більший% пирингового трафіку, і, як результат - найдешевший трафік в світі, так як% транзитного трафіку у того ж Cloudflare знаходиться на рівні 45-50%.

В результаті чого наша еталонна вартість падає до значень $ 4,5-5 за Мбіт / с і менше. % Пирингового трафіку залежить безпосередньо від кількості учасників найбільших точок обміну в Європі - AMS-IX в Амстердамі, DE-CIX у Франкфурті і LINX в Лондоні. В Європі точки обміну трафіку в основному підтримуються некомерційними організаціями, в той час, як в США, точки обміну в основному комерційні, та ж Equinix в Нью-Йорку, що значно впливає на кількість учасників цих точок обміну і як наслідок пиринге, які готові підписувати пирингові угоди. Для порівняння в Амстердамі за статистикою на 2014 рік налічується близько 1200 учасників, в той час як в США всього 400.

Співвідношення пирингового трафіку до транзитного в азіатському регіоні приблизно таке ж, як і в Європі, Cloudflare демонструє графік зі значенням близьким до 50-55%. Однак вартість транзитного трафіку в 6-7 разів вище в порівнянні з еталонною вартістю трафіку в Європі і складає аж $ 70 за Мбіт / с. Таким чином ефективна вартість трафіку знаходиться в межах $ 28-32 за Мбіт / с, що в 6-7 разів вище, ніж в Європі.

В цілому вартість транзитного трафіку в азіатському регіоні вище за рахунок декількох факторів. Основним є той, що в регіоні менше конкуренція, а також більше провайдерів-монополістів. По-друге ринок Інтернет-послуг менш зрілий. І нарешті, якщо Ви подивіться на карту Азії, то побачите багато чого - вода, гори, сложнодоступние малонаселені регіони. Запуск підводних кабелів обходиться значно дорожче, ніж прокладка волоконно-оптичного кабелю в самому важкодоступному регіоні, хоча це також коштує не дешево, тому вартість міжконтинентального транзиту і вартість транзиту по віддаленим територіям компенсується вартістю транзиту всередині решти континенту, яка штучно завищується з метою покриття витрат на зовнішню і внутрішню «віддалену» коннективність.

Латинська Америка стала новим регіоном, в якому з'явилося присутність Cloudflare і вже на протязі 3 місяців після цього% пирингового трафіку виріс з 0 до 60%.

Однак вартість транзитного трафіку також, як і в Азії, дуже висока. Транзитний трафік обходиться в 17 разів дорожче транзитного трафіку в Серверної Америці або Європі, і ефективна вартість знаходиться на рівні $ 68 за Мбіт / с, що в два рази вище, ніж в азіатському регіоні, незважаючи на те, що відсоток пирингового трафіку тут один з кращих в світі. Проблема Латинської Америки ще в тому, що в багатьох країнах відсутні дата-центри з політикою «carrier neutral», коли учасники можуть вільно комутуватися і обмінюватися трафіком між собою. Найбільш розвиненою в цьому плані виявилася Бразилія і після того, як Cloudflare побудував власний дата-центр в Сан-Паулу, кількість пиринге зросла значно, що і дозволило досягти 60% значення обмінного трафіку.

Найбільш дорогим для Cloudflare є, мабуть, трафік в Австралії, так як тут задіяна величезна кількість підводних магістралей для доставки трафіку. І хоча% пирингового трафіку всередині регіону сягає 50%, Telstra - оператор-монополіст на австралійському ринку телекомунікаційних послуг, не дозволяє знизити вартість транзитного трафіку всередині країни нижче $ 200 за Мбіт / с зважаючи на велику розподіленості населення по регіону, що в 20 разів вище еталонного значення в Європі або США. В результаті ефективна вартість трафіку в 2015 році знаходиться на рівні $ 100 за Мбіт / с і є однією з найдорожчих в світі. А витрати на транзитний трафік складають приблизно ту ж суму, скільки Cloudflare витрачає на оплату трафіку в Європі, хоча населення Австралії в 33 рази менше (22 млн проти 750 млн у Європі).

Цікаво, що в Африці, незважаючи на високу вартість транзитного трафіку - в районі $ 140 за Мбіт / с Cloudflare вдалося домовитися з 90% провайдерами про пиринге, в результаті чого ефективна вартість трафіку виявилася на рівні $ 14 за Мбіт / с. Завдяки чому веб-сайти з Лондона, Парижа і Марселя стали відкриватися досить швидко, а присутність в Західній Африці було збільшено, забезпечивши більш швидкий доступ до ресурсів Європи для жителів тієї ж Нігерії, де налічується близько 100 млн Інтернет-користувачів. А в регіоні Middle East відсоток пирингового трафіку і зовсім досяг 100%, що дозволило зробити його найдешевшим для CloudFlare в світі, якщо не враховувати витрати на будівництво і підтримку дата-центрів.

Вже через 2 роки, в кінця 2016, ціни в найдорожчому регіоні - Австралії і Океанії, стали на 15% нижче, що дозволило отримати ціну трафіку на рівні $ 85 за Мбіт / с. Таким чином, у випадку з Cloudflare, статистика стала приблизно такою:

Цікаво, що сьогодні, існує 6 найдорожчих магістральних провайдерів - HiNet, Korea Telecom, Optus, Telecom Argentina, Telefonica, Telstra, трафік з яких коштує для Cloudflare на порядок дорожче, ніж трафік від інших постачальників коннективности по всьому світу, і які відмовляються обговорювати більш низькі ціни на транзит. У того ж Cloudflare сумарний трафік в ці 6 мереж знаходиться на рівні менше 6% від загального споживання, але майже 50% коштів, що виділяються на оплату сумарною коннективности, доводилося на оплату трафіку з цих 6 найдорожчих мереж. Зрозуміло, що так не могло тривати вічно і Cloudflare прийняло рішення перенаправити трафік своїх «безкоштовних» користувачів в більш віддалені дата-центри (в Сінгапур або Лос-Андежелес), замість присутності в Австралії і Новій Зеландії, де вартість зовнішніх каналів більш здорова, в внаслідок чого, за іронією долі, та сама Telstra стала платити більше, так як їх підводний магістраль виявилася більш завантаженою, після цього переходу, що можливо послужить хорошим сигналом для зниження цін для таких ресурсів, як Cloudflare, в регіоні.

Абсолютні значення вартості доставки трафіку у транзитних провайдерів в різних регіонах

  Telegeography - чудовий ресурс, допомагає побачити не тільки зростання підводних магістральних мереж, а й те, які ціни в середньому пропонуються на ринку з доставки трафіку, обчислюючи медіану при використанні транзитних магістральних провайдерів в тому чи іншому регіоні. Для того, щоб показати Вам сучасний порядок цін мені довелося замовити від них невеликий звіт, в результаті аналізу даних в якому були отримані наступні результати.

Як бачимо вартість послуги Dedicated Internet Access (DIA) знаходиться на максимальному рівні в Мумбаї, Сан-Паулу і Каракасі в даний момент. У той час, як в Європі і США ця вартість знаходиться на рівні $ 6 і $ 8 за Мбіт / с відповідно.

Відповідно до цього виникає логічне запитання, а як же при таких цінах вдається в нинішній час надавати в оренду сервери, скажімо конфігурації 2 х Intel Dodeca-Core Xeon E5-2650 v4 128GB DDR4 6 x 480GB SSD з каналом 1Gbps і лімітом трафіку 100 ТВ за ціною $ 249 / місяць, що еквівалентно 300 + Мбіт / с реального споживання, якщо вартість 1 Мбіт / с знаходиться на рівні $ 6 / місяць за мегабіт в середньому, виходячи з даних поточного звіту?

Яким чином трафік в дата-центрах може продаватися дешевше?

Великі дата-центри, такі, як EvoSwitch в Амстердамі, в якому ми розміщуємося, мають власну розвинену магістральну мережу волокон, що дозволяє значно заощадити на доставці трафіку в певні регіони, плюс збільшує кількість можливих пиринге. У 2017 році наш партнер став володарем однієї з наймасштабніших і якісних мереж.

Як можемо бачити з ілюстрації, загальна ємність мережі досягла 5,5 Тбіт / с, 36 точок присутності з'явилося по всьому світу, понад 2000 пірінгових включень, включення в 25 точок обміну трафіком безпосередньо. Все це, безумовно, впливає на ефективну вартість трафіку, яка, як ми пам'ятаємо, є сумою вартості платної магістральної транзитної коннективности і безкоштовної пиринговой, а також може бути зменшена за рахунок справляння плати за пирингові включення з провайдера-споживача трафіку. Тобто трафік може оплачувати не тільки генератор трафіку, а й одержувач - провайдер, в мережу якого генерується цей трафік і який зацікавлений в організації пирингового включення для того, щоб менше платити магістральним провайдерам і заощадити на трафіку по тій же схемі, по якій економить дата -центр. Крім іншого у дата-центру майже завжди існує можливість продажу зайвого «вхідного» Інтернет-каналу користувачам домашнього Інтернет, які в основному потребують саме в такому трафіку для доступу в мережу Інтернет і який, по суті, є невживаних в більшості дата-центрів.

Проте навіть така настільки велика мережа не дозволяє зробити вартість трафіку нескінченно низькою. Тому, які б гарантовані умови на трафік дата-центр не пропонував, потрібно розуміти, що кінцева низька вартість на трафік досягається за рахунок продажу смуги з достатньою впевненістю оцінити oversell "a, тобто продажу більшої коннективности, ніж є насправді, але з жорстким урахуванням реальних потреб користувачів дата-центру в трафіку в гарантованому випадку, коли кожному користувачеві забезпечується його гарантована смуга в потрібний для нього момент часу. Причому заощадити на трафіку можна тим більше, чим більше користувачів обсл уживається і тим більше, чим більше пірінгових і магістральних каналів підключено до мережі.

Розглянемо приклад. 10 користувачів потрібен гарантований каналі 100 Мбіт / с до їх серверів, проте використовують коннективність не завжди на 100% і досить приватно не одночасно. Після аналізу реального споживання виявляється, що одночасно всі десять користувачів споживають не більше 300 Мбіт / с трафіку в піках і закуповувати 1 Гбіт / с виділеної смуги, а з урахуванням резервування - 2 Гбіт / с у різних операторів і тарифікувати кожного користувача за виділений канал в повному обсязі (по суті подвійне) стає не доцільно. Набагато розумніше купити в три рази менше - 700 Мбіт / с трафіку, якщо закупівля проводиться у двох незалежних магістральних операторів, що допоможе забезпечити виділений канал 100 Мбіт / с кожному з 10 клієнтів із зазначеним рівнем споживання, та й ще й з подвійною ступенем відмовостійкості, плюс навіть залишиться близько 100 Мбіт / с на «виріст» на випадок, коли у кого-небудь почне рости споживання трафіку, що дасть час на підключення додаткових каналів. Якщо ж трафік поставляється вже трьома незалежними магістральними провайдерами, то закупівля стає ще вигідніше, так як досить купити тільки 500 Мбіт смуги, а то і менше, адже одночасно з ладу з великою часткою ймовірності може вийти тільки один канал з трьох - не більше 166 Мбіт / с коннективности, коли існує потреба максимум в 300 Мбіт / с. Таким чином ми легко зможемо отримати 334 Мбіт / с смуги в будь-який момент часу, що буде достатнім для потреб наших абонентів, навіть при аварії на одному з АПЛІНК.

В реальності ситуація набагато простіше і ступінь відмовостійкості і резервування вище, так як клієнтів з каналом 100 Мбіт / с часто не десять, а десятки тисяч. А трафіку більшість використовує вкрай мало. Так тисячі серверів з каналом 100 Мбіт / с без обліку за нашими статистичними даними споживає в середньому тільки 10-15 Гбіт / с в піках, а то і менше, що еквівалентно 10-15% виділеної їм смуги. При цьому всім забезпечується можливість споживати 100 Мбіт / с в потрібне їм час без будь-якого обліку, а магістральних операторів, канали від яких заведені, використовується велика кількість. Пірінгових включень, само собою, що ще більше, що робить коннективність часто більш недорогий і якісною і виключає можливість втрати величезної частини коннективности відразу. За рахунок цього знижується необхідний%, що виділяється на забезпечення відмовостійкості, з 50 до 5% і менше. Зрозуміло, що є клієнти, які завантажують свої канали «в полку», але є й ті, які споживають вкрай мало трафіку, при цьому орендують виділений сервер з 100 Мбіт / с каналом без урахування, так як так зручно - не потрібно бояться дорогий плати за перевищення або просто абоненти не розуміють скільки їм реально трафіку необхідно і як його розраховувати. По суті ті користувачі, які не споживають всю виділену їм смугу, оплачують трафік користувачів, які використовують канал в повній мірі.

Крім іншого потрібно пам'ятати ще й про добовому розподілі відвідуваності Інтернет-проектів, що також впливає на здешевлення вартості. Так як, якщо у Вас спостерігається завантаження каналу на 100% у вечірній час, в момент максимуму відвідувань Вашого ресурсу, то в інший час доби завантаження каналу буде цілком ймовірно набагато нижче 100%, аж до 10-20% в нічний час і звільнився канал можна буде використовувати для інших потреб (генерацію трафіку в інший регіон не розглядаємо, тому що в цьому випадку швидше за все виникне дорога оплата за транспорт). В іншому випадку відвідувачі в пікові години почнуть випробовувати проблеми, йти з веб-сайту і відвідуваність неминуче впаде через погіршення поведінкових факторів і зниження позицій ресурсу в результатах пошукової видачі, якщо трафік проекту в основному пошуковий.

У разі гігабітних включень, звичайно ж,% утилізації каналів був вище 10-15% в початковий період існування пропозиції і міг доходити до 50% і більше, так як такі сервери раніше замовлялися абонентами-трафікогенераторамі, коли 100 Мбіт / с порту їм не вистачало , а гігабітний порт коштував значно дорожче і не було сенсу звичайним користувачам за нього платити, коли в ньому не було реальної необхідності. У наші дні, коли стало можливим отримати 1 Гбіт / с і навіть 10 Гбіт / с будинки, а відмінність між вартістю світча, який підтримує 1 Гбіт / с і 100 Мбіт / с стало незначним, виявляється набагато більш вигідним надати кожному доступ до каналу 1 Гбіт / с, навіть тоді, коли він реально в ньому не потребує, ніж обмежувати пропускну здатність. Тільки для того, щоб клієнт якомога швидше прокачав потрібний йому об'єм інформації і, як наслідок, набагато більш швидко звільнив смугу для наступній особі у випадках, коли йому не потрібно генерувати трафік постійно. Саме тому відсоток утилізації трафіку для серверів з каналом 1Gbps і лімітом 100ТБ в реальності виявився набагато менш 10%, так як більшість користувачів, само собою, не потребують такого каналі весь час і звільняють канал в 10 разів швидше для використання наступними абонентами.

Застосовуючи такий принцип надання Інтернет-каналів виникає явна необхідність у моніторингу споживання трафіку в окремих сегментах мережі ЦОД і навіть в кожній стійці, щоб як тільки у когось потреба в каналі возростёт і резерв трафіку почне зменшуватися, можна було додати додатковий канал, тим самим забезпечити гарантований «безліміт» для всіх. В цілому завдяки цьому підходу економляться значні кошти на оплату зовнішніх каналів зв'язку і з'являється можливість пропонувати ціни на порядок нижче, ніж без застосування цього принципу і навіть заробляти на трафіку. Адже дата-центр не може продавати трафік за фактичною собівартістю, а просто зобов'язаний заробляти, так як витрачає час і кошти на обслуговування мережі, ну і «здоровий» бізнес повинен бути прибутковим.

Тому коефіцієнт oversell "a присутня скрізь, в більшій чи меншій мірі, навіть при продажу пропозицій з каналом 10 Gbps Unmetered до виділених серверів, які, здавалося б, повинні були б споживати трафік по повній. Але реальність виявлялася інший. Ми свого часу продали понад 50 виділених серверів з підключенням 10 Gbps Unmetered до кожного, однак загальний наш генерований трафік ледь перевищив 250 Гбіт / с, при тому, що цей канал використовувався ще 900+ виділеними серверами з підключенням 100 Мбіт / с і 1 Гбіт / с до кожного серверу . Саме завдяки цьому ми з могли надати сервери з гарантованим каналом 10 Гбіт / с за неймовірними цінами в $ 3000 / місяць, а в майбутньому - майже в 2 рази дешевше (починаючи від $ 1800. США). Ми були першими, хто продавав коннективність за настільки низькими цінами і саме тому зуміли згенерувати так багато трафіку і отримати масу задоволених клієнтів.

Вчора ми готові піти ще далі, завдяки співпраці з магістральним оператором I рівня Cogent, ми маємо можливість продати надлишок коннективности в певних сегментах їх мережі в Нідерландах і США ще дешевше - від $ 1199 за сервер з каналом в 10 Гбіт / с без обліку і від $ 4999 за сервер з каналом 40 Gbit / s Unmetered.

https://ua-hosting.company/serversnl - оформити замовлення можна тут, якщо потрібно локація в США - відкрийте запит в тикеті. Однак Нідерланди є оптимальною по зв'язності локацією для наших регіонів.

2 х Xeon E5-2650 / 128GB / 8x512GB SSD / 10Gbps - $ 1199
  2 х Xeon E5-2650 / 256GB / 24x512GB SSD / 10Gbps - $ 2099
  2 х Xeon E5-2650 / 256GB / 24x1TB SSD / 10Gbps - $ 3599
  2 х Xeon E5-2650 / 256GB / 24x2TB SSD / 10Gbps - $ 6599

2 х Xeon E5-2650 / 256GB / 8x1TB SSD / 20Gbps - $ Рік: 1999
  2 х Xeon E5-2650 / 256GB / 24x512GB SSD / 20Gbps - $ 2999
  2 х Xeon E5-2650 / 256GB / 24x1TB SSD / 20Gbps - $ 4599
  2 х Xeon E5-2650 / 256GB / 24x2TB SSD / 20Gbps - $ 7599

2 х Xeon E5-2650 / 256GB / 24x512GB SSD / 40Gbps - $ 4999
  2 х Xeon E5-2650 / 256GB / 24x1TB SSD / 40Gbps - $ 5599
  2 х Xeon E5-2650 / 256GB / 24x2TB SSD / 40Gbps - $ 8599

В індивідуальних випадках ми здатні запропонувати адекватні ціни і на 100Gbps Unmetered підключення, звертайтеся, якщо така коннективність Вам необхідна.

Звичайно, ми з Cogent розраховуємо, що Ви не споживете всю виділену Вам смугу, цьому ж сприяють і пропоновані зміни. У разі їх використання з RAID-контролером, спожити більше 6 Гбіт / с трафіку дуже проблематично, так як отримуємо «пляшкове горлечко» у вигляді контролера. Однак, якщо використовувати накопичувачі незалежно, стає можливим розподілити трафік оптимальним чином. У будь-якому випадку ми забезпечуємо можливість споживання зазначеної смуги незалежно від наших з Cogent надій. Тим більше, що продаються надлишки коннективности, які у випадках непродажу просто простоювали б. Не потрібно забувати також про те, що Cogent, як магістральний провайдер, бере грошей з усіх. Таким чином трафік, який сгенеріруете Ви, в будь-якому випадку додатково сплатить провайдер, в мережі якого цей трафік прийде.

Однак не варто розраховувати, що купивши сервер з таким каналом, у Вас буде 10, 40 або 100 Гбіт / с на потік, це по-просту неможливо за такі гроші, та й часто не потрібно. Стриммингу-транспорт на високій швидкості точка-точка може коштувати величезних грошей, в деяких випадках $ 55 000 за 10 Гбіт / с, як у випадку з ВОЛЗ Новий Уренгой - Норильськ, який ми розглянули вище. Але те, що буде забезпечена відмінна коннективність в цілому з мережею Інтернет - це однозначно. Середня швидкість на потік для більшості проектів досить, щоб перебувала на рівні понад 10 Мбіт / с, що дозволяє розміщувати проекти зі стриммингу відео в якості Ultra HD і забезпечити перегляд 1000-4000 людина «онлайн» з одного сервера.

Проте в деяких випадках швидкість передачі на потік може бути значною навіть при невеликій платі за канал. Так в минулому році в США широке поширення отримав 10 Гбіт / с домашній Інтернет, коли за скромну плату в $ 400 / місяць стало можливим отримати такий «безлімітний» канал будинку.

У таких випадках домашні роутери, що забезпечують доступ до мережі по Wi-Fi, виявляються найчастіше «пляшковим горлечком» (здатні забезпечити підключення до 300 Мбіт / с), в результаті чого доводиться знову застосовувати дротове підключення і навіть встановлювати сервери будинку, а також застосовувати продуктивні комп'ютери і накопичувачі в них, щоб не впертися в їх можливості при використанні каналу. Навіщо це потрібно? Багато хто в наш час працює з даними з дому. James Busch, радіолог з США, проводить аналіз даних пацієнтів з дому і новий канал економить йому значну кількість часу.

«В середньому рентгенологічне дослідження містить близько 200 мегабайт даних, в той час як PET сканування і мамографія в 3D можуть займати до 10 гігабайт. Таким чином ми змушені обробляти сотні терабайт даних. Ми порахували, що економимо в середньому близько 7 секунд при проведенні одного дослідження при застосуванні 10 Гбіт / с підключення замість гігабітного. Здавалося б, що це небагато, але якщо помножити на кількість досліджень, яке ми проводимо за рік, а це 20-30 тис, то виходить, що ми економимо близько 10 днів продуктивної роботи тільки завдяки тому, що вдосконалили швидкість підключення на порядок. »

Таким чином, якщо Вам потрібна висока швидкість на потік при мінімальних витратах - потрібно розміщувати Ваш 10, 20, 40 або 100 гігабітний сервер, як можна ближче до користувачів. Тоді цілком імовірно, що Ви зможете генерувати в деякі сегменти мережі Інтернет трафік на швидкості 1 і навіть 10 Гбіт / с на потік.

Наш час відкриває Вам унікальні можливості для нових звершень. Тепер Ви навряд чи можете сказати, що якась послуга хостингу або оренди виділеного сервера коштує занадто дорого, а почати власну справу або проект ніколи не було ще так просто. Зараз доступні найпродуктивніші серверні конфігурації, можливості яких перевершують можливості серверів десятирічної давності до трьох порядків в деяких випадках, а за цінами вони не на багато дорожче хостингу 2005 року. Дозволити може реальної кожен. Трафік став коштувати в тисячі разів дешевше, а швидкість каналів вище. І тільки від Вас буде залежати, як ними Ви розпорядитеся. Придумати цікавий Інтернет-проект може кожен, перестаньте витрачати свій час даремно. Орендуйте виділений сервер або щонайменше віртуальний і почніть роботу вже сьогодні, навіть якщо він Вам поки не потрібен і Ви нічого не знаєте в цьому - він буде служити хорошою мотивацією йти вперед. Використовуйте ці можливості для того, щоб зробити наш світ кращим. Якщо навіть Ви ніколи не мали досвід веб-розробки і створення Інтернет-проектів, ніколи не пізно почати, я колись почав з 0 і згенерував трафіку більше, ніж вся Білорусь! Сподіваюся мій досвід буде для Вас корисним. Ми будуємо Інтернет, приєднуйтесь!

BLACK FRIDAY ТРИВАЄ:   знижка 30% на перший платіж по промо-коду BLACK30%   при замовленні на 1-6 місяців!

Це не просто віртуальні сервери! Це VPS (KVM) з виділеними накопичувачами, які можуть бути не гірше виділених серверів, а в більшості випадків - краще! Ми зробили VPS (KVM) c виділеними накопичувачами в Нідерландах і США (конфігурації від VPS (KVM) - E5-2650v4 (6 Cores) / 10GB DDR4 / 240GB SSD або 4TB HDD / 1Gbps 10TB доступними за унікально низькою ціною - від $ 29 / місяць , доступні варіанти з RAID1 і RAID10), Не пропустіть нагоду оформити замовлення на новий тип віртуального сервера, де всі ресурси належать Вам, як на виділеному, а ціна значно нижча, при набагато більш продуктивній «залізі»!

Як побудувати інфраструктуру корп. класу c застосуванням серверів Dell R730xd Е5-2650 v4 вартістю 9000 євро за копійки? Dell R730xd в 2 рази дешевше?   Тільки в нас 2 х Intel Dodeca-Core Xeon E5-2650v4 128GB DDR4 6x480GB SSD 1Gbps 100 ТВ від $ 249 в Нідерландах і США!

Теги: Додати теги