Более трех четвертей сегодняшнего интернет-трафика приходится на потоковое видео, и этот показатель, по прогнозам, будет только расти со временем. Чтобы удовлетворить этот спрос, интернет-провайдеры предлагают потребителям более высокую скорость передачи данных по более высоким ценам, причем в некоторых регионах доступны уровни гигабит в секунду.

Но улучшают ли эти более дорогие планы качество потокового видео? Wall Street Journal недавно ответил на этот вопрос с помощью профессора Ника Feamster, Чикагского университета эксперт по производительности и безопасности сетей связи, в сотрудничестве, что и информирует потребителей и продвигает науку.

История началась три года назад с того, что журналисты сочли простым вопросом: имеют ли значение более высокие скорости для потокового видео? Чтобы ответить на этот вопрос, они обратились к Фимстеру, затем из Принстонского университета, за его опытом в области сетевых компьютерных систем. Группа Feamster разработала программные системы, которые могли бы надежно измерять фактическую скорость интернета, получаемую потребителями дома, — одна из важных частей запроса WSJ. Но для сбора другой половины данных  производительности потоковых видео услуг в этих домах — потребуется сочетание систем, машинного обучения и набора персонала.
В то время как поставщики видео, такие как Netflix, Amazon и YouTube, могут собирать данные о качестве, которое пользователи получают через свое программное обеспечение, интернет-провайдеры и сторонние исследователи находятся в неведении. С помощью Wall Street Journal исследователи наняли более 60 домохозяйств, собрали информацию об их интернет-сервисе и установили монитор данных, проходящих через их сеть. Но проблемы остались.
«Мы в основном смотрим на бессмысленный трафик; он весь зашифрован, мы не можем видеть его содержимое, и мы как-то хотим знать: транслирует ли пользователь видео Netflix, и если да, то какое разрешение? Сколько времени понадобилось, чтобы начать играть? — сказал Фемстер, профессор компьютерных наук Нойбауэра и директор факультета Центра данных и вычислений, который присоединился к факультету UChicago 1 июля. «Это интересная и очень сложная проблема вывода из машинного обучения. Мы видим кучу зашифрованных данных и мы» мы пытаемся выяснить качество этого видео — не просто «скорость», а качество реального опыта пользователя ».
Работа привела к исследовательской работе и новому инструменту под названием Net Microscope, который выводит показатели качества потокового видео, такие как задержка запуска и разрешение в режиме реального времени, из потока зашифрованных данных. Собрав данные из более чем 200 000 видеосеансов из домов добровольцев, команда обучила модели, которая может смотреть на зашифрованные данные и определять, какие потоки поступают из Netflix, YouTube, Amazon и Twitch, а также качество, испытывающее конечные пользователи.
Оттуда исследователи могли бы наконец ответить на вопрос, заданный Wall Street Journal : как эти службы работают на разных скоростях интернета? Исследование показало, что производительность потокового видео намного выше заданий, предлагаемых интернет-провайдерами верхнего уровня, причем планы со скоростью свыше 100 мегабит в секунду лишь незначительно улучшают задержки запуска и разрешение даже при одновременном просмотре видео несколькими устройствами.
Это ценная информация для потребителей, которые могут чувствовать необходимость перехода на более дорогой тариф, если они не удовлетворены качеством потокового видео у себя дома. Но это также полезная информация для интернет-провайдеров, сказал Фимстер, которые могут помочь своим клиентам найти истинную причину неудовлетворительной работы, а не просто рекомендовать более быстрое обслуживание.
«Все, что мы делаем, может помочь в основном пролить свет на этот вопрос со стороны потребителей, а также может в конечном итоге помочь работе самой сети», — сказал Фимстер. «Таким образом, это как бы идет в обе стороны».
Проект соответствует более широкому исследованию Feamster, посвященному производительности и безопасности сетей связи, который включает в себя работу над технологиями Интернета вещей, цензуру и информационный контроль над онлайн-платформами, а также вопросы политики, такие как сетевой нейтралитет и широкополосный доступ.
Как и в проекте Wall Street Journal, многие из этих областей исследований и проблем политики требуют создания нового программного обеспечения и систем, которые могут собирать данные и измерять производительность в реальном мире. С точки зрения своей новой роли в Центре данных и вычислений, Фимстер рассматривает этот проект как начало того, что, как он надеется, станет большей работой на стыке науки о данных, государственной политики и журналистских расследований.

«Решение политических проблем зависит от наличия доступа к достоверным данным, потому что для информирования о дебатах необходима точная информация о том, что на самом деле происходит», — сказал Фимстер. «Эти наборы данных, как правило, не существуют, у нас на коленях нет данных о скоростных тестах, которые могли бы ответить на эти вопросы. Мы должны спроектировать метод и построить систему для сбора данных, которых никто больше не имеет … тогда мы можем дать ответ.