Мир-фильтр. Как алгоритмы уплощают культуру - страница 14



Первым полностью общедоступным интернет-алгоритмом, с которым сталкивался практически каждый пользователь интернета, стал алгоритм поиска Google. В 1996 году, учась в Стэнфордском университете, соучредители Google Сергей Брин и Ларри Пейдж начали работу над тем, что впоследствии превратилось в PageRank – систему ранжирования страниц интернета (который на тот момент насчитывал около ста миллионов документов); она просматривала веб-страницы и определяла, какие из них окажутся полезнее или информативнее. Алгоритм PageRank подсчитывал, сколько раз на данный сайт ссылались другие, подобно тому, как авторы научных работ ссылаются на результаты предыдущих серьезных исследований. Чем больше ссылок, тем более важной считалась страница. Показатель цитирования “согласуется с субъективным представлением людей о важности”, – писали Брин и Пейдж в 1998 году в работе “Анатомия системы крупномасштабного гипертекстового интернет-поиска”. Алгоритм PageRank объединил форму совместной фильтрации с фильтрацией на основе содержания. Связывая различные страницы, люди-пользователи формировали субъективную карту рекомендаций, которую учитывал алгоритм. Он также измерял такие факторы, как количество ссылок на странице, относительное качество этих ссылок и даже размер текста – чем он длиннее, тем более релевантным может оказаться текст для конкретного поискового запроса. Страницы с высоким значением PageRank с большей вероятностью появлялись в верхней части списка результатов, которые выдавала поисковая система Google.

Прогноз Пейджа и Брина относительно того, что их система останется функциональной и масштабируемой по мере развития интернета, оказался верным. Спустя десятилетия PageRank стал почти тиранической системой, которая управляет тем, как и когда видны сайты. Для любого бизнеса или ресурса жизненно важно приспособиться к алгоритму ранжирования и попасть на первую страницу результатов поиска Google. В начале 2000-х годов мне приходилось просматривать множество выдаваемых страниц, чтобы найти то, что мне требовалось. В последнее время я почти никогда не добираюсь даже до второй страницы – в частности, благодаря тому, что поисковая система Google теперь еще и сама показывает текст, который сочла релевантным: она берет его с сайта и демонстрирует пользователю в верхней части страницы – выше фактических результатов поиска. Таким образом, пользователь, спросивший: “Можно ли кормить собаку морковью?” (я без устали искал ответ на этот вопрос, когда у меня впервые появился щенок), сразу получает ответ, и у него отпадает необходимость заходить на другой сайт, что еще сильнее укрепляет авторитет Google. “Знание – сила”, – писал Фрэнсис Бэкон в XVI веке, однако в эпоху интернета, возможно, еще больше преимуществ дает сортировка знаний. Информацию сегодня найти легко; гораздо сложнее разобраться в ней и понять, какие сведения полезны.

Пейдж и Брин хотели, чтобы их система была относительно нейтральной и оценивала каждый сайт исключительно с точки зрения его релевантности. Задача алгоритма заключалась в предоставлении пользователю наилучшей информации. Ориентирование поиска на определенный сайт или бизнес испортило бы результаты. “Мы полагаем, что поисковые системы, финансируемые за счет рекламы, будут по своей сути отдавать предпочтение рекламодателям и не учитывать нужды потребителей”, – писали предприниматели в 1998 году. И тем не менее в 2000 году они запустили