Первая книга SEO-копирайтера. Как написать текст для поисковых машин и пользователей - страница 8
Несмотря на очевидную простоту, трюк не удастся. Скопированный текст не будет нести для пользователей поисковых систем ничего нового – он уже есть на других сайтах. Показывать ещё одну ссылку на то же самое содержимое страницы в результатах поиска – никакого смысла нет. Скопированный текст просто не будет находиться.
Поисковые системы ценят тексты, которые опубликованы только на одном ресурсе – уникальные тексты. Они позволяют разнообразить и расширять ответ, который получают пользователи на свой запрос в поиске. Неуникальные (заимствованные) тексты определяются роботами поисковых систем с высокой точностью и не показываются пользователям.
SEO-копирайтер должен создавать уникальные тексты, которые не совпадают с уже существующими в сети.
Заимствованные тексты называются дублями. Они бывают двух видов: чёткие и нечёткие. Под чёткими дублями понимается полное совпадение одного текста с другим. Для выявления таких дублей поисковым системам не требуется сложного математического аппарата. Достаточно просто представить текст в виде короткого значения из цифр и букв (контрольная сумма), рассчитанного по определённому алгоритму, и сравнить с контрольными суммами уже известных поисковой системе текстов.
Нечёткими дублями называются такие тексты, которые повторяют исходный в значительной степени. Если текст изменен менее чем на 25 % от общего объёма – это нечёткий дубль.
Как известно, лень – двигатель прогресса, и в поиске решений по сокращению работы над SEO-текстами появилось множество подходов к автоматизированному (программному) изменению текста. Например, для создания нечётких дублей существуют готовые программы-синонимайзеры. Достаточно нажать одну кнопку, и слова в тексте заменятся на синонимы. С первого взгляда, получается новый текст, но если посмотреть внимательнее, он становится почти нечитаемым. Приведём пример:
Оригинальный текст:
Смысл есть в тех исследованиях, которые отражают реальную ситуацию. В плане ранжирования сайтов в выдаче Яндекса реальная ситуация такова, что значение оптимальной плотности ключевых слов на странице различно для разных классов страниц и разных типов запросов. Так, очевидно, что по навигационному запросу соответствующая страница может иметь практически любой размер и вообще не содержать слов запроса (например, находиться по ссылке), но при этом быть на первом месте в результатах поиска.
Нечёткий дубль:
Смысл есть в тех овладениях, которые воссоздают очевидную историю. В смысле ранжирования веб-сайтов в выдаче Яндекса реальная ситуация такова, что значение хорошей плотности первейших слов на страничке различно для разношерстных классов страниц и несходных типов запросов. Стоит отметить настояще, что по навигационному требованию соответствующая страница может иметь почти что зазнобой размер в общем-то не включать в себя слов запроса (в частности, находиться по сноске), однако при всем при этом быть на основополагающем участке в следствиях поиска.
Второй текст является нечётким дублем первого. Несмотря на то, что в тексте появились другие слова, ничего нового для пользователя он не несёт. Такие тексты также исключаются из результатов поиска.
Примером создания нечётких дублей также может служить объединение фрагментов текста, взятых с разных сайтов. Может показаться, что, склеив «надёрганные» из разных источников фрагменты, можно создать уникальный текст. В подобных случаях поисковые системы применяют более сложные алгоритмы. В частности, поисковая система Яндекс применяет алгоритм супершинглов (1997 г., А. Бродер). Текст, проверяемый на уникальность, разбивается на участки длиной по десять слов внахлест, с перекрытием в одно слово. Далее все эти участки меняют на короткое математическое представление (контрольные суммы) и сравнивают с контрольными суммами, вычисленными таким же способом для других документов базы поисковой системы. Это позволяет с высокой вероятностью определить заимствование текста.