Нещодавно я натрапив на SEO -тест, який намагався перевірити, чи впливає коефіцієнт стиснення. Здається, є такі, хто вважає, що більш високі коефіцієнти стиснення співвідносяться з нижчим рейтингом. Розуміння стисливості в контексті SEO вимагає читання як оригінального джерела щодо коефіцієнтів стиснення, так і самої дослідницької роботи, перш ніж робити висновки про те, чи це міф про SEO.
Пошукові системи стискають веб -сторінки
Стиснення в контексті пошукових систем стосується того, скільки веб -сторінок можна стиснути. Зменшення документа у zip -файл – приклад стиснення. Пошукові системи стискають індексовані веб -сторінки, оскільки він економить простір і призводить до більш швидкої обробки. Це те, що роблять усі пошукові системи.
Веб -сайти та хост -провайдери стискають веб -сторінки
Стиснення на веб -сторінках – це хороша річ, оскільки це допомагає пошуковому сканерам швидко отримати доступ до веб -сторінок, які, в свою чергу, надсилають сигнал GoogleBot, що він не буде напружувати сервер, і це нормально, щоб захопити ще більше сторінок для індексації.
Компресія прискорює веб -сайти, надаючи відвідувачам сайту високоякісний досвід користувачів. Більшість веб -хостів автоматично забезпечують стиснення, оскільки це добре для веб -сайтів, відвідувачів сайту, а також добре для веб -хостів, оскільки він економить на завантаженні пропускної здатності. Усі виграють із стисненням веб -сайту.
Високий рівень стиснення корелює зі спамом
Дослідники в пошуковій системі виявили, що високо стисні веб-сторінки корелюють із вмістом низької якості. Дослідження під назвою Спам, проклятий спам та статистика: Використання статистичного аналізу для пошуку веб -сторінок спаму спаму (PDF) проводили в 2006 році двома провідними світовими дослідниками Марком Наджорком та Деннісом Феттерлі.
Наразі в даний час працює в Deepmind як відзначений науковий співробітник. Fetterly, інженер програмного забезпечення в Google, є автором багатьох важливих дослідницьких робіт, пов'язаних з пошуком, аналізом контенту та іншими пов'язаними з ними тем. Ця дослідницька робота – це не будь -яка дослідницька робота, це важливе.
Те, що показує дослідницький документ 2006 року, – це те, що 70% веб -сторінок, які стискають на рівні 4,0 або вище, мали тенденцію до низької якості з високим рівнем надмірного вживання слова. Середній рівень стиснення сайтів становив близько 2,0.
Ось середні показники звичайних веб -сторінок, перелічених дослідницькою роботою:
- Коефіцієнт стиснення 2,0:
Найчастіше коефіцієнт стиснення в наборі даних становить 2,0. - Коефіцієнт стиснення 2,1:
Половина сторінок має коефіцієнт стиснення нижче 2,1, а половина – над ним коефіцієнт стиснення. - Коефіцієнт стиснення 2,11:
В середньому коефіцієнт стиснення проаналізованих сторінок становить 2,11.
Це був би легкий спосіб відфільтрування очевидного спаму вмісту, тому має сенс, що вони зроблять це, щоб вилучити спам на важкий вміст. Але випуск спаму складніше, ніж прості рішення. Пошукові системи використовують кілька сигналів, оскільки це призводить до більш високого рівня точності.
Дослідники з 2006 року повідомили, що 70% ділянок із рівнем стиснення 4,0 або вище були спамами. Це означає, що інші 30% не були спам -сайтами. У статистиці завжди є переживаючі, і що 30% сайтів, які не спамують, тому пошукові системи, як правило, використовують більше одного сигналу.
Чи використовують пошукові системи стисливість?
Доцільно припустити, що пошукові системи використовують стисливість для виявлення важких рук очевидного спаму. Але також доцільно припустити, що якщо пошукові системи використовують його, вони використовують його разом з іншими сигналами, щоб підвищити точність показників. Ніхто точно не знає, чи Google використовує стисливість.
Неможливо визначити, чи Google використовує стиснення
Ця стаття стосується того, що немає можливості довести, що коефіцієнт стиснення – це міф про SEO чи ні.
Ось чому:
1. Якщо сайт викликав коефіцієнт стиснення 4,0 плюс інші сигнали спаму, що сталося б, це те, що ці сайти не будуть в результатах пошуку.
2. Якщо ці сайти не знаходяться в результатах пошуку, немає можливості перевірити результати пошуку, щоб побачити, чи Google використовує коефіцієнт стиснення як спам -сигнал.
Було б розумно припустити, що сайти з високим коефіцієнтом стиснення 4,0 були вилучені. Але ми цього не робимо знати Це, це не певність. Тож ми не можемо довести, що вони були видалені.
Єдине, що ми знаємо – це те, що там є ця дослідницька робота, яку є авторифтизовані вчені.
Стисливість – це не те, про що турбується
Стисливість може бути або не бути міфом SEO. Але одне досить впевнене: це не те, про що видавці чи SEO, які публікують звичайні сайти, повинні турбуватися. Наприклад, Google канонізує дублюючі сторінки та консолідує сигнали PageRank на канонізовану сторінку. Це цілком нормально з динамічними веб -сайтами, такими як веб -сторінки електронної комерції. Сторінки продуктів також можуть стиснути з більшою швидкістю, оскільки вмісту на них може бути не багато. Це теж нормально. Google здатний оцінити їх.
Щось на кшталт стиснення приймає ненормальний рівень важкої тактики спаму, щоб викликати їх. Тоді врахуйте, що спам -сигнали не використовуються ізольовано через помилкові позитиви, мабуть, нерозумно говорити, що середній веб -сайт не повинен турбуватися про коефіцієнти стиснення.
Виконане зображення від Shutterstock/Роман Саморський
