Як стати # 1 ?: Як убезпечити свій сайт

тепер, після того, як цілі ясні і завдання визначені, залишилося подбати про безпеку вашого сайту. тому давайте поговоримо про те, чого робити не слід.

деякі веб-майстри, особливо початківці, іноді піддаються спокусі «просунути сайт швидше» і вдаються до методів, що розглядаються пошуковими системами, як незаконні. звичайний набір цих методів такий:

Клоакинг

«Розлучення» відвідувача і пошукової системи по різних сторінках. Серверний скрипт визначає IP відвідувача і, якщо бачить, що це - не пошукова система, показує одну сторінку, якщо ж - пошуковик - «підсовує» зовсім іншу, «ідеально» оптимізовану. Іноді цей метод називають (назва прийшла з англомовного інтернету) «нагодуй собаку» ( "feed the dog"). Ви розумієте, чому.

Якщо пошуковик якимось чином дізнається про те, що його годують «цим», ваш сайт потрапить в бан-лист назавжди.

спамдексинг

Сенс цього прийому в тому, що пошукова система «бачить» одне зміст сторінки, а відвідувач - інше. Для кожного з них вона виглядає «добре»: пошуковик бачить ключові фрази, розташовані в оптимальній кількості і в потрібних місцях, а користувач - сам контент, тобто - текст, зображення та інше, без жодних зайвих елементів.

Все це досягається нескладно: елементи, насичені ключовими фразами, які потрібні для оптимізації «сприйняття» пошуковими системами, але можуть негативно вплинути на дизайн сторінки, ховаються від очей користувача. Це може бути зроблено за допомогою клієнтського програмування, або використання таблиць стилів.

наприклад:

Використання значення "display: none" атрибуту "style". Даний прийом робить повністю невидимим для користувача об'єкт, до якого дане значення застосовано. При цьому пошукова система «бачить» і його, і укладену в цей тег ключову фразу, надаючи додаткову релевантність цій сторінці з точки зору відповідного запиту.

Інший різновид цього ж способу: «виносити» елементи, що містять оптимізований текст, за межі видимості сторінки за допомогою так зв. «Абсолютного позиціонування».

Причому все це можна запрограмувати за допомогою JavaScript, і надання всім цим елементам «прихованості / невидимості» відбуватиметься динамічно, тобто, в статичному HTML взагалі ніяк не буде виявлятися.

Більш примітивний, широко використовувався раніше спосіб - насичення сторінки текстом з ключовими фразами, який зливається з фоном сторінки. Наприклад: чорний фон, чорний текст. Якщо і те, і інше прописується атрибутами HTML-тегів, а не стилів, легко виявляється пошуковими системами.

Застосування спамдексинг також загрожує вам неприємностями. Виявити використання цього прийому програмними засобами не так-то легко, але якщо заглянути в HTML-код, таблицю стилів і клієнтські скрипти очима відповідного фахівця, то все стане ясно. Звичайно, ніхто не буде цього робити просто так, з огляду на, скільки в Інтернеті сторінок, але що, якщо хтось із ваших конкурентів просигналізує з «кращих спонукань» про те, що відбувається «неподобство» адміністрації пошукової системи? Думаєте, їм буде лінь це перевірити?

Перевантаження сторінок ключовими фразами

Схоже на попередній спосіб, з тією відмінністю, що надмірне достаток оптимізованих об'єктів не ховається від відвідувача, а просто розташовується на сторінці. Це - теж погано. З двох причин: по-перше, може спотворити дизайн, по-друге, пошукова система може все одно порахувати все це пошуковим спамом. І щоб довести зворотне, вам потім доведеться дуже наполегливо, аргументовано і довго (що не означає - успішно) листуватися з адміністрацією забанити вас пошукової системи. А вони, до речі, взагалі не зобов'язані вам відповідати. Ви ж - злісні спамери, хіба не так? Розбиратися зі спамерами ніхто не любить.

І взагалі, для пошукових систем, цих «володарів кіберпростору» :) пріоритетною є презумпція вини, а не невинності ...

створення дорвеев

Теж порядком застаріла хитрість. Крім основних сторінок, створюється безліч додаткових, насичених ключовими словами / фразами, виключно для пошукових систем. На цих сторінках варто автоматичне перенаправлення на іншу сторінку, з «нормальним» дизайном. Таким чином, релевантність цієї сторінки (і всього сайту теж) виходить високою, проте відвідувач потрапляє на іншу - менш релевантну, але більш презентабельні.

Від клоакинга цей прийом відрізняється тим, що між пошуковою системою і відвідувачем не робиться відмінностей - показується одна і та ж сторінка. Просто, в будь-якому випадку, відвідувач побачить те, що хоче веб-майстер і навряд чи помітить підміну.

Перенаправлення виявляються пошуковими системами досить легко, і використання дорвеев також карається занесенням в бан-лист.


висновок

Як ми вже говорили, дуже багато хто відчуває спокусу вдатися до незаконних методів просування. Однак з плином часу будь-яка тверезомисляча веб-майстер приходить до висновку, що це - безперспективна затія і набагато корисніше (і, само собою, безпечніше) направити всі ці зусилля на те, щоб домогтися потрібного результату коректними способами. Кілька років тому, коли у нас був тільки один комерційний проект (в сфері платних освітніх послуг) ми теж цим «перехворіли». І цілий рік наш сайт був виключений з БД Ремблер, а також, кілька місяців - Яндекса. І простий «підрахунок фінансів» показав, що вигідніше не користуватися перерахованими вище технологіями. Шлях до успіху, це - добре (і коректно) оптимізований сайт, постійний активний обмін посиланнями і відсів недобросовісних партнерів. Ну, і звичайно, ваш сайт повинен бути цікавим і потрібним вашим відвідувачам, зручним і виконаним на хорошому професійному рівні.

Отже, ми постаралися поділитися з вами своїми знаннями, отриманими в результаті декількох років наполегливої ​​праці, досліджень і аналізу результатів. Сподіваємося, що наш не скорботний праця не пропаде, і ви зможете з максимальною віддачею розпорядитися отриманими відомостями і програмою BackLinks Checker, як невід'ємною частиною комплексу просування вашого web-сайту.
Назад до змісту