DLE | Заметки SEO-новичка о заработке в интернете и не только...

Акция по обмену постовыми

Постовой: Советую к прочтению полезную серию статей Ильдара Хакимова “Как создать свой блог“. Начинающим блоггерам необходимо ознакомиться.

Последние два апдейта тиц у моего блога пузомерка не увеличилась, хотя беков существенно прибавилось. Жду также, как наверное многие, очередного апа PR. Ну с PR вообще чудеса творятся, новогодний апдейт не принес мне ничего, как я подумал сначала. Перелистывая посты блога заметил что PR некоторые страницы все-таки получили. Причем есть единички, есть двойки и даже PR 3 получила одна страница. Вопрос терзающий меня почему главная получила 0.

Ну все это размышления о никому неизвестных алгоритмах расчета, так что проехали… Этот пост как можно понять из названия об Обмене постовыми.

Цель акции: наращивание беклинков и возможно подписчиков, а также как побочный продукт рост позиций в выдаче поисковиков.

Условия акции:
- cсылка в новом посте;
- количество ссылок в этом посте не более 4;
- отсутствие noindex и nofollow;
- никаких ГС.
Читать полностью »



Проблема с sitemap.xml

19 Ноя 2022 | Отзывов (2) »

В статье о robots.txt для Wordpress и DLE упоминал о том, что начал заниматься файлом robots не просто так, а потому что были проблемы с sitemap.xml на двух warez-порталах. Оба эти warez-портала используют CMS DataLife Engine версии 8.2. По-умолчанию в них встроен модуль Карта сайта для Google и Yandex, который предназначен для создания карт сайта для поисковых систем Google и Yandex.


С этим модулем и случилась проблема. Этот модуль формировал sitemap.xml, я добавлял его в админ-панелях Яндекса и Гугла. Сайты вроде бы нормально лезли в индекс, но как мне казалось что-то было не так. Позднее заметил ошибки в панелях вебмастеров у файлов sitemap.xml. Гугл писал про ошибку чтения sitemap и указывал что проиндексировал только 1 страницу (главную).
Яндекс нормально индексировал и к тому моменту в индексе было уже более 100 страниц, но в панели вебмастера у яши тоже были ошибки в sitemap. Начал разбираться что не так.

Оказалась все довольно просто, скрипт-граббер новостей с DLE сайтов хорошо работал, но в нем была ошибка. Он в базу mysql портала добавлял название, которое использовалось на сайте откуда он брал новости. Названия были длинными и имени пробелы. Это же название скрипт помещал в поле отвечающее за ЧПУ. В итоге получалось, что все URL были длинными и имени пробелы. Браузеры нормально открывают такие страницы. Вопрос в том, что хорошо ли индексируют такие страницы боты поисковиков. (Подробнее…)

robots.txt для DLE и Wordpress

21 Окт 2022 | Отзывов (2) »

Появилась у меня на одном ГС проблема с sitemap.xml. Генерировал вроде бы нормальный sitemap, но Google выдавал ошибку, типа карта неправильная и все. Открываю карту сайта в браузере все нормально, захотелось разобраться с sitemap.xml и разбирательство затронуло robots.txt.

Уже давно я хотел вплотную заняться этими двумя файлами, но времени все не было, а тут как то само вышло. Итак, эта статья в общем о robots.txt и готовыми рабочими примерами этого файла для двух CMS, которые я использую. Следующая статья будет подробно написана о sitemap.xml.

robots.txt — файл ограничения доступа к содержимому роботам на http-сервере. Файл должен находиться в корне сайта (т.е. иметь путь относительно имени сайта /robots.txt). При наличии нескольких субдоменов файл должен располагаться в корневом каталоге каждого из них. Данный файл дополняет стандарт Sitemaps, который служит прямо противоположной цели: облегчать роботам доступ к содержимому.

Для создания robots.txt нужен просто текстовый файл. Если Вы на своем сайте не собираетесь ничего закрывать для индексации, то рекомендуется сделать пустой robots.txt. Здесь я уже ошибся, так как мой старый robots содержал строки, которые якобы разрешают индексацию сайта поисковыми ботами Yandex и Google. (Подробнее…)