Wordpress | Заметки SEO-новичка о заработке в интернете и не только...

Акция по обмену постовыми

Постовой: Советую к прочтению полезную серию статей Ильдара Хакимова “Как создать свой блог“. Начинающим блоггерам необходимо ознакомиться.

Последние два апдейта тиц у моего блога пузомерка не увеличилась, хотя беков существенно прибавилось. Жду также, как наверное многие, очередного апа PR. Ну с PR вообще чудеса творятся, новогодний апдейт не принес мне ничего, как я подумал сначала. Перелистывая посты блога заметил что PR некоторые страницы все-таки получили. Причем есть единички, есть двойки и даже PR 3 получила одна страница. Вопрос терзающий меня почему главная получила 0.

Ну все это размышления о никому неизвестных алгоритмах расчета, так что проехали… Этот пост как можно понять из названия об Обмене постовыми.

Цель акции: наращивание беклинков и возможно подписчиков, а также как побочный продукт рост позиций в выдаче поисковиков.

Условия акции:
- cсылка в новом посте;
- количество ссылок в этом посте не более 4;
- отсутствие noindex и nofollow;
- никаких ГС.
Читать полностью »



Плагин Soc-zakladka

27 Ноя 2022 | Отзывов (30) »

Почти месяц назад писал пост Плагин Sociable для WordPress, в котором я сказал что немного переделаю плагин Sociable для русскоязычных пользователей. Немного переделать не удалось, пришлось углубленно поработать над ним, что-то убрал, что-то добавил. В общем сделал его таким как вижу его я, чтобы не было лишних выкрутасов, минимум настроек, но максимум функционала.

Это еще не все раз уж он глубоко переделался, решил его и назвать по другому, так как прежний Sociable развивается и идет своей дорогой. А этот плагин будет называться Soc-Zakladka, ничего более умного я не придумал, и будет развиваться мною. В принципе развитие его теперь будет заключаться только в добавлении новых сервисов, соцзакладок и соцсетей в список поддерживаемых.

Опишу немного сам плагин Soc-Zakladka.
(Подробнее…)

Плагин Sociable для WordPress

02 Ноя 2022 | Отзывов (3) »

Искал я плагин для WordPress, который после поста выводил бы список социальных закладок и некоторых сервисов. Почти все пользуются плагином odnaknopka.ru, либо сами редактируют тему и добавляют в код нужные им закладки и сервисы.


Плагин odnaknopka.ru неплох, но у него нет никаких настроек. То есть скопировал код с сайта odnaknopka.ru или сам плагин для некоторых CMS и пользуешься тем, что сделал создатель. Я же хотел чтобы был выбор какие сервисы и социальные закладки использовались.

Кроме плагина odnaknopka в руснете почти ничего не нашел, отправился на WordPress.org. В разделе плагины нашелся очень популярный у буржуев Sociable. Настраиваемый плагин социальных закладок и различных сервисов, вот только он иностранный и сервисы в нем были только иностранные. Плагин очень понравился, легок в настройке и в общем то, что я хотел. Пришлось его доработать для русских :) . (Подробнее…)

robots.txt для DLE и Wordpress

21 Окт 2022 | Отзывов (2) »

Появилась у меня на одном ГС проблема с sitemap.xml. Генерировал вроде бы нормальный sitemap, но Google выдавал ошибку, типа карта неправильная и все. Открываю карту сайта в браузере все нормально, захотелось разобраться с sitemap.xml и разбирательство затронуло robots.txt.

Уже давно я хотел вплотную заняться этими двумя файлами, но времени все не было, а тут как то само вышло. Итак, эта статья в общем о robots.txt и готовыми рабочими примерами этого файла для двух CMS, которые я использую. Следующая статья будет подробно написана о sitemap.xml.

robots.txt — файл ограничения доступа к содержимому роботам на http-сервере. Файл должен находиться в корне сайта (т.е. иметь путь относительно имени сайта /robots.txt). При наличии нескольких субдоменов файл должен располагаться в корневом каталоге каждого из них. Данный файл дополняет стандарт Sitemaps, который служит прямо противоположной цели: облегчать роботам доступ к содержимому.

Для создания robots.txt нужен просто текстовый файл. Если Вы на своем сайте не собираетесь ничего закрывать для индексации, то рекомендуется сделать пустой robots.txt. Здесь я уже ошибся, так как мой старый robots содержал строки, которые якобы разрешают индексацию сайта поисковыми ботами Yandex и Google. (Подробнее…)