Мы в твиттере Мы в телеграме!

Провеббер » DataLife Engine » DLE хаки » Управляем индексацией сайта на DLE с помощью метатега robots

Набор в команду! Ведется набор в команду, для наполнения сайта новым, интересным контентом. Если у тебя есть предложения, свободное время, ты обладаешь интересным контентом, и хочешь поделиться с другими?
Обращайся к нам в ЛС группы Вконтакте.

Управляем индексацией сайта на DLE с помощью метатега robots

Данный материал предоставлен сайтом ProWebber.cc исключительно в ознакомительных целях. Администрация не несет ответственности за его содержимое.
Скачать бесплатно Управляем индексацией сайта на DLE с помощью метатега robots.

Управляем индексацией сайта на DLE с помощью метатега robots

Я уже давно занимаюсь реализацией управления индексацией страниц сайтов на CMS DataLife Engine посредством метатега "robots", так как считаю его наиболее удобным и правильным инструментом(ИМХО).
Сейчас, когда разработчик DLE снова включил этот метатег в дистрибутив скрипта, я вернулся к реализации работы с метатегом "robots", используя уже существующий функционал и переменные в скрипте версии 9.7.
Итак поехали:

1. Реализуем вывод метатега robots в определенных разделах сайта:

Открываем файл /engine/engine.php

Найти:
else $disable_index = "";


Заменить на(приведённый ниже массив рекомендован мной и его состав, может быть подобран и изменён под свои цели*):
elseif (
    $do == 'addnews' OR /* Страница добавления новости с сайта */
    $do == 'alltags' OR /* Страница вывода списка всех тегов */
    $do == 'feedback' OR /* Страница формы обратной связи */
    $do == 'favorites' OR /* Страницы закладок пользователей */
    $do == 'lastcomments' OR /* Вывод всех последних комментариев на сайте, в т.ч. комментариев отдельного пользователя */
    $do == 'lastnews' OR /* Вывод всех последних новостей сайта */
    $do == 'lostpassword' OR /* Страница восстановления пароля */
    $do == 'pm' OR /* Страницы личных сообщений пользователей */
    $do == 'register' OR /* Страница регистрации нового пользователя */
    $do == 'rules' OR /* Страница правил сайта */
    $do == 'stats' OR /* Страница статистики сайта */
    $do == 'search' OR /* Страница поиска и результатов поиска */
    $do == 'tags' OR /* Вывод новостей по тегу */
    $do == 'xfsearch' OR /* Вывод новостей новостей по доп. полям */
    $subaction == 'allnews' OR /* Вывод всех новостей пользователя */
    $subaction == 'newposts' OR /* Вывод непрочитанных новостей для пользователя */
    $subaction == 'userinfo' OR /* Просмотр профиля пользователя */
    $dle_module == 'date' OR /* Вывод архива новостей за год/месяц/день */
       (intval($_GET['cstart']) > 1 ) OR /* Любые страницы пагинации */
    $catalog != '' /* Просмотр каталога по буквенному идентификатору */
    ) $disable_index = "\n<meta name=\"robots\" content=\"noindex\" />"; else $disable_index = "";


Заменяя, удаляя или добавляя строки в массиве из списка возможных вариантов приведённого ниже, настройте запрет индексации под свои цели.



P.S. Список вариантов самому составлять было лень, взял его у Алича(alaev.info)

2. Реализуем вывод метатега robots на несуществующих и удалённых страницах:

Открываем файл /engine/modules/show.full.php

Найти:
@header( "HTTP/1.0 404 Not Found" );


Добавить ниже:
$disable_index = 1;


Открываем файл /engine/modules/static.php

Найти:
@header( "HTTP/1.0 404 Not Found" );


Добавить ниже:
$disable_index = 1;


Открываем файл /engine/modules/show.short.php

Найти, Внимание! (3 раза):
msgbox( $lang['all_err_1'], $lang['news_err_27'] );


И Внимание! ВЫШЕ добавить:
$disable_index = 1;


3. Реализуем вывод метатега robots с его строгим значением на страницах печати:

Открываем файлы шаблона версии для печати /templates/имя вашего шаблона/print.tpl и /templates/имя вашего шаблона/static_print.tpl

Найти:
<head>


Добавить ниже:
<meta name="robots" content="noindex" />


3. Реализуем вывод метатега robots с его строгим значением на страницах админки:

Открываем файл /engine/skins/default.skin.php

Найти:
<head>


Добавить ниже:
<meta name="robots" content="noindex,nofollow" />


(i) Манипулируя метатегом "robots" не забывайте, что возможно у вас имеется robots.txt и в нём тоже созданы правила, а робот поисковой системы при нахождении противоречий между метатегом и файлом выполнить наиболее строгое правило(запрет). Правильней будет удалить в файле robots.txt дублирующие правила.

Внимание! Данная статья актуальна для DataLife Engine v.9.7

источник: webseolife.ru
Полная версия статьи здесь


Дополнительные ссылки на скачивание ТОЛЬКО для зарегистрированных


+8
Просмотры: 7 884 :: Комментарии (13) :: :: Нужна помощь? Задайте вопрос на форуме ::
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

#1Cresis

  • 27 сентября 2012 15:20
  • Регистрация: 18.07.2011
  • Был(а) онлайн: 3.11.2023
  • Комментариев: 282
  • 0
Что то я не могу понять, зачем оно надо?

#2Yeti

  • 27 сентября 2012 16:51
  • Регистрация: 3.02.2010
  • Был(а) онлайн: 24.04.2014
  • Комментариев: 187
  • 0
Cresis,
по созданию инструкций для ПС-роботов с помощью robots.txt и мететега robots погуглите, найдёте много инфы, и также по дублям и контенту не представляющему интереса для пользователей(служебных страницах и страницах без контента) в рекомендациях Яндекса и Google.
Если всё это описывать, то нужно опубликовать несколько статей.

--------------------

#3Lenivo

  • 27 сентября 2012 17:42
  • Регистрация: 30.08.2011
  • Был(а) онлайн: 28.02.2015
  • Комментариев: 136
  • +1
Страницы для печати и так можно запретить индексировать стандартными средствами скрипта, остальное великолепно работает, уже давненько взял у Алаева http://alaev.info/blog/post/3900
Спасибо за советы.

#4Yeti

  • 27 сентября 2012 18:00
  • Регистрация: 3.02.2010
  • Был(а) онлайн: 24.04.2014
  • Комментариев: 187
  • +1
Lenivo,
вы ошибаетесь, вы можете закрыть ссылку на страницу для печати стандартными средствами, а если они уже в индексе, то оттуда стандартными средствами вам страницу не выгнать.
А насчёт давненько можно сравнить даты нашей первой опубликованной реализации _dlepro.com/547-seo-dle.html, а затем и модуля метатег Robots и вообще потом у Алаева найти много общего с теми нашими первыми публикациями из раздела Оптимизация на нашем бывшем длепроком, но я ничего не оспариваю, то что может сделать один человек, может реализовать из доступного и другой.

Сейчас мы используем то, что есть теперь в самом скрипте DLE, а именно появившуюся переменную $disable_index, которая стала использоваться в полной новости и статических страницах разработчиком для исключения страниц из индекса, кстати также после публикации нашего хака о возможности исключения статических страниц из sitemap.

--------------------

#5Lenivo

  • 27 сентября 2012 18:22
  • Регистрация: 30.08.2011
  • Был(а) онлайн: 28.02.2015
  • Комментариев: 136
  • 0
Yeti, понятно спасибо. У меня просто страниц для печати в индекс еще не попадало, стандартного закрытия хватало... Хак на +10. Относительно авторства, думаю в версии 9.8 авторами хака стандартно будут уже разработчики скрипта biggrin

#6Yeti

  • 27 сентября 2012 18:31
  • Регистрация: 3.02.2010
  • Был(а) онлайн: 24.04.2014
  • Комментариев: 187
  • 0
Lenivo,
Спасибо,
а насчёт разработчика это же хорошо, я допустим для этого и вожусь с кодом, чтобы в следующем релизе это уже было в дистрибутиве и при обновлении не нужно было лопатить каждый раз код и вообще боятся обновляться.

--------------------

#7gugle

  • 27 сентября 2012 21:18
  • Регистрация: 1.04.2012
  • Был(а) онлайн: 14.02.2013
  • Комментариев: 31
  • 0
а я модуль мета роботс немножно переделал и добавил туда все вот эти ненужные страницы. Единственная проблема с ссылкам аттача в гуггле ни знаю как удалить, с помощью роботс.тхт ни как не получется

#8Yeti

  • 27 сентября 2012 21:42
  • Регистрация: 3.02.2010
  • Был(а) онлайн: 24.04.2014
  • Комментариев: 187
  • 0
убедитесь что они закрыты в robots.txt и отправьте запрос на удаление(http://webseolife.ru/9-delete-page.html)

--------------------

#9Svezachok

  • 27 сентября 2012 22:01
  • Регистрация: 5.11.2010
  • Был(а) онлайн: 20.05.2020
  • Комментариев: 24
  • -1
классно было бы реализовать этот хак на 9.5, а то некоторые модули не позволяют перейти на версии выше

#10Yeti

  • 27 сентября 2012 22:18
  • Регистрация: 3.02.2010
  • Был(а) онлайн: 24.04.2014
  • Комментариев: 187
  • 0
Svezachok,
на 9.5 отсутствует тег в дистрибутиве и переменная $disable_index,
используйте реализацию Алича(ссылка в комментарии от Lenivo) она позволит практически добится почти того же, только необходимо её подправить под несуществующие страницы и страницы ошибок.

--------------------

#11victim

  • 1 октября 2012 15:07
  • Регистрация: 3.08.2012
  • Был(а) онлайн: 25.10.2012
  • Комментариев: 2
  • 0
Такое ощущение, что кто-то нагло спи**ил мою публикацию, вам не кажется?
http://alaev.info/blog/post/3900

Ладно, прошу прощения за наезд. Сначала не увидел про упоминание меня в посте. Но все же это все на 97% скопировано из моего поста. А написано так, как будто только список переменных взят у меня. И даже без указания ссылки на мой пост...
Ну, в общем, я расстроен...

--------------------

#12Yeti

  • 1 октября 2012 16:22
  • Регистрация: 3.02.2010
  • Был(а) онлайн: 24.04.2014
  • Комментариев: 187
  • 0
victim,
давайте посмотрим ваши статьи на эту тему и изучим мои публикации и их даты начиная с dlepro.com/547-seo-dle.html а потом весь раздел по оптимизации на моём бывшем проекте dlepro.com, особено тайтлов и первая статья про метатег robots, затем посмотрим мой модуль metarobots и также дату его выхода и реализацию именно работы с метатегом robots, затем статью у вас и её дату и будем спрашивать кто у кого украл, я честно говоря увидев часть статей у вас, когда изучал данную тему снова вернувшись к вебдизайну, вначале был очень огорчен по поводу вас, но и с тайтлами работать начали не только я и вы.
Cписок переменных мы использовали в своём модуле metarobots и публиковали задолго до ваших статей и самое главное это не МОЁ и НЕ ВАШЕ открытие, а просто мануал по движку, эти переменные типа:
$do == 'lastnews'

используются разработчиками для вывода инфы в разделах и это придумали не Вы, а разработчик скрипта, а их описание это единственное что взято у вас причём с ссылкой.
Теперь именно об этой статье: мы изменили свою же реализацию после того как разработчик снова включил данный метатег в дистрибутив, а выполнили её используя новый функционал DLE через переменную $disable_index. ЕЩЁ повторюсь я взял у вас только описание функций, которое просто лень было составлять, остальное мы использовали намного раньше, причём тут у меня признательность к MSW который затронул этот метатег в своём хаке и всё началось _/0-web.ru/dle/hack-dle/173-dle-404-not-found-noindex.html и посмотрите там есть комментарий мой и дата.
Если вам неизвестен модуль Metarobots, то вот его код:
...
} elseif ($dle_module == "feedback" or $dle_module == "stats" or $dle_module == "addnews" or $dle_module == "register" or $dle_module == "lostpassword" or $dle_module == "rules" or $dle_module == "search") {
.....

а вот где и когда он публиковался, на тогда ещё моём проекте(_dlepro.com/938-modul-dle-metarobots.html)
Так если вы подняли такой вопрос может поставите ссылочку на источник? Я то о том, что у вас взял описание упомянул с адресом блога в своёй статье. Честно говоря в отличие от меня вы вообще не любите указывать на любые источники взятой инфы.
Вывод тега на страницах ошибок у вас вообще не имеет места(я знаю про 200 для робота, но есть нюанс), вы советуете редиректить эти страницы на главную, что спорно.
Так о чём Вы Алич? И вообще не пойму почему столько шума, если на ваш блог была указана ссылка в публикации, а затем ещё и в комментарии с советом использовать вашу реализацию для ранних dle?
А главное не в списке разделов, который похож на опубликованный у вас и просто логичен, а в том как и где реализована вставка вывода метатега.

--------------------

#13planeta

  • 30 октября 2012 01:03
  • Регистрация: 30.05.2010
  • Был(а) онлайн: 16.02.2016
  • Комментариев: 23
  • 0
Спасибо, полезная вещь! На сайте алаева можно найти найти дополнительные возможности по оптимизации. Лично меня выручили - редиректы - теперь дублей меньше

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Архив новостей
Декабрь 2024 (10)
Ноябрь 2024 (9)
Октябрь 2024 (169)
Сентябрь 2024 (13)
Август 2024 (60)
Июль 2024 (12)

Последние комментарии: