UMIhelp

Разработка сайта на UMI.CMS => Настройка системы и модулей => Тема начата: shoto от 09 Сентября 2014, 20:11:21

Название: robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 09 Сентября 2014, 20:11:21
Коллеги, доброго времени суток.

Кто нибудь сталкивался с необходимостью создать отдачу корректного robots.txt с указанием необходимых деректив для всех сайтах висящих на одной лицензии.
Речь идет об очень старой версии 2.0.0.0.
В сети нашла статью только для версии начиная от 2.8.
Может кому то приходилось делать когда то подобное?
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: admin от 27 Сентября 2014, 14:30:41
а что должно вы хотите добавить в robots.txt

Сейчас есть несколько способов (уверен какие-то из них и для версии 2.0 будут успешно работать)

1. разместить файл robots.txt в корне с нужным содержимым, он перекроет тот что формирует umi
2. создать часть robots.txt который система встроит в тот, который формирует сама. Делается это просто.
Создается файл для домена с id = 1 /robots/1/robots.txt / В нем пишутся свои инструкции для данного домена. Можно воспользоваться макросом %disallow_umi_pages%, который замениться на записи
....
Disallow: /go_out.php
Disallow: /search
3. воспользоваться модулем для robots.txt от одного из umi специалист, который был выложен в этой теме http://umihelp.ru/forum/index.php/topic,138.0.html
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 28 Сентября 2014, 23:09:15
3. воспользоваться модулем для robots.txt от одного из umi специалист, который был выложен в этой теме http://umihelp.ru/forum/index.php/topic,138.0.html
Эту ссылку я находила на форуме, но может только у меня по ней ничего не скачивается, а открывается только заставка "СКОРО"
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: admin от 28 Сентября 2014, 23:55:42
тут не скажу точнее, напишите автору, уверен, e.ioffe сможет объяснить чего и когда можно ждать от этого решения
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 29 Сентября 2014, 11:13:06
[quote author=admin link=topic=1892.msg8332#msg8332 date=1411813841]
а что должно вы хотите добавить в robots.txt

Сейчас есть несколько способов (уверен какие-то из них и для версии 2.0 будут успешно работать)

1. разместить файл robots.txt в корне с нужным содержимым, он перекроет тот что формирует umi
[/quote]

Данный вариант не подходит, т.к. сайтов на одной лицензии несколько.

а что должно вы хотите добавить в robots.txt
2. создать часть robots.txt который система встроит в тот, который формирует сама. Делается это просто.
Создается файл для домена с id = 1 /robots/1/robots.txt / В нем пишутся свои инструкции для данного домена. Можно воспользоваться макросом %disallow_umi_pages%, который замениться на записи
....
Disallow: /go_out.php
Disallow: /search
эм... правильно ли я понимаю, что мне необходимо создать директорию robots в ней поддиректорию с названием равным id домена, а в ней разместить нужный robot.txt?
Если да, то как система понимает что надо брать файл оттуда?
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: admin от 29 Сентября 2014, 13:08:55
эм... правильно ли я понимаю, что мне необходимо создать директорию robots в ней поддиректорию с названием равным id домена, а в ней разместить нужный robot.txt?
Если да, то как система понимает что надо брать файл оттуда?

да, правильно. Данная инструкция есть в файле /libs/root-src/sbots.php который и формирует содержимое robots.txt
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 29 Сентября 2014, 16:48:24
Удалила случайно ответ.

Все бы возможно было бы прекрасно с данным вариантом.
Но у меня версия 2.0.0.0
а данный вариант расписан в документации для версий выше 2.8.5
Цитировать
Для решения этой проблемы, с версии 2.8.5.1 схема подключения пользовательских файлов robots.txt была доработана. Теперь пользователи имеют возможность создать свои собственные robots.txt для каждого домена.

т.е. сейчас в дебрях верхнего уровня был найден рукописный robots.txt, который был удален. И файл стал формироваться на лету.
Но, все равно остается проблема с внесением изменений в имеющийся файл для конкретного домена.
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: admin от 29 Сентября 2014, 16:51:12
Но, все равно остается проблема с внесением изменений в имеющийся файл для конкретного домена.

о каких изменениях идет речь?
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 29 Сентября 2014, 16:52:28
Например мне нужно указать что имеющийся сайт теперь является зеркалом другого сайта.
т.е. мне надо прописать отличный от имеющегося HOST
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: admin от 29 Сентября 2014, 16:56:37
самый простой способ:
1. сделать копию авто формирующегося robots и добавить то, что вам надо сохранив это под именем robots.txt
2. периодически проделывать это заново

посложнее:
 - написать алгоритм, который будет делать это автоматически (то есть то, что umi сделала в версии 2.8.5)
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 29 Сентября 2014, 16:59:32
самый простой способ:
1. сделать копию авто формирующегося robots и добавить то, что вам надо сохранив это под именем robots.txt
2. периодически проделывать это заново
Да не получится. у меня там 6 действующих сайтов. и каждому нужен свой robots.txt, и только у одного мне нужно что бы деректива HOST выводилась не стандартно, а измененная на то что мне нужно.

А вот посложнее... это лес дремучий.
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: e.ioffe от 01 Октября 2014, 21:38:58
Еще один вариант - использовать .htaccess

Что-то вроде такого:

RewriteEngine On
RewriteRule ^http://домен/robots\.txt$  robots_domain.txt [L]

а в robots_domain.txt жестко прописать нужные директивы для поисковых систем.
Название: Re:robots.txt свой для каждого сайта в старой версии Umi
Отправлено: shoto от 02 Октября 2014, 11:05:49
Еще один вариант - использовать .htaccess

Что-то вроде такого:

RewriteEngine On
RewriteRule ^http://домен/robots\.txt$  robots_domain.txt [L]

а в robots_domain.txt жестко прописать нужные директивы для поисковых систем.

что-то как-то не получается, все равно цепляет сгенерированный umi.