Курс 2016 года “Разработка на UMI.CMS от 0 до готового сайта”
как подключить модуль "карта сайта"?

Автор RennyРаздел Шаблоны XSLT

Ответов: 7
Просмотров: 9460
Последний ответ 23 Октября 2011, 14:26:36
от admin
Решено: Автоматическое разворачивание разделов сайта в модуле "Структура"

Автор AlexeyРаздел Настройка системы и модулей

Ответов: 2
Просмотров: 3114
Последний ответ 01 Декабря 2011, 19:02:24
от Alexey
Работа модуля Обратная связь (вставка форм в контент сайта) при XSLT

Автор ariusgroupРаздел Шаблоны XSLT

Ответов: 8
Просмотров: 6498
Последний ответ 17 Октября 2012, 15:29:17
от admin
Есть второй домен, нужно повесить туда демошаблон готового сайта

Автор adminmosfaРаздел Шаблоны XSLT

Ответов: 6
Просмотров: 4326
Последний ответ 06 Августа 2013, 19:03:40
от NOIRMAN
Добавление тегов для товаров, и вывод блока с тегами в любом месте сайта

Автор FelixTheCatРаздел Шаблоны XSLT

Ответов: 9
Просмотров: 5542
Последний ответ 26 Июля 2014, 10:58:09
от FelixTheCat

0 Пользователей и 1 Гость просматривают эту тему.

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Коллеги, доброго времени суток.

Кто нибудь сталкивался с необходимостью создать отдачу корректного robots.txt с указанием необходимых деректив для всех сайтах висящих на одной лицензии.
Речь идет об очень старой версии 2.0.0.0.
В сети нашла статью только для версии начиная от 2.8.
Может кому то приходилось делать когда то подобное?

*

admin

  • *****
  • 2444
  • +172/-1
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #1 : 27 Сентября 2014, 14:30:41 »
а что должно вы хотите добавить в robots.txt

Сейчас есть несколько способов (уверен какие-то из них и для версии 2.0 будут успешно работать)

1. разместить файл robots.txt в корне с нужным содержимым, он перекроет тот что формирует umi
2. создать часть robots.txt который система встроит в тот, который формирует сама. Делается это просто.
Создается файл для домена с id = 1 /robots/1/robots.txt / В нем пишутся свои инструкции для данного домена. Можно воспользоваться макросом %disallow_umi_pages%, который замениться на записи
....
Disallow: /go_out.php
Disallow: /search
3. воспользоваться модулем для robots.txt от одного из umi специалист, который был выложен в этой теме http://umihelp.ru/forum/index.php/topic,138.0.html

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #2 : 28 Сентября 2014, 23:09:15 »
3. воспользоваться модулем для robots.txt от одного из umi специалист, который был выложен в этой теме http://umihelp.ru/forum/index.php/topic,138.0.html
Эту ссылку я находила на форуме, но может только у меня по ней ничего не скачивается, а открывается только заставка "СКОРО"

*

admin

  • *****
  • 2444
  • +172/-1
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #3 : 28 Сентября 2014, 23:55:42 »
тут не скажу точнее, напишите автору, уверен, e.ioffe сможет объяснить чего и когда можно ждать от этого решения

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #4 : 29 Сентября 2014, 11:13:06 »
[quote author=admin link=topic=1892.msg8332#msg8332 date=1411813841]
а что должно вы хотите добавить в robots.txt

Сейчас есть несколько способов (уверен какие-то из них и для версии 2.0 будут успешно работать)

1. разместить файл robots.txt в корне с нужным содержимым, он перекроет тот что формирует umi
[/quote]

Данный вариант не подходит, т.к. сайтов на одной лицензии несколько.

а что должно вы хотите добавить в robots.txt
2. создать часть robots.txt который система встроит в тот, который формирует сама. Делается это просто.
Создается файл для домена с id = 1 /robots/1/robots.txt / В нем пишутся свои инструкции для данного домена. Можно воспользоваться макросом %disallow_umi_pages%, который замениться на записи
....
Disallow: /go_out.php
Disallow: /search
эм... правильно ли я понимаю, что мне необходимо создать директорию robots в ней поддиректорию с названием равным id домена, а в ней разместить нужный robot.txt?
Если да, то как система понимает что надо брать файл оттуда?

*

admin

  • *****
  • 2444
  • +172/-1
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #5 : 29 Сентября 2014, 13:08:55 »
эм... правильно ли я понимаю, что мне необходимо создать директорию robots в ней поддиректорию с названием равным id домена, а в ней разместить нужный robot.txt?
Если да, то как система понимает что надо брать файл оттуда?

да, правильно. Данная инструкция есть в файле /libs/root-src/sbots.php который и формирует содержимое robots.txt

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #6 : 29 Сентября 2014, 16:48:24 »
Удалила случайно ответ.

Все бы возможно было бы прекрасно с данным вариантом.
Но у меня версия 2.0.0.0
а данный вариант расписан в документации для версий выше 2.8.5
Цитировать
Для решения этой проблемы, с версии 2.8.5.1 схема подключения пользовательских файлов robots.txt была доработана. Теперь пользователи имеют возможность создать свои собственные robots.txt для каждого домена.

т.е. сейчас в дебрях верхнего уровня был найден рукописный robots.txt, который был удален. И файл стал формироваться на лету.
Но, все равно остается проблема с внесением изменений в имеющийся файл для конкретного домена.

*

admin

  • *****
  • 2444
  • +172/-1
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #7 : 29 Сентября 2014, 16:51:12 »
Но, все равно остается проблема с внесением изменений в имеющийся файл для конкретного домена.

о каких изменениях идет речь?

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #8 : 29 Сентября 2014, 16:52:28 »
Например мне нужно указать что имеющийся сайт теперь является зеркалом другого сайта.
т.е. мне надо прописать отличный от имеющегося HOST

*

admin

  • *****
  • 2444
  • +172/-1
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #9 : 29 Сентября 2014, 16:56:37 »
самый простой способ:
1. сделать копию авто формирующегося robots и добавить то, что вам надо сохранив это под именем robots.txt
2. периодически проделывать это заново

посложнее:
 - написать алгоритм, который будет делать это автоматически (то есть то, что umi сделала в версии 2.8.5)

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Re:robots.txt свой для каждого сайта в старой версии Umi
« Ответ #10 : 29 Сентября 2014, 16:59:32 »
самый простой способ:
1. сделать копию авто формирующегося robots и добавить то, что вам надо сохранив это под именем robots.txt
2. периодически проделывать это заново
Да не получится. у меня там 6 действующих сайтов. и каждому нужен свой robots.txt, и только у одного мне нужно что бы деректива HOST выводилась не стандартно, а измененная на то что мне нужно.

А вот посложнее... это лес дремучий.

*

e.ioffe

  • ****
  • 369
  • +81/-2
  • Профессиональная разработка на UMI.CMS.
    • Просмотр профиля
    • Fullspace - Лучший хостинг для UMI.CMS
Еще один вариант - использовать .htaccess

Что-то вроде такого:

RewriteEngine On
RewriteRule ^http://домен/robots\.txt$  robots_domain.txt [L]

а в robots_domain.txt жестко прописать нужные директивы для поисковых систем.
Ускорение сайта на UMI.CMS - http://speed.umispec.ru/

*

shoto

  • ***
  • 235
  • +4/-0
    • Просмотр профиля
Еще один вариант - использовать .htaccess

Что-то вроде такого:

RewriteEngine On
RewriteRule ^http://домен/robots\.txt$  robots_domain.txt [L]

а в robots_domain.txt жестко прописать нужные директивы для поисковых систем.

что-то как-то не получается, все равно цепляет сгенерированный umi.