![]() |
Форум больше не используется. Присоединяйтесь к каналу #community-ru в Slack for TYPO3 community |
|
![]() |
#1 |
Senior Member
|
![]()
Что интересно, если мы удаляем элемент контента, то он попадает в "неиспользованные элементы" и доступен в меню сверху, НО! инфа оттуда индексируется и участвует в поиске, что не совсем корректно.
Кто как решал эту "проблему"? или объяснить пользователю, что нужно такие элементы удалять? Плюс когда еще выбираем настройки для индексации - indexing configuration - там ставим page tree и доступны только 3 уровня вложенности? Это уровни вложенности "для составления следующих ссылок" - типа оно находит тройную вложенность на странице первого уровня, а потом постепенно доходит до 3ой вложенности на других? ЛИБО нужно самостоятельно разбить настройки индексирования на 2-3 элемента, для каждого доступна максимум тройная вложенность?
__________________
Персональный блог про заработок в интернете + полезных блога про typo3 и wordpress Последний раз редактировалось Tod; 12.06.2007 в 14:17 |
![]() |
![]() |
![]() |
#2 |
Senior Member
|
![]()
По поводу индексирования META entries в доке это черным по белому написано, что они тоже индерксируются... думал что только у меня они не отключены, а оказывается не все так плохо, то есть не одного меня подобное
так на http://cms-demo.typo3lab.ru при поиске слова "шаблон" выводится все 31 страница сайта, где в МЕТА есть это слово или же на http://wciom.ru при поиске "ВЦИОМ" выводится все 4539 страницы)) зы. по идее видимо можно как-то это все пообрабатывать с помощью <!--TYPO3SEARCH_begin--> (end) вокруг заголовков и МЕТА, но если гуру типо3 этого не делают, может так оно и нужно ![]()
__________________
Персональный блог про заработок в интернете + полезных блога про typo3 и wordpress |
![]() |
![]() |
![]() |
#3 |
Senior Member
|
![]()
Скажите, а есть ли особенности Crawlera на сервере под Windows?
Когда только начал разбираться с ним - он работал. А сейчас нет. Не найду причину. Настройки такие. Код:
tx_crawler.crawlerCfg.paramSets.content = day=[28-29]&mon=[2]&year=[2008] tx_crawler.crawlerCfg.paramSets.content { cHash = 1 procInstrFilter = tx_indexedsearch_reindex, tx_indexedsearch_crawler baseUrl = http://172.16.1.231/ } Ссылки получаются правильные. В Crawler log они появляются. Cli status -> Run Now - скрипт запускается и работает, работает, работает, статус остается:start. Но в Crawler log ничего не меняется и в проиндексированных страницах не появляется тоже ничего. Но если вручную нажать на кнопочку Read в логах - все индексируется. Есть ли особенности на Windows серверах? Этот баг не влияет? (вроде ж нет) И зачем нужен "indexedsearch_crawler"? - у меня он не отображается вместе с indexedsearch_reindex |
![]() |
![]() |