Категории |
YandexИнтересует вопросик по яндексу, яндекс не может найти Sitemap т.е. карту сайта, она есть в папке но в файле php т.е. просто на сайт. в ему требуется в xml для лучшего индексирования. вопрос стоит с этим заморачиваться или толку не даст?) Модуль есть отдельный. Он и для yandex работает. Это для гугла, для yandex-а двигаться по той же схеме? да, карты аналогичны и для яндлекса и для меты, кстати чтобы поисковики поддерживающие сайтмапы лучше всего прописать ссылку на сайтмап в хтаксесс Это для гугла, для yandex-а двигаться по той же схеме? Да, тоже самое. кстати чтобы поисковики поддерживающие сайтмапы лучше всего прописать ссылку на сайтмап в хтаксесс это как? .. что то не слышал такого. простите загнался немного, писать нада в robots.txt А не проще в папке content есть файл sitemap.php нельзя ли просто яндексу дать ссылку на него?) поймет он его?) А не проще в папке content есть файл sitemap.php нельзя ли просто яндексу дать ссылку на него?) поймет он его?) Уже написал что да. Процесс добавление карты сайта такой же как и в google. но в роботс рекомендовалб всеравно прописать, малоли какие боты квам заходят =) лишним не будет Все спасибо вопрос решен и я все понял)))))) Спасибо! Модуль есть отдельный. Он и для yandex работает. http://www.shopos.ru/module/133/ Я думаю хуже точто не будет :) Здравствуйте! Подскажите, почему не работает google_sitemap? при загрузке страницы пишет, что ошибка на 15-й строчке Заранее спасибо )) Модуль есть отдельный. Он и для yandex работает. http://www.shopos.ru/module/133/ Я думаю хуже точто не будет :) Здравствуйте! Подскажите, почему не работает google_sitemap? при загрузке страницы пишет, что ошибка на 15-й строчке Заранее спасибо )) Потому что устарел. Теперь есть встроенный xml_sitemap для Google, Yahoo, Yandex. я делаю так обзательно в корни должен быть xml_sitemap.php Ага, теперь понятно! Большое спасибо, tulgha и pavelrer! Т.к. у меня проблемка - поисковики долго могут не обновлять страницы. Или например обновляют мета-дескрипшн,а мета-титл остается при этом старый... Не могут понять с чем это связано... Ежли поисковик знает вашу страницу т.е в sitemap или txt он есть и поисковик сожрал без ошибок, то рано или поздно он ее обновит, но енто не значит что она будет в поиске. yandex обнавляет очень долго.google бысрее во много раз. единственный способ ускорить это создать линковую зависимость в сети. т.е блоги, соц закладки, статьи, форумы - то же не помешают ( именно для определенной страницы ). когда страниц за 500 получиться очень много работы но все же. в robot.txt я sitemap не прописываю никогда, скормил один раз поисковику xml_sitemap.php и тхт и все - мне кажтся так быстрее процесс идет..... единственное что разрешил в robot.txt все dir с картинками и файлами инструкций pdf, doc, zip. Ну и самое главное мудохоться с продвижением без бабла бесполезно - как тока бабло кончилось сайт свалиться с такой же скоростью. Работайте над контентом, уникальность очень важная штука, страницы на 3500 символов уникального контента живут очень хорошо. В robot.txt при установки все не нужное уже запрещено Спасибо большое за подсказки )) Спасибо большое за подсказки )) А вот по поводу фала robots.txt вопросик: В robot.txt при установки все не нужное уже запрещено - А где его можно найти? Я вручную создавал :o в корне магазина должен лежать изначально А у меня в корне магазина нет такого файлика.... (( файл robots.txt есть всегда. ищите внимательнее, либо скачайте дистрибутив шопоса и возьмите оттуда, в чем проблема то?)) У меня в версии 2.4.4 точно его нет (( И в скачанной версии 2.5.0 тоже не нашел. конечно можно У меня в версии 2.4.4 точно его нет (( И в скачанной версии 2.5.0 тоже не нашел. Вот скачал версию 2.5.2- там все на месте ))) Подскажите, пожалуйста, можно ли использовать файл robots.txt из версии 2.5.2 для моей версии 2.4.4? Как мне кажется, то можно, но хотел бы уточнить этот нюансик у более знающих людей в этом деле )) Заранее благодарен! не знаю откуда вы эти версии качаете. но robots.txt был во всех версиях Подскажите, пожалуйста, можно ли использовать файл robots.txt из версии 2.5.2 для моей версии 2.4.4? да Огромное спасибо, Евгений! )) В магазине 63000 товаров и размер sitemap более 10мб по данным Яндекса. Есть какие не будь способы чтобы он его скушал? В магазине 63000 товаров и размер sitemap более 10мб по данным Яндекса. Есть какие не будь способы чтобы он его скушал? а что не хочет кушать? Файл проверен Яндексом, но загрузить его не может, пишет, что "Не удалось загрузить файл." Хотя если вставить ссылку в строку браузера файл открывается. разбить на куски А подробнее можно? генерируете весь sitemap, потом делите его notepad++ (аналог блокнота) вручную допустим по 40 000 строк (максимум 50 000) , т.е. у вас получится sitemap1.xml и sitemap2.xml (продолжение), не забываем использовать открывающие и закрывающие теги как в исходном sitemap и грузим в robots.txt строкой Спасибо. генерируете весь sitemap, потом делите его notepad++ (аналог блокнота) вручную допустим по 40 000 строк (максимум 50 000) , т.е. у вас получится sitemap1.xml и sitemap2.xml (продолжение), не забываем использовать открывающие и закрывающие теги как в исходном sitemap и грузим в robots.txt строкой Sitemap: http://www.трали-вали.ru/sitemap1.xml (или без www) Sitemap: http://www.трали-вали.ru/sitemap2.xml и т.д. хм. можно просто генератор сайтмап доработать ибо такой геморой после каждого обновления базы товаров или статей быстро надоест Я использую сторонний генератор программу, она подо всё генерит от яндекса до яху, по этому делаю при необходимости в ручную (у меня не один магазин, а есть еще другие сайты) А как программа называется? A1 Sitemap Generator в нете с лекарством есть :) |
|