1. Приветствуем Вас на неофициальном форуме технической поддержки XenForo на русском языке. XenForo - новый и перспективный форумный движок от бывших создателей vBulletin.

Как отделить поисковики в отдельную группу пользователей?

Тема в разделе "Для новичков", создана пользователем soundcla6, 2 дек 2012.

Загрузка
  1. soundcla6

    soundcla6 Пользователь

    Регистрация:
    26.02.12
    Сообщения:
    1
    Симпатии:
    0
    Версия XF:
    1.1.2
    У меня стоит цель: для реальных гостей форума ограничить скачивание вложений, но оставить позможность поисковым система индексировать их, по моему мнению так сниппет выдачи по запросу выглядит наиболее приятно для пользователя, например так:

    Безымянный.png
     
  2. Yoskaldyr

    Yoskaldyr Пользователь

    Регистрация:
    27.09.10
    Сообщения:
    1.921
    Симпатии:
    1.160
    Версия XF:
    1.0.4
    Если будет видеть поисковик, то и гость их будет видеть. 100% определить поисковик или нет нельзя, т.к. обычный гость может поисковиком прикинуться...
     
  3. AOTN

    AOTN Friend

    Регистрация:
    30.09.10
    Сообщения:
    449
    Симпатии:
    271
    Версия XF:
    1.2.4
    Это как? Как можно прикинуться Яндексом? :)
    --- добавлено : Dec 2, 2012 3:19 PM ---
    Вот, если бы можно было сделать переназначение по User Agent, ну и собственно само добавление этих User Agent, куда можно было бы прописать регулярное выражение, название и ключ робота, тогда можно было бы поисковикам организовать отдельную группу с отдельными правами. А так видимо сделать в XenForo нельзя...
     
  4. Yoskaldyr

    Yoskaldyr Пользователь

    Регистрация:
    27.09.10
    Сообщения:
    1.921
    Симпатии:
    1.160
    Версия XF:
    1.0.4
    Легко - юзер агент + отключенные куки. Есть даже аддоны для автоматизации этого под мозиллу и хром.

    Но вообще-то не советую что хочет ТС, делать на своем сайте, т.к. это классический клоакинг, который поисковики не любят.
    Кстати периодически поисковики посещают сайт как под видом обычного пользователя (без юзер агента поисковика, с куками и с обработкой js) и если страницы сильно отличаются по содержанию со страницами, просканированными обычными поисковым ботом (особенно в плане ссылок и важных html тегов), то это считается клоакингом и поисковик может применить санкции к странице/сайту.
     
    AOTN нравится это.
  5. Guy Fawkes

    Guy Fawkes Новичок

    Регистрация:
    13.12.12
    Сообщения:
    27
    Симпатии:
    1
    Версия XF:
    1.1.4
    Клоакинг это ведь крогда информация отличаетс, а здеьс вроде все одинаковое, просто для ПС более полная информация показывается
     
  6. Yoskaldyr

    Yoskaldyr Пользователь

    Регистрация:
    27.09.10
    Сообщения:
    1.921
    Симпатии:
    1.160
    Версия XF:
    1.0.4
    вот это как раз не любят поисковики - они нормально относятся к тому, что поисковику не вся информация показывается, т.е. инфа просто не попадет в поисковый индекс, но очень негативно относятся к инфе специально для поисковика, но которую не увидит обычный пользователь. Т.е. это считается попыткой повлиять на поисковый индекс - что поисковики категорически не переваривают. Да способы обхода есть, но это уже методы черного и серого СЕО и обычно они если и работают то не долго и часто с серьезными последствиями для сайтов, которые их применяют. Поэтому я и не советую их применять (применять то можно, но все на свой страх и риск и с пониманием того что это может выйти боком в будущем)
     

Поделиться этой страницей