Ссылка с параметром s вместо запроса яндекс

Ссылка с параметром s вместо запроса яндекс

Столкнулся с необходимостью индексировать поисковиками адреса с параметрами, пример:
сайт.ру/вася/2464324/?one=параметр1&two=параметр2

Сейчас индексируются страницы сайт.ру/вася/2464324/

Вопроса по сути два, ссылки с параметрами вообще попадают в индекс?
Могу ли я сделать так, чтобы поисковики отдавали предпочтение именно ссылкам с параметрами?

Важно, по обоим адресам контент одинаковый.

p.s. может передача параметров в ссылке это прошлый век и сейчас можно делать это иначе?

Могу ли я сделать так, чтобы поисковики отдавали предпочтение именно ссылкам с параметрами?

На остальных нужно прописывать тег
rel=canonical

adel92, спасибо!
Я только что прописал rel=canonical
но именно на тех страницах которые с параметрами, этот вариант будет работать?

Нет возможности угадать страницы без параметров, чтобы задать для них rel=canonical

rel=canonical — должен быть прописан на тех страницах, которым в индекс не нужно.

обратите внимание,
https://support.google.com/webmasters/answer/139066?hl=ru

если нужна блокировка,
https://support.google.com/webmasters/answer/93710?hl=ru

для удобства вы можете использовать robots.txt,
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

заблокировав от индексации основные каталоги, но разрешив параметры

обратите внимание,
https://support.google.com/webmasters/answer/139066?hl=ru

если нужна блокировка,
https://support.google.com/webmasters/answer/93710?hl=ru

для удобства вы можете использовать robots.txt,
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

заблокировав от индексации основные каталоги, но разрешив параметры

Да действительно, прошу прощения, перепутал.

Нет возможности угадать страницы без параметров, чтобы задать для них rel=canonical

Видимо чтобы в url прописать ключи. Другого объяснения не нахожу.
Ключи прописываются по правилам ЧПУ. Разве что ТСу лень/не может этим заморочиться. Да собсно это и не так важно — ПСы прекрасно и с параметрами жрут. Если им дозволено, конечно :).

понял, спасибо.
Ты не слушай всяких неучей-спаммеров, а кури матчасть. SocFishing, вот даже нагуглил за тебя.

SeVlad, я в Яндексе тоже самое нашел, поэтому и проставил rel=canonical но потом снес. Оказалось, все верно понял.

Да, параметры у меня передают ключи (почти), на странице с параметрами отображается дополнительный, очень нужный контент.

Samail, SocFishing, спасибо!

Поисковики не хотят индексировать ссылки с параметрами, индексируют аналог без параметра.

Пожалуйста, подскажите, как-то кроме как передача параметра в ссылке, можно передать дополнительный контент для отображения на странице?

Что есть у меня:
1. Я получаю заведомо мне не известное имя и ссылку (с удаленного сайта — $js=file_get_contents).
2. Формирую поисковую строку (url на своем сайте) с ранее полученным именем (то есть собираюсь искать на своем сайте).
вася.ру/поиск/что-то (полученное ранее имя)
3. Далее к ссылке поискового запроса вася.ру/поиск/что-то
добавляю параметр ?one=что-то&two=url
4. В итоге, у меня на лету создается ссылка вида
вася.ру/поиск/что-то?one=что-то&two=url

Читайте также:  Электричество на даче от солнечных батарей

Делаю это для того, чтобы в результатах поиска, создать кнопку с именем "что-то" и ссылкой на ней "url"
$_GET["one"]; $_GET["url"];

Если параметр не задан то в результате поиска нет нужной мне кнопки.

Так вот, ссылки с параметром в индекс очень трудно летят, как-то по другому, возможно гораздо проще, можно реализовать то, что описал выше?
Надеюсь понятно изложил суть.

p.s. на сайте вроде все работает как нужно, но надо добиться того, чтобы посетитель сам нажал на такую ссылку, нужно чтобы посетитель из поисковика уже переходил по этой ссылке.

Не аналог скорее, а та же ссылка, без параметра и с параметром открывает одну и туже страницу. Поисковик пока индексирует страницу без параметра.
Хотя я настроил rel=canonical может ситуация изменится.
Фильтра нет, есть с десяток помеченных страниц как бесполезные и все, индекс стабильный.
Ссылки на эти страницы отображаю прямо на сайте, чтобы поисковик по ним переходил. Сложилось впечатление, что он по ним ходит но параметр у ссылки игнорирует.
Фильтров нет, сайт нормально грузится.

Т.е. трафик есть и прирост индекса страниц есть.

Smirnof, тебе достаточно генерить каноникал в твоих уникальных генерённых страницах.
Вот только ПСы сами посчитают насколько они достойны быть в выдаче и чем отличаются от родителя без параметров. Читай внимательно маны — там и про это сказано.

Родителя же можешь вообще запретить к индексации, но я сомневаюсь в целесообразности этого.

SeVlad, Родителя же можешь вообще запретить к индексации, но я сомневаюсь в целесообразности этого.
Ему поставил тег nofollow, noindex ставить пока не стал.

Сейчас ситуация немного изменилась, стал замечать в поиске Яндекса страницы с параметром (очень длинный url — вася.ру/поиск/что-то?one=что-то&two=url). Уже хорошо.

Дело в том, что в результатах поиска я создаю тоже ссылки с параметрами уже на сам контент (те же параметры), ссылка получается гораздо короче и вот ее пока нет в индексе вообще, но она для меня гораздо приоритетней, так как интереснее из поисковика сразу переходить на контент а не на результаты поиска по сайту.
totamon, url разный но контент отличается лишь парой слов и ссылкой, т.е. + кнопка на сайте и все. В том то и дело, что все что я прочел это о том как избавиться от параметров, а как сделать на оборот. вот интересуюсь.

Читайте также:  Как в экселе посчитать время между датами

В итоге, пока наблюдаю, что в индексе появились страницы с параметром на результаты поиска по сайту но параметр у самого контента отпадает (игнорируется) пока.
Да, rel=canonical удалось настроить только на страницах с параметрами, больше ни как.

Пожалуйста, подскажите, как правильнее делать ссылку с параметром?
У меня так вася.ру/news/12345?one=что-то&two=url
или так лучше и правильнее вася.ру/news/12345/?one=что-то&two=url

Случайно нажала на разрешение синхронизировать фото с фейсбук, а сейчас не могу отменить эту функцию. Буду удалять аккаунт. Считаю, что Фейсбук должен так же легко установить функцию отмены синхронизации, иначе это вмешательство в личную жизнь пользователей.

На андроид 6 как сделать ?

Honor 10. Все сработало. После перезагрузки телефона и удаления подсов из списка блютуз, и подключения их заново, громкость раза в 3 увеличилась. Спасибо

Serpstat использует файлы cookie для обеспечения работоспособности сервиса, улучшения навигации, предоставления возможности связаться с командой поддержки, а также маркетинговых активностей Serpstat.

Нажав кнопку "Принять и продолжить", вы соглашаетесь с Политикой конфиденциальности

Весенняя акция Serpstat: скидки — 35%

How-to – Читать 7 минут – 19 ноября 2018

Основной риск GET-параметра заключается в получении множества URL страниц с идентичным контентом и тратой краулингового бюджета роботов без необходимости. Бюджета может не хватить на сканирование полезных страниц. Это приводит к пессимизации страниц-дублей в SERP.

GET-запрос позволяет передать определенные показатели, например, номер товара или номер заказа. Однако в результате могут возникнуть страницы-дубли, например, в интернет-магазинах, где генерируется большое количество страниц. Пример:

Параметры бывают разными. Рассмотрим на примере URL с идентичным контентом. Существует идентификатор сеанса — прибавляемое число к URL, которое создает новую страницу для пользователя с особым для него содержанием. Это позволяет, например, демонстрировать каждому пользователю свою корзину.

Параметры используются не для того, чтобы разделять пользователей. Их цель — чтобы, например, при запросе «ботинки» на сайте обуви пользователь отфильтровал товар по бренду, цвету, размеру, материалу. При этом каждое сочетание будет добавлять новые параметры к существующему URL. Страницы не будут сильно отличаться по содержанию. Это приведет к созданию полных или частичных копий.

Когда поисковые системы находят такие URL и начинают их сканировать, они замечают дублирование информации. Алгоритм группирует адреса и выбирает среди них один для отображения в SERP. Он определяет «победителя» по своему усмотрению и повлиять на него не получится.

Читайте также:  Как можно написать имя в одноклассниках

Однако вы можете самостоятельно указать поисковой системе, как правильно обрабатывать такие URL, чтобы не допускать расхода краулингового бюджета на дублирующиеся страницы, которого впоследствии окажется недостаточно для полезных страниц, приносящих трафик.

GET-параметры в Google делятся на два вида:

Укажите, какие URL адреса с подобным параметром Google должен сканировать. Разберем каждый из предложенных:

  • «На усмотрение Googlebot» — это универсальный вариант, который следует выбрать, если вы точно не уверены в том, как работает параметр либо его действие может изменяться. Googlebot просканирует его и самостоятельно определит лучший метод для обработки параметра;
  • «Каждый URL-адрес». Настройка позволяет системе определять уникальность содержимого. Используйте этот вариант в том случае, если вы уверены, что параметр редактирует содержание страницы. Иначе система просканирует дубль контента;

  • «Только URL со значением» означает, что поисковый робот сканирует страницы с параметром, значение которого выбрали вы, а остальные проигнорирует. Применять такую настройку следует, когда значение параметра дает возможность менять порядок показа контента;

  • «Никакие URL» запрещает сканировать адреса, которые содержат определенный параметр.

Подобного инструмента для Яндекса нет. Чтобы настроить корректную обработку данных GET-параметров используют другие методы:

  • robots.txt: директива clean-param для cof, cx;
  • noindex/nofollow;
  • canonical.

Robots.txt не гарантирует, что страницы с параметрами не вылезут в поиске. Для Яндекса robots.txt является директивой. Google воспринимает файл как рекомендацию. Если знать, какие фрагменты присутствуют в url с GET-параметром, то их можно заранее закрыть в robots.txt. В Google метод применяют в совокупности с другими способами, например, прописывают канонические страницы canonical.

Использование noindex/nofollow как отдельного способа не всегда корректно, из-за этого его применяют реже.

Пропишите канонические адреса для параметров страниц. Используйте в файле robots.txt директиву Clean-param. Директива перечисляет для поискового робота параметры, которые не следует учитывать при сканировании. Для перечисления используется символ «&».

Перечислите параметры в первом поле, разделяя их амбассадором. Во втором поле укажите префикс пути страницы, для которой данное правило применяется. Директива межсекционная, поэтому может быть расположена в любом месте файла, если же таких директив несколько, то робот учтет все. Регистр букв имеет значение, также действует ограничение на объем — до 500 символов. Рассмотрим примеры реализации директивы:

Ссылка на основную публикацию
Создать новую электронную почту на яндексе бесплатно
Всем привет! С вами снова я, Алексей. В этом посте я расскажу вам о том, как создать электронную почту на...
Сколько человек сидит в одноклассниках
Mail.Ru Group исследовала и сравнила аудитории самых популярных в России социальных сетей — «Одноклассники», «Мой Мир», «ВКонтакте», Facebook и Twitter....
Сколько четырехзначных чисел можно составить из нечетных
Условие Решение 1 Решение 2 Решение 3 Поиск в решебнике Популярные решебники Издатель: Н. Я. Виленкин, В. И. Жохов, А....
Создать канал на ютубе регистрация бесплатно
Добрый день, уважаемые читатели и гости моего блога! Если вы попали на эту статью, значит хотите узнать, как зарегистрироваться в...
Adblock detector