да задавя Google

cToKaTa

Member
Здравейте,до няколко седмици ще пусна един проект и се чудя като изпратя xml sitemap-a към Webmastertools-a с близо 30-40 хиляди страници дали ще му хареса :D ? Разбира се , те се индексират постепенно, и не мисля , че ще пречи изобщо , но все пак споделете мнение :)
 
От: да задавя Google

50 000 е максимума, ще го захапе, само пази хостинга да не падне.

Мисля да ползвам стратегията за раздробяване на sitemap-a на 5 отделни с релация към главния , но за жалост не мога да дам актуален пример , защото забравих в кой известен сайт го бях гледал ...
 
От: да задавя Google

Сайтовете с хиляди страници най-много ги обича отдела за спам на Google. Особено ако са на току що регистрирани домейни или страниците са току що създадени (до скоро ги е нямало).
 
От: да задавя Google

МегаМол ли пускаш? Паркинг за навалицата осгурил ли си? Че в Люлин бе голяма изцепка - половин София ги псуваше.
Аз бих го пуснал поне по етажно - максимум етаж на седмица. А в седмицата можеш да го раздробиш по щандове.
 
От: да задавя Google

Внимавай да не го задавиш, защото много хора разчитаме на него :lol:

А 30-40 000 страници се замисли дали има смисъл от тях. Ако са с копирано съдържание или без никакво такова, то този сайт може да не види бял свят никога през своето съществуване.
 
Последно редактирано:
От: да задавя Google

Ще изгориш 100%, a Google не само няма да се задави ами може и да ти свали сайта, не са малко сайтовете който са били пребивани от Google bot :) И както казаха колегите по-горе, нов сайт с 30К страници...... ще изядеш тоягата още в sandbox-a :)
 
От: да задавя Google

МегаМол ли пускаш? Паркинг за навалицата осгурил ли си? Че в Люлин бе голяма изцепка - половин София ги псуваше.
Аз бих го пуснал поне по етажно - максимум етаж на седмица. А в седмицата можеш да го раздробиш по щандове.

бюлетини мой човек , бюлетини :D :D

Не знам ... някой може ли да даде по солидно доказателство , статия , опит ?
 
От: да задавя Google

При лимит от 50к за отделен sitemap нямаш никакви проблеми при 30-40 хиляди URL-а в един единствен - както спомена, за прегледност би могъл да си го "раздробиш" ( наместо да търсиш примера, който ти се губи из спомените, потърси за sitemap index ).

Това, което виждам като евентуален, при това доста сериозен проблем е от концептуално, стратегическо естество, и за да бъде най-кратко ясно и точно изразен, ще използвам метафора, сравнение, поставено в риторичен въпрос - кое е по-ефективно: да изразходваш всички амуниции в един-единствен залп, или да го направиш с разчет и план във времето и топологичното пространство, което искаш да завладееш със стратегическа визия и тактическо изпълнение.

Ефекта да люснеш изведнъж, от нищото, няколко десетки хиляди страници, които в идеалния случай имат смислено съдържание - това също е под въпрос, вече засегнат по-горе - ще има ефекта на няколко минутен залп-заря, в сравнение с планираното им, постепенно и разширяващо-целенасочено "освобождаване" - think about it for a minute or two.
 
От: да задавя Google

DELETE - опитах се да отговоря по-горе, но не изглеждаше като отговор, след това използвах quote, за да е поне ясно кому отвръщам. Не съм ви свикнал на форума, наминавам рядко оттук. Cheerz

 
От: да задавя Google

Ще изгориш 100%, a Google не само няма да се задави ами може и да ти свали сайта, не са малко сайтовете който са били пребивани от Google bot :) И както казаха колегите по-горе, нов сайт с 30К страници...... ще изядеш тоягата още в sandbox-a :)
BS мисля, че у нас се шири някаква особена робоплеклонна респектирана до насирана, свръхблагоговеяна страхопочитателна трепет пред някаква си там монополистичнва компанийчица, наричана жужъл :D
Няма да изяда тоягата от това, че дропва изведнъж от нищото 30-ина хиляди странички, не е това проблема му, изобщо...
 
От: да задавя Google

При лимит от 50к за отделен sitemap нямаш никакви проблеми при 30-40 хиляди URL-а в един единствен - както спомена, за прегледност би могъл да си го "раздробиш" ( наместо да търсиш примера, който ти се губи из спомените, потърси за sitemap index ).

Това, което виждам като евентуален, при това доста сериозен проблем е от концептуално, стратегическо естество, и за да бъде най-кратко ясно и точно изразен, ще използвам метафора, сравнение, поставено в риторичен въпрос - кое е по-ефективно: да изразходваш всички амуниции в един-единствен залп, или да го направиш с разчет и план във времето и топологичното пространство, което искаш да завладееш със стратегическа визия и тактическо изпълнение.

Ефекта да люснеш изведнъж, от нищото, няколко десетки хиляди страници, които в идеалния случай имат смислено съдържание - това също е под въпрос, вече засегнат по-горе - ще има ефекта на няколко минутен залп-заря, в сравнение с планираното им, постепенно и разширяващо-целенасочено "освобождаване" - think about it for a minute or two.

Да ! На една вълна сме .
 
От: да задавя Google

бюлетини мой човек , бюлетини :D :D

Не знам ... някой може ли да даде по солидно доказателство , статия , опит ?

Не разбирам защо искаш да ги пуснеш наведнъж. И без това няма да ти ги индексира за ден или два.
Не вярвам да намериш солидно доказателство какво ще се случи, освен ако не го направиш.

Нямам представа дали ще те накаже, но ще е интересно да споделиш - на кой ден, след пускането, ще се индексира последната страница.
И по кое време ще ти обърнат внимание другите търсачки.
Успех!
 
От: да задавя Google

Мисля да ползвам стратегията за раздробяване на sitemap-a на 5 отделни с релация към главния , но за жалост не мога да дам актуален пример , защото забравих в кой известен сайт го бях гледал ...


Може и този сайт да е Свежо.нет, те имат много карти на сайта. http://svejo.net/sitemaps/index.xml
 
От: да задавя Google

както по-горе казаха, до 50 000 линка няма да имаш проблем.
Все пак е по-добре да сплитнеш sitemap на отделни файлове. Ако можеш да ги групираш по категории, за да улесниш краулера е още по-добре.
Иначе би трябвало да е нщо такова:
HTML:
<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <sitemap>
    <loc>http://example.com/sitemap.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
  <sitemap>
    <loc>http://example.com/sitemap-2.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
  <sitemap>
    <loc>http://example.com/sitemap-3.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
</sitemapindex>
И т.н..
Има си sitemap-генератори, които ще ти го направят автоматично. Има и програми за Windows.

ПС: Сега видях примера на колегата mkirov. Точно това имах предвид.
 
От: От: да задавя Google

както по-горе казаха, до 50 000 линка няма да имаш проблем.
Все пак е по-добре да сплитнеш sitemap на отделни файлове. Ако можеш да ги групираш по категории, за да улесниш краулера е още по-добре.
Иначе би трябвало да е нщо такова:
HTML:
<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <sitemap>
    <loc>http://example.com/sitemap.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
  <sitemap>
    <loc>http://example.com/sitemap-2.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
  <sitemap>
    <loc>http://example.com/sitemap-3.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
</sitemapindex>
И т.н..
Има си sitemap-генератори, които ще ти го направят автоматично. Има и програми за Windows.

ПС: Сега видях примера на колегата mkirov. Точно това имах предвид.

Да и аз точно това си мислих първоначално .
Мерси за мненията .
Темата е изчерпана.
 
От: От: да задавя Google

както по-горе казаха, до 50 000 линка няма да имаш проблем.
Все пак е по-добре да сплитнеш sitemap на отделни файлове. Ако можеш да ги групираш по категории, за да улесниш краулера е още по-добре.
Иначе би трябвало да е нщо такова:
HTML:
<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <sitemap>
    <loc>http://example.com/sitemap.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
  <sitemap>
    <loc>http://example.com/sitemap-2.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
  <sitemap>
    <loc>http://example.com/sitemap-3.xml</loc>
    <lastmod>2014-10-10</lastmod>
  </sitemap>
</sitemapindex>
И т.н..
Има си sitemap-генератори, които ще ти го направят автоматично. Има и програми за Windows.

ПС: Сега видях примера на колегата mkirov. Точно това имах предвид.

По-скоро, и по-ефективно от разпарчетосването - няма и нужда да го цепиш под 50К, е да се отнесеш като - естествено - дървовидна структура, и да "насочиш вниманието" на мъшийната към отделни клонове, които искаш да се индексират, най-вече и най-ефективно някъде в дълбочина. Сиреч, наместо да го пускаш от индекса, го пускаш в най-затънтените дълбочинни дълбини на сайтовете и стават чудеса на науката и техниката и индексажа.

Отделно, в примера си пропуснал едно много важно нещо, което си е от спецификата на протоколо - теглата, приоритете...Поиграйте си и поекспериментирайте с тях и глей къв пушек се дига в лог файла от боботове!

Всъщност, сайтмаповете са едно свръхмогъщо нещо, което е също така свръхпренебрегнато, най-вече от разни модни чекиджийски гурута, но е laser plasma cannon с много странна и свръхефективна употреба, което върши чудеса, стига да се тюнингова и използва пълноценно.
 

Горе