Fetch as Google در گوگل وبمستر چیست؟

Fetch as Google در گوگل وبمستر چیست؟

Fetch as Googlebot یا کشاندن روبات گوگل به مسیر مورد نظر جهت بازبینی و ایندکس کردن، ابزار است مفید که در سیستم Google Webmaster می توانید آن را بیابید که به شما کمک می کند تا مطالب سایت خود را که از دید Crwaler (خزنده) پنهان مانده است و در گوگل ایندکس نشده است را به گوگل معرفی و درخواست بازدید خزنده از آدرس سایت یا صفحه ای خاص از سایت خود نمایید.

ویا بطور مثال بعضی صفحات در وب سایت ها حاوی مطلب و متن نیستند و فقط به نمایش یک تصویر یا فیلم و یا انیمیشن پرداخته است که این نوع صفحات شاید هیچگاه ایندکس وتوسط Crawler دیده نشود برای همین Fetch as Googlebot می تواند به شما برای معرفی این نوع صفحات کمک شایانی نماید.

کمک Fetch as Googlebot به سایت های که مورد سواستفاده یا هک قرار گرفته اند!
Fetch as Googlebot می تواند به شما در پیدا کردن بعضی مشکلات از قبیل هک شدن سایت به شما کمک کند به طور مثال : شما یک سایت با آدرس http://www.yoursite.com دارید و یکبار که در حال جستجوی یک عبارت غیر از موضوع و خارج از مطالب سایت خود هستید می بینید که سایت شما هم در نتایج جستجو نمایش داده می شود!! در نگاه اول شاید شما خوشحال بشوید که سایت شما برای عبارتی خاص ایندکس شده است اما وقتی وارد سایت می شوید هیچ مطلبی در رابطه با عبارت فوق نمی بینید! و این نشان می دهد که سایت شما مورد سواستفاده اسپم ها (Spam Terms) قرار گرفته است و هک شده است، اینجاست که شما از طریق Fetch as Googlebot می توانید بررسی کنید و سریع مشکل و باگ را پیدا و درست کنید چون در حالت عادی بدون Fetch as Googlebot این کار زمانبر و دشوار می باشد.
در کل گوگل به شما پیشنهاد می کند که صرفا از Fetch as Googlebot فقط برای ایندکس و Crawl کردن سایت خود استفاده نکنید و از امکانات زیر که در سیستم Google Web Master در اختیار کاربران می گذارد استفاده نمایید.
Robot.txt کنترل پوشه ها و صفحاتی که اجازه Crawl شدن دارند.
HTML Suggestion پیشنهاد های استاندارد سازی کد های صفحه برای بهینه شدن برای موتور جستجو
Crawler Errors خطاهای رخ داده در هنگام Crawl سایت شما

آموزش استفاده از Fetch as Googlebot
به سیستم Google Web Master وارد شوید.
در پنل سمت چب به ترتیب به بخش Diagnostics و روی Fetch as Googlebot کلیک کنید .
در کادر آدرس مسیری که می خواهید Crawl شود را وارد نمایید.
نوع Crawler را که از نوع WEB یا Mobile Crawler باشد انتخاب نمایید.
روی Fetch کلیک کنید.
بعد از اینکه آدرس به صورت موفق آمیز Fetch شد برای ایندکس شدن در گوگل روی Submit to Google index کلیک کنید.

شما می توانید از Fetch as Googlebot برای درج ۵۰۰ آدرس استفاده نمایید.

نوشته Fetch as Google در گوگل وبمستر چیست؟ اولین بار در ملی سئو | سئو و بهینه سازی پدیدار شد.

ملی سئو | سئو و بهینه سازی

بکارگیری کلمات کلیدی

وجود کلمات کلیدی در آدرس صفحه و تاثیر آن از نظر سئو سایت بر روی رتبه بندی و بهبود وضعیت سئو سایت شما در گوگل در این مقاله مورد بررسی قرار میگیرد.

 

تاریخچه وجود کلمات کلیدی در آدرس صفحه

 

قبل از اینکه به اهمیت وجود کلمات کلیدی در آدرس صفحه – URL – بپردازیم بهتر است نگاهی به تاریخچه این موضوع داشته باشیم : گوگل پارامترهای مختلفی را برای امتیاز دادن به صفحات اینترنتی در نظر میگیرد. برخی از این پارامترها مربوط به داخل صفحات اینترنتی و برخی دیگر پارامترهای بیرونی هستند، مانند قدمت سایت، لینکها، شبکه های اجتماعی، سرعت سایت وشط…

 

یکی از پارامترهای درونی سایت که از قدیم مورد توجه فعالان سئو بوده است وجود کلمات کلیدی در آدرس صفحه است. گرچه چنین پارامتری جز پارامترهای تایید شده توسط گوگل نیست، اما تکنیکهای زیادی نیز در طول زمان برای ایجاد آدرس های صفحات بر اساس کلمات کلیدی بوجود آمدند. به انواع روش های نگاشت آدرس های مجازی شامل کلمات کلیدی به صفحات با آدرس اصلی URL Rewriting یا بازنویسی آدرس میگویند.

 

در حال حاضر بسیاری از وب سایت های اینترنتی برای بهبود وضعیت خود در گوگل سعی میکنند آدرس های اینترنتی خود را مملو از کلمات کلیدی کنند.

 

نکته قابل توجه در مورد وجود کلمات کلیدی در آدرس صفحه این است که وزن این پارامتر در طول زمان دچار نوسانات بسیار زیادی شده است. به عنوان مثال در حدود 3 تا 4 پیش در زبان فارسی چنین کاری میتوانست بازدهی بسیار مناسبی در رتبه بندی گوگل داشته باشد، به مرور وزن این پارامتر به صفر رسید و مجددا نوساناتی در گوگل داشت.

وجود کلمات کلیدی فارسی در آدرس صفحه اینترنتی

وجود کلمات کلیدی فارسی در آدرس صفحه اینترنتی گرچه به طور مستقیم میتواند وزن پارامتر مورد نظر از نظر سئو را بهبود ببخشد اما مشکلات خاص خودش را دارد که از جمله آنها میتوان به موارد زیر اشاره کرد:

  • برخی از وب سرورها با مدیریت آدرس های یونیکد مشکل دارند و این کار سرعت لود صفحات سایت شما تحت تاثیر قرار خواهد داد
  • در صورتی که اسم صفحه را تغییر دهید دچار مشکل اطلاعات تکراری یا Duplicate content خواهید شد، زیرا صفحه قبلی شما در گوگل ایندکس شده و صفحه جدیدی با همان محتوا نیز ایندکس میشود که برای سئو سایت شما مشکل ایجاد میکند.
  • معمولا آدرس های فارسی به دلیل یونیکد بودن بسیار طولانی هستند و همین موضوع باعث میشود که لینکهای شکسته از بیرون سایت به شما داده شود.

با توجه به مشکلات فوق عملا میتوان نتیجه گرفت که همیشه استفاده از آدرس های فارسی در صفحات اینترنتی مفید نیست و باید در نحوه استفاده از آدرس های سایت دقت بسیار زیادی اعمال کرد. زیرا تبعاتی که استفاده نادرست از کلمات کلیدی فارسی میتواند برای ما داشته باشد از مزایای آن بیشتر است.

وجود کلمه کلیدی در نام دامنه

به نظر می رسه که وجود کلمه کلیدی در نام دامنه بر خلاف آدرس صفحه از وزن قابل توجهی برخوردار باشه. ما چند آزمایش در این زمینه انجام دادیم و نتایج آن قابل توجه بود. یکی از دوستان هم تجربه جالبی در مورد دامنه ای که به صورت فارسی ثبت کرده بود داشت و به نظر میرسد که این موضوع از نظر سئو اهمیت خاص خود را دارا باشد. اما مسئله اینجاست که این پارامتر تنها یکی از پارامتر از پارامترهای مختلف گوگل است و به تنهایی نمیتواند باعث بالا آمدن سایت شما در گوگل شود.

در وب سایت های انگلیسی به وفور میبینیم که از این روش استفاده میشود و وب سایت هایی با پسوند و پیشوندهای مختلف کلمه کلیدی مورد نظر ایجاد شده اند به امید اینکه نتیجه مناسبی در گوگل بگیرند.

نتیجه گیری

به نظر می رسه که با تغییرات جدید الگوریتم گوگل دیگر بهای چندانی به وجود کلمات کلیدی در آدرس صفحات نمی دهد، از طرف دیگر استفاده از کلمات کلیدی فارسی در آدرس مشکلات خاصی خود را به دنبال خواهد داشت و به نظر می رسد که تکنیکهای URL Rewriting کاربرد خود از نظر سئو را تا حد زیادی از دست داده اند.گرچه تکنیکهای بازنویسی آدرس از نظر سئو دیگر اهمیت چندانی ندارند، اما کماکان میتوانند برای وب سایت های مختلف استفاده شوند زیرا آدرسهای بامعنی تری ایجاد میکنند و میتوانند بر روی برندسازی و یادآوری آدرس های مختلف اینترنتی نیز تاثیر مثبت بگذارند.

 

سئو | آموزش سئو