نحوه بهبود کارایی خزیدن و نمایه سازی در سطح سازمانی


سئوی سازمانی بر اساس قوانین مختلفی عمل می کند.

استراتژی هایی که ممکن است برای وب سایت های کوچک یا خاص کار کنند، همیشه در مقیاس کارایی ندارند.

بنابراین دقیقاً چه اتفاقی می‌افتد وقتی سئوی سازمانی به دست می‌آید خیلی بزرگ?

در این مقاله، سه مثال واقعی را به اشتراک می‌گذارم. سپس، یک پادزهر بالقوه برای مدیریت کارآمدتر SEO در مقیاس یاد خواهید گرفت.

مواجهه با معضل نمایه سازی

سایت های کوچک تمایل دارند هر بار یک صفحه رشد کنند و از کلمات کلیدی به عنوان بلوک های سازنده استراتژی سئو استفاده می کنند.

سایت های بزرگ اغلب رویکردهای پیچیده تری را اتخاذ می کنند و به شدت بر سیستم ها، قوانین و اتوماسیون تکیه دارند.

همسو کردن سئو با اهداف تجاری بسیار مهم است. اندازه گیری موفقیت سئو بر اساس رتبه بندی کلمات کلیدی یا ترافیک منجر به پیامدهای منفی به دلیل ایندکس بیش از حد می شود.

یک فرمول جادویی برای تعیین تعداد بهینه URL های فهرست شده وجود ندارد. گوگل حد بالایی تعیین نمی کند.

با این حال، یک نقطه شروع خوب، در نظر گرفتن سلامت کلی قیف SEO است. اگر یک سایت…

  • هل می دهد ده ها یا صدها میلیون، یا حتی میلیاردها آدرس های اینترنتی به گوگل
  • رتبه ها فقط برای a چند میلیون کلید واژه ها
  • بازدیدهایی از a چند هزار صفحات
  • a را تبدیل می کند کسر از اینها (در صورت وجود)

… پس این نشانه خوبی است که باید به برخی از نیازهای جدی سلامت SEO توجه کنید.

رفع هر گونه مشکل بهداشتی سایت در حال حاضر باید بعداً از مشکلات بزرگتر سئو جلوگیری کند.

بیایید به سه مثال واقعی سئوی سازمانی نگاه کنیم که نشان می دهد چرا این بسیار مهم است.

مورد 1: پیامدهای نمایه سازی بیش از حد محتوای بی کیفیت

گوگل منابع محدودی برای خزیدن و پردازش وب دارد. آنها محتوایی را که برای کاربران ارزشمند است در اولویت قرار می دهند.

گوگل ممکن است صفحاتی را که نازک، تکراری یا با کیفیت پایین می‌داند، بخزد، اما فهرست نکند.

اگر فقط چند صفحه باشد، مشکلی نیست. اما اگر گسترده باشد، ممکن است گوگل تمام انواع صفحه یا بیشتر محتوای سایت را نادیده بگیرد.

در یک نمونه، یک بازار تجارت الکترونیک متوجه شد که ده‌ها میلیون صفحه فهرست آن تحت تأثیر خزیدن انتخابی و نمایه‌سازی قرار گرفته‌اند.

پس از خزیدن میلیون‌ها صفحه فهرست‌های نازک و تقریباً تکراری و فهرست نشدن آن‌ها، گوگل در نهایت از خزیدن در وب‌سایت به طور کلی عقب‌نشینی کرد و بسیاری را در برزخ «کشف شده – در حال حاضر فهرست‌بندی نشده» رها کرد.

این بازار به شدت به موتورهای جستجو برای تبلیغ لیست های جدید به کاربران متکی بود. محتوای جدید دیگر کشف نمی شد، که یک چالش تجاری مهم بود.

برخی اقدامات فوری انجام شد، مانند بهبود پیوند داخلی و استقرار نقشه های سایت XML پویا. در نهایت این تلاش ها بی نتیجه بود.

راه حل واقعی مستلزم کنترل حجم و کیفیت محتوای قابل نمایه سازی بود.

مورد 2: پیامدهای پیش بینی نشده خزیدن متوقف می شود

هنگامی که خزیدن متوقف می شود، محتوای ناخواسته در فهرست Google باقی می ماند – حتی اگر تغییر، هدایت یا حذف شده باشد.

بسیاری از وب سایت ها به جای خطاهای 404 برای محتوای حذف شده از تغییر مسیر برای حفظ اعتبار استفاده می کنند. این تاکتیک می تواند ترافیک اضافی را از صفحات ارواح برای ماه ها، اگر نه سال ها، کاهش دهد.

با این حال، گاهی اوقات ممکن است به طرز وحشتناکی اشتباه شود.

به عنوان مثال، یک بازار جهانی معروف که کالاهای دست ساز را می فروشد، به طور تصادفی اطلاعات خصوصی فروشندگان (مانند نام، آدرس، ایمیل، شماره تلفن) را در نسخه های بومی سازی شده صفحات فهرست آنها فاش کرد. برخی از این صفحات توسط گوگل ایندکس و ذخیره شده اند و اطلاعات شخصی قابل شناسایی (PII) را در نتایج جستجو نمایش می دهند که امنیت و حریم خصوصی کاربر را به خطر می اندازد.

از آنجایی که گوگل این صفحات را دوباره خزیده است، حذف یا به‌روزرسانی آن‌ها آن‌ها را از فهرست حذف نمی‌کند. حتی ماه‌ها پس از حذف، محتوای ذخیره‌شده و داده‌های PII کاربر همچنان در فهرست Google وجود داشتند.

در چنین شرایطی، مسئولیت رفع اشکالات و همکاری مستقیم با Google برای حذف محتوای حساس از جستجو بر عهده بازار بود.

مورد 3: خطرات نمایه سازی بیش از حد صفحات نتایج جستجو

نمایه سازی کنترل نشده حجم زیادی از صفحات نازک و با کیفیت پایین می تواند نتیجه معکوس داشته باشد – اما در مورد نمایه سازی صفحات نتایج جستجو چطور؟

گوگل فهرست بندی نتایج جستجوی داخلی را تایید نمی کند و بسیاری از سئوکاران باتجربه اکیداً این تاکتیک را توصیه نمی کنند. با این حال، بسیاری از سایت های بزرگ به شدت به جستجوی داخلی به عنوان محرک اصلی سئوی خود متکی هستند که اغلب بازده قابل توجهی را به همراه دارند.

اگر معیارهای تعامل کاربر، تجربه صفحه و کیفیت محتوا به اندازه کافی بالا باشد، گوگل می تواند چشم خود را ببندد. در واقع، شواهد کافی وجود دارد که نشان می دهد گوگل ممکن است حتی یک صفحه نتیجه جستجوی داخلی با کیفیت بالا را به یک صفحه فهرست نازک ترجیح دهد.

با این حال، این استراتژی می تواند اشتباه نیز باشد.

یک بار دیدم که یک سایت حراج محلی بخش قابل توجهی از رتبه بندی صفحات جستجوی خود – و بیش از یک سوم از ترافیک SEO خود را – یک شبه از دست داده است.

قانون 20/80 در این مورد اعمال می شود که بخش کوچکی از عبارات سرفصل بیشتر بازدیدهای SEO از نتایج جستجوی فهرست شده را شامل می شود. با این حال، اغلب این دم بلند است که سهم بزرگی از حجم URL را تشکیل می دهد و دارای بالاترین نرخ تبدیل است.

در نتیجه، از بین سایت‌هایی که از این تاکتیک استفاده می‌کنند، تعداد کمی محدودیت‌ها یا قوانین سختی را برای فهرست‌بندی صفحات جستجو اعمال می‌کنند.

این دو مشکل عمده ایجاد می کند:

  • هر پرس و جوی جستجو می تواند یک صفحه معتبر ایجاد کند، به این معنی که تعداد بی نهایت صفحه می تواند به طور خودکار تولید شود.
  • همه آنها در گوگل ایندکس می شوند.

در مورد یک بازار طبقه بندی شده که از صفحات جستجوی خود با تبلیغات شخص ثالث درآمد کسب می کرد، این آسیب پذیری به خوبی از طریق نوعی آربیتراژ تبلیغاتی مورد سوء استفاده قرار گرفت:

  • تعداد زیادی از URLهای جستجو برای عبارات مبهم، بزرگسال و کاملاً غیرقانونی ایجاد شد.
  • در حالی که این صفحات تولید شده به طور خودکار هیچ نتیجه موجودی واقعی نداشتند، آنها تبلیغات شخص ثالث را ارائه می کردند و برای رتبه بندی برای جستجوهای درخواستی از طریق الگوی صفحه و ابرداده بهینه شده بودند.
  • بک لینک ها از انجمن های با کیفیت پایین به این صفحات ساخته شده اند تا توسط ربات ها کشف و خزیده شوند.
  • کاربرانی که از گوگل وارد این صفحات می‌شوند، روی تبلیغات شخص ثالث کلیک می‌کنند و به سایت‌های با کیفیت پایینی که مقصد مورد نظر بودند، می‌روند.

تا زمانی که این طرح کشف شد، اعتبار کلی سایت آسیب دیده بود. همچنین با چندین جریمه و کاهش شدید عملکرد سئو مواجه شد.

پذیرش نمایه سازی مدیریت شده

چگونه می شد از این مسائل جلوگیری کرد؟

یکی از بهترین راه‌ها برای رونق سایت‌های سازمانی بزرگ در سئو، کاهش مقیاس از طریق فهرست‌سازی مدیریت‌شده است.

برای سایتی با ده ها یا صدها میلیون صفحه، بسیار مهم است که فراتر از رویکرد متمرکز بر کلیدواژه به رویکردی که توسط داده ها، قوانین و اتوماسیون هدایت می شود، حرکت کنید.

نمایه سازی مبتنی بر داده

یکی از مزیت های مهم سایت های بزرگ، انبوهی از داده های جستجوی داخلی است که در اختیار دارند.

به جای تکیه بر ابزارهای خارجی، آنها می توانند از این داده ها برای درک تقاضا و روندهای جستجوی منطقه ای و فصلی در سطح ریز استفاده کنند.

این داده‌ها، زمانی که به فهرست موجودی محتوای موجود نگاشت می‌شوند، می‌توانند راهنمای قوی برای فهرست‌بندی محتوایی و همچنین زمان و مکان انجام آن ارائه دهند.

کپی برداری و ادغام

تعداد کمی از URL های معتبر و با رتبه بالا بسیار ارزشمندتر از حجم زیادی از صفحات پراکنده در 100 صفحه برتر هستند.

ارزشمند است که صفحات مشابه را با استفاده از قوانین متعارف، استفاده از قوانین و اتوماسیون برای این کار ادغام کنید. برخی از صفحات ممکن است بر اساس نمرات شباهت ادغام شوند، برخی دیگر – در صورتی که مجموعاً برای جستارهای مشابه رتبه بندی شوند، با هم دسته بندی شوند.

نکته کلیدی در اینجا آزمایش است. منطق را تغییر دهید و آستانه ها را در طول زمان اصلاح کنید.

صفحات محتوای نازک و خالی را پاک کنید

وقتی صفحات نازک و خالی در حجم زیاد وجود داشته باشند می توانند آسیب قابل توجهی به بهداشت و عملکرد سایت وارد کنند.

اگر بهبود آنها با محتوای ارزشمند یا ادغام آن‌ها بسیار چالش برانگیز است، باید فهرست‌بندی نشده یا حتی غیرمجاز شوند.

فضاهای بی نهایت را با robots.txt کاهش دهید

پانزده سال پس از اینکه گوگل برای اولین بار در مورد “فضاهای بی نهایت” نوشت، موضوع فهرست بندی بیش از حد فیلترها، مرتب سازی و سایر ترکیبات پارامترها همچنان دامنگیر بسیاری از سایت های تجارت الکترونیک است.

در موارد شدید، خزنده‌ها می‌توانند سرورها را در حالی که سعی می‌کنند راه خود را از طریق این پیوندها باز کنند، از کار بیاندازند. خوشبختانه، این موضوع به راحتی از طریق robots.txt قابل حل است.

رندر سمت مشتری

استفاده از رندر سمت کلاینت برای برخی از مؤلفه‌های روی صفحه که نمی‌خواهید توسط موتورهای جستجو نمایه شوند، ممکن است یک گزینه باشد. این را با دقت در نظر بگیرید.

بهتر از آن، این مؤلفه‌ها برای کاربرانی که از سیستم خارج شده‌اند غیرقابل دسترسی باشند.

با افزایش مقیاس، سهام به طور چشمگیری افزایش می یابد

در حالی که SEO اغلب به عنوان یک منبع ترافیک “رایگان” تلقی می شود، این تا حدودی گمراه کننده است. میزبانی و ارائه محتوا هزینه دارد.

ممکن است هزینه ها برای هر URL ناچیز باشد، اما زمانی که مقیاس به صدها میلیون یا میلیاردها صفحه برسد، سکه ها شروع به جمع شدن به اعداد واقعی می کنند.

اگرچه اندازه گیری بازگشت سرمایه سئو دشوار است، اما یک پنی پس انداز شده یک پنی است که صرفه جویی در هزینه از طریق خزیدن مدیریت شده و نمایه سازی باید یکی از عوامل در نظر گرفتن استراتژی های نمایه سازی برای سایت های بزرگ باشد.

یک رویکرد عمل‌گرایانه به سئو – با خزیدن و فهرست‌سازی به خوبی مدیریت شده، با هدایت داده‌ها، قوانین و اتوماسیون – می‌تواند از وب‌سایت‌های بزرگ در برابر اشتباهات پرهزینه محافظت کند.

نظرات بیان شده در این مقاله نظرات نویسنده مهمان است و لزوماً سرزمین موتور جستجو نیست. نویسندگان کارکنان در اینجا فهرست شده اند.

دیدگاهتان را بنویسید