آموزش سئو

محتوای تکراری: بهترین رویکردهای سئو برای اجتناب از آن

Duplicate Content in SEO

محتوای تکراری چیست؟

محتوای تکراری تحت عنوان محتوایی نامیده میشود که متن آن دقیقاً در صفحات دیگر هم وجود داشته باشد. البته عبارت محتوای تکراری میتواند به محتواهای تقریباً یکسان (مثلاً محتواهایی که صرفاً نام محصول، برند یا موقعیت مکانیشان تغییر کرده) نیز اطلاق شود.

صِرف تغییر چند واژه لزوماً نمیتواند موجب تکراری نبودن یک محتوا شود. در نتیجه احتمال دارد کیفیت جستجوی ارگانیکتان نیز صدمه ببیند.

همچنین محتوای تکراری به محتواهایی اطلاق میشود که در چندین صفحه از سایت شما یا دو یا چند سایت مجزا تکرار شده ‌اند. اما راه‎ های زیادی برای جلوگیری یا به حداقل رساندن تاثیر محتوای تکراری وجود دارند که میتوان آن‌ را با راهکارهای فنی کنترل کرد.

در این مقاله نگاه عمیقتری به علل محتوای تکراری می ‌اندازیم، بهترین راه‎ های اجتناب از آن را ذکر میکنیم و نشان میدهیم که چطور میتوانید مانع کپی محتوا توسط رقبا و ادعای آنها مبنی بر خلق محتوا توسط خودشان شوید.

تاثیر محتوای تکراری

صفحات تولیدشده با محتوای تکراری میتوانند موجب چندین پیامد منفی در نتایج جستجوی گوگل شوند و حتی جریمه داشته باشند. متداولترین مشکلات ناشی از محتوای تکراری عبارتند از:

  • نمایش نسخه نادرست صفحات در نتایج جستجو
  • عملکرد ضعیف و غیرمنتظره صفحات کلیدی در نتایج جستجو یا مواجهه با مشکلات ایندکس
  • افت معیارهای کلیدی سایت (ترافیک، موقعیت در صفحه نتایج، یا معیار E-A-T) یا نوسان در آنها
  • سایر اقدامات غیرمنتظره از سوی موتورهای جستجو که به واسطه سیگنال‎های اولویت ‌بندی مبهم رخ میدهند

هرچند هیچکس نمیداند که گوگل برای کدامیک از المان‎های محتوا اولویت قائل میشود، اما این غول عرصه جستجو همواره به وبمسترها و تولیدکنندگان محتوا توصیه کرده که «هدف اصلی شما برای ساخت صفحه، کاربر باشد نه موتور جستجو».

با عنایت به این نکته، هر وبمستر یا متخصص سئو باید نقطه شروع خود را خلق محتواهای انحصاری بداند که ارزشهای منحصر به ‌فرد برای کاربران خلق کنند. اما این امر همواره ساده یا حتی ممکن نخواهد بود. فاکتورهایی نظیر الگوسازی برای محتوا، کارآمدی جستجو، تگهای UTM، اشتراک‌ گذاری اطلاعات یا چاپ محتوا در چند جای مختلف میتواند ریسک محتوای تکراری را به دنبال داشته باشد.

اطمینان از عدم گرفتاری سایت به دام محتوای تکراری، نیازمند ترکیبی از عواملی همچون معماری شفاف، رسیدگی مداوم، و درک فنی برای مقابله با این ‌گونه از محتوا است.

روشهای جلوگیری از محتوای تکراری

روشها و استراتژیهای گوناگونی برای جلوگیری از خلق محتوای تکراری در سایت و جلوگیری از کپی ‌برداری محتوایتان توسط سایت‎های دیگر وجود دارند.

  • طبقه ‎بندی
  • تگ کنونیکال
  • متاتگ ‌گذاری
  • کنترل پارامتر
  • URLهای تکراری
  • ریدایرکتها

طبقه ‌بندی

برای شروع، بهتر است نگاهی کلی به طبقه‎بندی سایتتان بیندازید. وجود یک سند جدید، موجود یا اصلاح‎ شده، ترسیم طرح کلی صفحات برای خزنده، و تخصیص یک کلیدواژه‎ کانونی و H1 منحصر به ‌فرد می‎تواند یک شروع عالی باشد. سازماندهی محتوا در قالب یک خوشه‎ی موضوعی (تاپیک کلاستر)، میتواند کمک‎ حال شما برای توسعه‎ی یک استراتژی فکورانه برای مبارزه با محتوای تکراری باشد.

تگهای کنونیکال

شاید مهمترین المان برای مبارزه با نشر محتوای تکراری در یک یا چند سایت گوناگون، تگهای کنونیکال است.

المان rel=canonical، یک اسنیپت در کد HTML است که مالکیت ناشر بر محتوا را به گوگل تفهیم میکند، حتی اگر آن محتوا در بخشهای دیگر اینترنت نیز یافت شود. این تگها به گوگل میگویند که کدامین نسخه از صفحه را «نسخه اصلی» آن قلمداد کند.

تگ کنونیکال میتواند برای نسخه ‎های کاغذی یا اینترنتی محتوا، نسخه ‎های موبایل و دسکتاپ، یا صفحات مختص هدفگیری چند موقعیت مکانی استفاده شود. میتوان از آن برای هر نمونه دیگری هم بهره گرفت که چندین صفحه تکراری از یک نسخه‌ اصلی سرچشمه میگیرند.

دو نوع تگ کنونیکال وجود دارد: آنهایی که به یک صفحه اشاره میکنند و آنهایی که انگشت اشاره را به سمت یک صفحه دیگر میبرند. آنهایی که به یک صفحه دیگر اشاره می‎کنند، به موتورهای جستجو میگویند که فلان صفحه، «نسخه‌ اصلی» محتوا است.

تگهای مورد استفاده در صفحاتی که خود را به عنوان نسخه‏‎ اصلی معرفی میکنند، تحت عنوان تگهای کنونیکال خودارجاع نیز نامیده میشوند. کنونیکالهای ارجاع‌ دهنده، یکی از المانهای اساسی برای شناسایی و حذف محتوای تکراری هستند و کنونیکالهای خودارجاع، نمونه ‌ای خوب از کاربرد این تگ‌ها محسوب میشوند.

متاتگ ‌گذاری

یک آیتم فنی و مفید دیگر که باید در هنگام تحلیل ریسک محتوای تکراری سایت در نظر گرفته شود، متارباتها و سیگنالهایی هستند که هم ‌‎اکنون از صفحات شما به موتورهای جستجو ارسال میشوند.

اگر میخواهید مانع ایندکس شدن یک یا چند صفحه معین در گوگل شوید و ترجیح میدهید در نتایج جستجو نباشند، تگهای متاربات به کارتان می ‌آیند.

با افزودن تگ متارباتهای «نو ایندکس (no index)» به کد HTML صفحه، عملاً به گوگل میگویید که نمیخواهید آن صفحه در نتایج جستجو ظاهر شود. این یک روش بهتر نسبت به مسدودسازی Robots.txt است، زیرا اجازه‎ مسدودسازی جزئی تر برای یک صفحه یا فایل بخصوص را میدهد، در حالی ‌که Robots.txt عموماً برای مقیاسهای  بزرگتر است.

هرچند امکان بهره‌ گیری از این دستورالعمل برای مقصودهای متفاوت وجود دارد، اما گوگل آن را متوجه خواهد شد و میداند که باید صفحات تکراری را از نتایج جستجوی خود حذف کند.

کنترل پارامتر

پارامترهای URL، دستورالعمل شیوه خزش صحیح و بهینه سایت را در اختیار موتورهای جستجو میگذارند. پارامترها عموماً موجب شکل‌ گیری محتوای تکراری میشوند، کمااینکه بهره‌ گیری از آنها چندین کپی از یک صفحه میسازد. مثلاً اگر چندین صفحه‎ متفاوت برای یک محصول وجود داشته باشد، گوگل آنها را محتوای تکراری می پندارد.

اما کنترل پارامتر میتواند موجب خزش صحیح و بهینه‎ سایت‌ها شود. مزیت موتورهای جستجو اثبات‎ شده و عزم آنها برای اجتناب از محتوای تکراری نیز بدیهی است. علی ‌الخصوص برای سایتهای بزرگتر و سایتهایی که قابلیت جستجوی یکپارچه دارند، بهره‌ گیری از کنسول جستجوی گوگل و ابزارهای وبمستر بینگ ضرورت دارد.

با نمایش صفحات پارامتربندی ‎‏شده در ابزار مربوطه و ارسال سیگنال به گوگل، موتور جستجو به سادگی متوجه می‌شود که نباید این صفحات را بررسی کند و در صورت لزوم، اقدامات متعاقب را صورت دهد.

URLهای تکراری

تعدادی المان ساختاری در یک URL هستند که میتوانند موجب مشکل محتوای تکراری در وبسایت شوند. بسیاری از این مشکلات، به شیوه‎ درک موتورهای جستجو از URL برمیگردند. در صورت عدم ذکر هرگونه دستورالعمل مشخص، گوگل همواره یک URL متفاوت را به مثابه یک صفحه‏‎ متفاوت قلمداد میکند.

این فقدان شفافیت یا سیگنال‌ دهی اشتباه و ناخواسته و عدم رسیدگی به آن، میتواند موجب افت معیارهای کلیدی سایت (ترافیک، موقعیت در صفحه نتایج، یا معیار E-A-T) یا نوسان در آنها شود. همان‌ طور که پیش‌ تر گفتیم، پارامترهای URL حاصل از قابلیت جستجو، کدهای رهگیری و سایر المانهای شخص ثالث، میتوانند موجب شکل‌ گیری چندین نسخه از یک صفحه شوند.

متداولترین نمونه‏‎ های شکل ‎گیری نسخه‏ های تکراری از URLها عبارتند از: نسخه ‌های HTTP و HTTPS از صفحات، www. و غیر www.، و صفحات دارای تریلینگ اسلش و صفحاتی که فاقد آن هستند.

در تقابل میان نسخه ‎های www. و غیر www.، و صفحات دارای تریلینگ اسلش و فاقد آن، باید متداولترین نسخه‌ مورد استفاده در سایتتان را بیابید و آن را در تمامی صفحاتتان استفاده کنید تا ریسک تکرار محتوا را به حداقل برسانید. همچنین ریدایرکتها باید مستقیماً به نسخه‎ ای از صفحه ارجاع دهند که قرار است ایندکس شود و ریسک تکرار محتوا را از بین ببرند، مثل mysite.com > www.mysite.com.

از سوی دیگر URLهای HTTP نشان‌دهنده یک مسئله‎ی امنیتی هستند، کمااینکه نسخه HTTPS آن صفحه از انکریپشن (SSL) بهره میگیرد و صفحه را ایمن میکند.

ریدایرکتها

ریدایرکتها مزیت فراوانی برای حذف محتوای تکراری دارند. صفحات تکراری نشات‌ گرفته از یک صفحه دیگر، میتوانند از طریق ریدایرکت به نسخه‎ اصلی خود ارجاع دهند.

وقتی صفحاتی از سایتتان وجود دارند که دارای حجم ترافیک یا ارزش لینک بالا بوده و کپی یکی دیگر از صفحات آن هستند، ریدایرکت میتواند یک راهکار عملی برای رسیدگی به این مشکل باشد.

در هنگام بهره ‎گیری از ریدایرکت برای حذف محتوای تکراری، دو نکته‌ مهم وجود دارد که باید به خاطر بسپارید: ریدایرکتها باید همواره به صفحه‎ بهتر صورت گیرند تا تاثیر منفی کمتری بر عملکرد سایتتان وارد شود، و در صورت امکان، از ریدایرکت 301 استفاده کنید. اگر خواهان کسب اطلاع درباره‎ی انواع ریدایرکتها هستید، «راهنمای ما برای ریدایرکتهای 301» را ببینید.

اگر محتوای من بر خلاف میل خودم کپی شود چطور؟

فرض کنید محتوای شما کپی شده و از تگ کنونیکال هم بهره نگرفته ‌اید تا تملک خود بر آن را نشان دهید. در این صورت باید چه کنید؟

  • از کنسول جستجو بهره بگیرید تا بازه‌ ایندکس شدن سایتتان را شناسایی کنید.
  • با وبمستر مسئول سایت کپی‌‎ کننده تماس بگیرید و از او بخواهید اسمتان را به عنوان مرجع بیاورد یا مطلب را حذف کند.
  • از تگ‌های کنونیکال خودارجاع بر روی تمامی محتواهای جدید بهره بگیرید تا مطمئن شوید که محتوای شما را به عنوان «منبع حقیقی» آن اطلاعات بشناسند.

مرور محتوای تکراری

برای اجتناب از محتوای تکراری، باید کار خود را با تمرکز بر خلق محتوای منحصر به فرد و باکیفیت برای سایتتان آغاز کنید؛ اما رویکردهای جلوگیری از کپی محتوا توسط دیگران، پیچیده تر خواهد بود. ایمن ترین راه برای جلوگیری از مشکلات محتوای تکراری، تفکر سنجیده درباره ساختار سایت و تمرکز بر کاربران و مسیر حرکتشان در سایت است. اگر بروز محتوای تکراری به علت عوامل فنی باشد، تاکتیکهای مطرح شده در این مطلب، میتوانند ریسک سایتتان را کاهش دهند.

در حین ملاحظه ریسکهای محتوای تکراری، باید سیگنالهای صحیح را به گوگل ارسال کنید تا سایت شما را به عنوان منبع اصلی محتوا بشناسد. این امر علی الخصوص برای شرایطی صدق میکند که مطلبتان را در چند جای مختلف چاپ کنید یا پیشتر محتوایتان توسط سایر منابع کپی شده باشد.

بسته به شیوه شکل گیری محتوای تکراری، یک یا چند تاکتیک گوناگون وجود دارند که میتوانید محتوای خود را به عنوان منبع اصلی جا بزنید و به موتورهای جستجو بگویید که سایر نسخه ها کپی هستند.

 

از سراسر وب

هادی بهمنی

کارشناسی ارشد مهندسی مکانیک با سابقه ترجمه‌ چند کتاب در حوزه‎ مدیریت کسب ‌و کار و عاشق بازاریابی محتوایی

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

از سراسر وب
دکمه بازگشت به بالا