آموزش سئو، وردپرس و ديجيتال ماركتينگ | ||
|
يكي از مشكلاتي كه بسياري از كارشناسان سئو و وبمستران با آن روبرو هستند، مي توان به داشتن محتواي تكراري (duplicate content) اشاره كرد. البته اگر سايت شما فروشگاهي باشد، قطعا با محتواي تكراري روبرو خواهيد بود و براي آنكه مشكلي در سئو سايت شما بوجود نيايد، بايد از روش هايي براي فهم بهتر گوگل و افزايش رتبه در موتورهاي جستجو استفاده نماييد. ويكي دمي در اين مقاله قرار است درباره تاثير محتواهاي تكراري بر روي سئو سايت شما صحبت كند و به شما راهكارهايي را براي بهتر كردن سايت و محتواي شما آموزش دهد، پس با ما همراه باشيد. محتواي تكراري چيست؟محتواي تكراري، محتوايي است كه در اينترنت در بيش از يك مكان ظاهر مي شود. اين “يك مكان” به عنوان مكاني با آدرس وب سايت منحصر به فرد (URL) تعريف مي شود؛ بنابراين ، اگر همان محتوا در بيش از يك آدرس وب ظاهر شود، duplicate content دريافت شده است. اگرچه از نظر فني مجازات نيست، اما محتواي تكراري هنوز هم گاهي اوقات مي تواند بر رتبه بندي موتور جستجو تأثير داشته باشد. هنگامي كه چندين قطعه از محتوا “به طور قابل ملاحظه اي مشابه” در بيش از يك مكان در اينترنت وجود دارند ، براي موتورهاي جستجو دشوار است كه تصميم بگيرند، كدام نسخه بيشتر مربوط به يك جستجوي خاص است. محتواهاي تكراري يا در داخل يك سايت ايجاد مي شوند كه اين عمل به خاطر طراحي سايت اشتباه يا گول زدن گوگل، ايجاد شده است كه نتيجه آن پنالتي از سمت الگوريتم پنگوئن خواهد بود. يا اينكه با دو آدرس متفاوت، به طراحي سايت مشابه و محتواي تكراري پرداخته شده است كه اين كار، بين كسب و كارها براي دريافت رتبه بهتر بسيار رايج شده است. چرا محتواهاي تكراري بسيار مهم هستند؟اين نوع محتواها مي توانند براي موتورهاي جستجو، داراي سه مسئله مهم باشند:
مطالب ذكر شده، مشكلاتي بودند كه ممكن است براي موتورهاي جستجو به وجود آيد، اما اگر شما جز دارندگان چنين سايتي باشيد، قطعا با مشكلاتي روبرو خواهيد شد كه در ادامه به آن ها پرداخته مي شود: وقتي محتواي تكراري وجود دارد، دارندگان سايت مي توانند شاهد از دست دادن رتبه و كاهش بازديدكننده نيز باشند. اين خسارات اغلب از دو مشكل اصلي ناشي مي شود:
چطور مشكل duplicate content اتفاق مي افتد؟در اكثر قريب به اتفاق، دارندگان وب سايت عمداً محتواي تكراري ايجاد نمي كنند. اما، اين بدان معني نيست كه در سايت آنها چنين محتواهايي وجود نداشته باشد. در واقع، طبق برخي تخمين ها، تا 29 درصد از سايت ها در وب، داراي محتواي كپي و تكراري هستند. بياييد نگاهي به برخي از متداول ترين روش هاي ايجاد ناخواسته محتواي تكراري بيندازيم: 1. تغييرات URLپارامترهاي URL ، مانند رديابي كليك و برخي از كد هاي تجزيه و تحليل، مي توانند مشكلات محتواي تكراري ايجاد كنند. اين مي تواند مشكلي باشد كه نه تنها توسط خود پارامترها، بلكه به ترتيب نمايش آن پارامترها در خود URL نيز ايجاد شود. براي مثال: www.widgets.com/blue-widgets?c… اين آدرس تكراري از www.widgets.com/blue-widgets?c…&cat=3″است. class=”redactor-autoparser-object”>www.widgets.com/blue-widgets تكراري از است www.widgets.com/blue-widgets?cat=3&color=blue به همين ترتيب، session ID هم مي تواند به عنوان يك محتواي تكراري در نظر گرفته شود كه بسيار هم رايج است. اين اتفاق زماني مي افتد كه به هر كاربري كه از يك وب سايت بازديد مي كند شناسه جلسه ديگري اختصاص داده شود كه در URL ذخيره شده باشد. نسخه هاي قابل چاپ براي محتوا، همچنين مي توانند با تكرار شدن چندين نسخه از صفحه ، مشكلات محتواي تكراري ايجاد كنند. يك درسي كه در اينجا داده شده است اين است كه در صورت امكان، از افزودن پارامترهاي URL يا نسخه هاي جايگزين URL ها پرهيز نماييد. 2.صفحات HTTP در مقابل HTTPS يا WWW در مقابل غير WWWاگر سايت شما نسخه هاي جداگانه اي در “www.site.com” و “site.com” دارد (با و بدون پيشوند “www”) و محتواي يكساني در هر دو نسخه ساخته شده است، شما به طور خودكار، نسخه هاي تكراري از هر يك از آنها را ايجاد كرده ايد و صفحات با چنين محتواهاي تكراري، براي سايت هايي كه نسخه هاي خود را در هر دو آدرس http: // و https: // نگهداري مي كنند نيز،اعمال مي شود. اگر هر دو نسخه از يك صفحه زنده هستند و براي موتورهاي جستجو قابل مشاهده هستند ، ممكن است با يك مشكل محتواي تكراري روبرو شوند. 3. محتواي خراشيده يا كپي شدهمحتوا نه تنها شامل پست هاي وبلاگ يا محتواي سرمقاله است، بلكه صفحات اطلاعات محصول نيز مي باشد. اسكرابرها كه بازنشر مطالب وبلاگ شما را در سايت هاي خود منتشر مي كنند ممكن است منبع آشناتر محتواي تكراري باشد، اما يك مشكل مشترك براي سايت هاي تجارت الكترونيكي نيز وجود دارد: اطلاعات مربوط به محصولات. اگر بسياري از وب سايت هاي مختلف موارد مشابهي را بفروشند و همه آنها از توضيحات سازنده در مورد آن موارد استفاده كنند، محتواي يكسان در چندين مكان در سراسر وب پخش مي شود. چگونه مشكلات محتواي تكراري را برطرف كنيمرفع مشكلات محتواي تكراري، همه به همان ايده اصلي برمي گردد: مشخص كردن اينكه كدام يك از نسخه هاي تكراري “صحيح” است. هر زمان كه محتواي يك سايت در چندين URL يافت شود ، بايد براي موتورهاي جستجو قانوني شود. بياييد سه روش اصلي براي انجام اين كار را مرور كنيم: استفاده از هدايت 301 به URL صحيح ، ويژگي rel = canonical يا استفاده از ابزار كنترل پارامتر در Google Search Console. ريدايركت 301در بسياري از موارد ، بهترين راه براي مبارزه با محتواي تكراري ، استفاده از ريدايركت 301 از صفحه “تكرار” به صفحه محتواي اصلي است. وقتي چندين صفحه با قابليت رتبه بندي خوب در يك صفحه واحد تركيب شوند، نه تنها از رقابت با يكديگر باز مي مانند. بلكه، آنها به طور كلي ارتباط و محبوبيت قوي تري ايجاد مي كنند. اين بار، توانايي صفحه “صحيح” براي رتبه بندي مثبت، تاثير مي گذارد. Rel=Canonicalيكي ديگر از راههايي كه مي توان با duplicate content مقابله كرد، استفاده از ويژگي كنونيكال است. اين ويژگي به گوگل اعلام مي كند كه اين صفحه كپي از آدرس صفحه اصلي بوده وقدرت تمامي لينك ها و محتواهايي كه در اين صفحه بوده به صفحه اصلي انتقال داده مي شود. rel=canonical، يك كد html بوده كه براي راحتي كار مورد استفاده قرار مي گيرد و نمونه آن به شرح زير است: …[other code that might be in your document’s HTML head]……[other code that might be in your document’s HTML head]… اين ويژگي به head HTML براي جلوگيري از محتواي كپي ايجاد مي شودو به گوگل مي گويد كه نسخه اصلي اين صفحه كدام است؛ يادتان باشد كه كنونيكال بايد در كوتيشن مارك (“) قرار گيرد. اين ويژگي مانند ريدايركت 301، تمامي ارزش ها را انتقال مي دهد و در يك سطح قرار دارند. اگر با مفاهيم اموزش سئو داخلي آشنايي نداريد، حتما اين مقاله را براي گرفتن رتبه از گوگل بخوانيد. Meta Robots Noindexيكي از برچسب هاي متا كه در پرداختن به محتواي تكراري نيز مي تواند مفيد باشد، روبات هاي متا (meta robots) است كه با مقادير “noindex ، follow” استفاده مي شود. اين متا را كه معمولاً Meta Noindex، Follow مي نامند و از لحاظ فني به صورت content = “noindex، follow” نمايش داده مي شود. اين كد در head HTML هر صفحه مي تواند قرار گيرد و حتي به گوگل اعلام مي كند كه اين صفحه را دنبال كند ولي در فهرست خود ذخيره ننمايد. اين روش به گوگل اعلام مي كند كه صفحات تكراري و كپي را دنبال كند و اگر مشكلي هم در اين صفحات وجود دارد، آن ها را اعلام كند اما در ديتابيس خود ذخيره نكند. قالب كلي اين كد به صورت زير است: …[other code that might be in your document’s HTML head]……[other code that might be in your document’s HTML head]…
ادامه مطلب
امتیاز:
بازدید:
[ ۳۰ فروردين ۱۴۰۰ ] [ ۱۰:۳۸:۰۵ ] [ wiki ]
[ ۱ ]
|
|
[ ساخت وبلاگ :ratablog.com ] |