8 الگوریتم بهینه سازی گوگل

الگوریتم گوگل برای سئو سایت

مقدمه

گوگل برای امتیاز دهی و رتبه‌بندی سایت‌ها، از یک سری قانون پیروی می‌کند. گوگل این مجموعه قوانین را به صورت الگوریتم‌هایی در نظر گرفته است که به آن‌ها الگوریتم رتبه بندی گوگل می‌گویند.

هر چند وقت یکبار Google تغییراتی را در الگوریتم‌های رتبه بندی خود ارائه می‌دهد. برخی تغییرات کوچکی هستند اما برخی دیگر به طور کلی نتیجه صفحات موتورهای جستجو را تغییر می‌دهند و در رتبه سایت برای کلمه های کلیدی نیز تأثیر می‌گذارند. در این مقاله با معروف‌ترین الگوریتم‌های گوگل برای موتورهای جستجو و جریمه‌های گوگل در سال‌های اخیر آشنا می‌شویم. همچنین یاد می‌گیریم که برای بهبود سئو سایت مطابق هر یک از الگوریتم ها، چه کارهایی را باید انجام دهیم.

1. پاندا

پاندا نام رسمی یکی از معروف‌ترین الگوریتم‌های گوگل است که به منظور کاهش شیوع محتوای کم کیفیت و بی‌ارزش در نتایج جستجو و برای پاداش دادن به مطالب مفید و قانع کننده ساخته شده است.

الگوریتم پاندای Google به صفحات، یک نمره کیفیت اختصاص می‌دهد، سپس بر اساس این نمره و بازخورد بازدیدکنندگان، رتبه آن صفحه در نتایج جستجو مشخص می‌شود.

چرا Google پاندا را ایجاد کرد

در سال 2010، افت کیفیت نتایج نمایش داده شده در گوگل و افزایش مدل کسب‌و‌کار “مزرعه محتوا” موضوعی شد که بارها و بارها باعث دور زدن موتور‌های جستجو برای قرار گرفتن در رتبه‌های برتر نتایج جستجو می‌شد.

مزرعه محتوا، تعداد زیادی از صفحات با کیفیت پایین هستند که غالباً محتوای صفحات سایر سایت‌ها را کپی می‌کنند. به عنوان مثال، یک مزرعه محتوا ممکن است یک وب سایت باشد که تعداد زیادی از نویسندگان را با دستمزد پایین استخدام می‌کند تا بتواند مقالات کوتاهی را پوشش دهد که طیف گسترده‌ای از کلمات کلیدی جستجو شده در موتور‌های جستجو را شامل شود؛ و بدنه‌ای از محتوا تولید می‌کند که فاقد اقتدار و ارزش برای خوانندگان است.

مزرعه محتوا

هدف اصلی استفاده از این کار، فقط به دست آوردن رتبه در موتورهای جستجو برای هر اصطلاح و کلمه کلیدی قابل تصور است!

در ژانویه سال 2011، Business Insider عنوانی را منتشر کرد که در آن گفته شده بود: “الگوریتم جستجوی گوگل ویران شده، زمان درمان آن فرا رسیده است”.

پاندا برای اولین بار در 23 فوریه 2011 معرفی شد. در 24 فوریه، گوگل مطلبی را در مورد این به روزرسانی منتشر کرد و اعلام کرد که پاندا تأثیر بسیار بزرگی را در رتبه بندی گوگل ایجاد خواهد کرد. تغییری که به طور چشمگیری 11.8٪ از نمایش داده‌ها را تحت تأثیر قرار داد.

هدف ایجاد الگوریتم پاندا

هدف بیان شده از این الگوریتم به شرح زیر بود:

این الگوریتم به منظور کاهش رتبه برای سایت‌های با کیفیت پایین طراحی شده است؛ سایت‌هایی که ارزش افزوده کمتری برای کاربران دارند؛ محتوا را از وب سایت‌های دیگر یا سایت‌هایی که حتی مفید هم نیستند کپی می‌کنند. در عین حال، این الگوریتم برای سایت‌های با کیفیت و دارای محتوای اصلی و اطلاعاتی مانند تحقیقات، گزارش‌های عمیق، تجزیه و تحلیل متفکرانه و غیره ارزش زیادی قائل است و رتبه مناسبی برای آن‌ها در نظر می‌گیرد.

الگوریتم پاندا

به طور کلی الگوریتم پاندا سایت هایی را که شامل موارد زیر باشند؛ جریمه می‌کند:

  • محتوای تکراری
  • سرقت ادبی یا محتوای کم ارزش
  • هرزنامه ایجادشده توسط کاربر
  • انباشت کلمات کلیدی

منظور از انباشت کلمات کلیدی چیست؟

انباشت کلمات کلیدی، یک تکنیک سئو منفی برای موتور‌های جستجو است که به عنوان وب اسپم یا spamdexing درنظر گرفته می‌شود. در این تکنیک، تعداد زیادی از کلمات کلیدی در تگ‌های متا، محتوای صفحه یا متن لینک (anchor text) قرار می‌گیرند؛ اینگونه صفحات تلاش می‌کنند با استفاده از حجم انبوهی از کلمات کلیدی، در صفحه اول موتور‌های جستجو قرار بگیرند.

پر کردن یک محتوا از کلمات کلیدی، منجر به جریمه شدن سایت توسط موتورهای جستجو بصورت موقت یا دائمی می‌شود. امروزه موتورهای جستجو بیشتر روی مطالب منحصر به فرد، جامع، مرتبط و مفید تمرکز می‌کنند که به طور کلی کیفیت را بهبود می‌بخشد و باعث می‌شود کاربر هرچه سریع‌تر به پاسخ سؤالات خود برسد.

سایت را به طور منظم برای محتوای تکراری و انباشت کلمات کلیدی بررسی کنید. برای انجام این کار، شما نیاز به یک خزنده سایت یا crawler دارید؛ مانند حسابرس وب سایت SEO PowerSuite.

اگر سایت شما در زمینه تجارت الکترونیک است و نمی‌توانید 100 درصد محتوای منحصر به فرد داشته باشید؛ سعی کنید از تصاویری که خود از محصولاتتان عکس گرفته‌اید استفاده کنید تا محتوای منحصر به فردی داشته باشید.

2. پنگوئن

قبل از راه‌اندازی الگوریتم پنگوئن گوگل، تعداد پیوند‌ها یا لینک های یک سایت نقش بسیار زیادی در تعیین رتبه‌بندی آن داشت. بسیاری از سایت‌ها برای ظاهر شدن در رتبه‌های برتر گوگل، از پیوند اسپم استفاده می‌کردند. پیوند اسپم (spam link) یک ترفند سئو کلاه سیاه است هدف آن افزایش رتبه سایت با استفاده از دریافت لینک از سایر سایت‌ها (قالباً سایت‌های کم کیفیت) می‌باشد. این کار معمولاً با استفاده از نرم افزار انجام می‌شود؛ بنابراین پیوندهایی که با استفاده از این روش استفاده می‌شود، کیفیت پایینی دارند.

در سال 2012، گوگل رسماً الگوریتم پنگوئن را راه اندازی کرد؛ که به طور خاص هرزنامه‌ها و لینک‌های دستکاری شده را هدف قرار می‌داد.

الگوریتم پنگوئن فقط با لینک‌های دریافتی یک سایت سر و کار دارد. گوگل فقط به پیوندهای مربوط به سایت مورد نظر توجه می‌کند و به هیچ وجه به لینک‌های خروجی آن سایت نگاه نمی‌کند.

به طور کلی الگوریتم پنگوئن، با هدف مبارزه با تکنیک‌های اسپم زیر بوجود آمد:

  • متن لینک بیش از حد بهینه‌شده (over-optimized anchor text)

Anchor text همان متن دارای لینک است که کاربران برای دستیابی به سایت یا صفحه مرتبط، روی این متن کلیک می‌کنند.

سایتی را در نظر بگیرید که در صفحات آن، پیوندهای برای متن پیوند “طراحی سایت” در نظر گرفته شده است. وقتی گوگل متوجه شود که زیاد از حد از این کلمه برای لینک‌دهی استفاده می‌کنید، این موضوع را به عنوان اسپم در نظر می‌گیرد. در نتیجه شما را جریمه کرده و رتبه سایت شما ضعیفتر خواهد شد.

  • پیوندهای اسپم
  • انباشت کلمه کلیدی

الگوریتم پنگوئن

الگوریتم پنگوئن پیوندهای سایت را به صورت real-time ارزیابی می‌کند. این بدان معناست که فوراً تأثیرات لینک دهی سایت را می‌توانید مشاهده کنید.

3. مرغ مگس‌خوار

در سپتامبر 2013، گوگل اعلام کرد که یک ماه پیش الگوریتم جدیدی با نام “Hummingbird” یا مرغ مگس‌خوار را برپا کرده است؛ دلیل نام‌گذاری این الگوریتم به این نام این است که مرغ مگس‌خوار بسیار سریع و دقیق است.

الگوریتم مرغ مگس‌خوار به گوگل کمک می‌کند تا کلمات جستجو شده توسط کاربر را بهتر تفسیر کند و نتایجی را ارائه دهد که با خواسته کاربر مطابقت داشته باشد.

الگوریتم مرغ مگس خوار

در حالی که کلمات کلیدی همچنان مهم هستند، اما این الگوریتم باعث می‌شود حتی اگر کاربر کلمات دقیقی را وارد نکرده باشد، نتایج مورد نیاز برای او نمایش داده شوند. این امر به کمک پردازش زبان طبیعی حاصل می‌شود.

4. کبوتر

الگوریتم کبوتر گوگل بر اساس پارامتر‌هایی مانند موقعیت جغرافیایی و فاصله، نتایج نمایش داده شده برای کاربر را رتبه‌بندی می‌کند. برای مثال هنگامی که عبارت “هتل” را گوگل می‌کنید، مشاهده خواهید کرد که بر اساس شهری که هستید، بر روی نقشه گوگل هتل‌های اطراف شما نمایش داده می‌شوند. بنابراین الگوریتم کبوتر، به کسب‌و‌کار‌های محلی کمک شایانی می‌کند.

الگوریتم کبوتر

برای گرفتن نتیجه مطلوب از این الگوریتم، لازم است سئو داخلی و خارجی سایت خود را بهبود ببخشید.

5. ریسپانسیو (واکنش‌گرا) بودن سایت برای موبایل

الگوریتم تلفن همراه گوگل (با نام مستعار Mobilegeddon) تضمین می‌کند که صفحات سازگار با تلفن همراه یا به اصطلاح ریسپانسیو، در صدر جستجوی انجام شده در تلفن همراه قرار بگیرند و سایت‌هایی که ریسپانسیو نیستند برای کاربران تلفن همراه نمایش داده نشوند و در رتبه پایین‌تری قرار بگیرند.

 6. رنک برین

الگوریتم رنک برین (RankBrain) بخشی از الگوریتم مرغ مگس‌خوار است. این الگوریتم در حقیقت یک سیستم یادگیری ماشین است که به گوگل کمک می‌کند تا معنای دقیق جستجوی کاربر را درک کند و در پاسخ به آن، نتایج جستجوی متناسب را ارائه دهد.

گوگل RankBrain را سومین عامل مهم در رتبه‌بندی می‌نامد.

الگوریتم رنک برین

این الگوریتم نسبت به داشتن محتوای ضعیف و نامرتبط و تجربه کاربری نامناسب حساس است؛ بنابراین لازم است به کمک تحلیل رقابتی، صفحات خود را با استفاده از محتوای مرتبط و جامع بهینه کنید.

7. اوپاسوم

الگوریتم اوپاسوم تضمین می‌کند که نتایج محلی بسته به موقعیت مکانی جستجوگر، متفاوت است؛ به این معنی که هرچه به آدرس یک کسب و کار نزدیک‌تر باشید، احتمال بیشتری دارد که آن را در بین نتایج محلی مشاهده کنید.

الگوریتم اوپاسوم

الگوریتم اوپاسوم، یک الگوریتم نسبتاً جدید است که کار خود را در سال 2016 آغاز کرد. از آن جایی که این الگوریتم باعث رقابت شدید در محل کسب و کارتان می‌شود، لازم است که گستره کلمات کلیدی سایتتان را گسترش بدهید تا بتوانید رتبه خوبی کسب نمایید.

8. فِرِد

الگوریتم فرد، جدیدترین الگوریتم گوگل است و وب سایت‌هایی را هدف قرار می‌دهد که دستورالعمل‌های وبمستر گوگل را نقض می‌کنند.

اکثر سایت‌های تحت تأثیر این الگوریتم، وبلاگ با پست‌هایی بی‌کیفیت هستند که به نظر می‌رسد بیشتر به منظور ایجاد درآمد از طریق تبلیغات ایجاد می‌شوند.

الگوریتم fred برای سایت‌ها با محتوای بی‌ارزش، وابسته و تبلیغ محور، رتبه‌بندی ضعیفی در نظر می‌گیرد.

الگوریتم فرد
منبع عکس: https://www.seoblog.com/recover-googles-fred-update/

جمع بندی

در این مقاله به طور مفصل با 8 الگوریتم اصلی گوگل آشنا شدیم و دانستیم که هر یک در سئو یا بهینه‌سازی موتور جستجوی گوگل، چه نقشی را ایفا می‌کنند. امیدواریم با مطالعه این مقاله، بتوانید به درک درستی از الگوریتم های بهینه سازی گوگل برسید و بدانید که با رعایت قوانین گوگل، می‌توانید به طور اصولی سئو سایت را بهبود ببخشید.

مقالات تیم UxNet به صورت تخصصی تهیه و منتشر شده است. انتشار مطلب تنها با ذکر منبع (UXNet) بلامانع است.

چقدر این مطلب برات مفید بود؟
5/5 (9)
از این مقاله خوشت اومد؟ برای دوستات بفرست:

Uxnetمشاهده نوشته ها

Avatar for uxnet

با یوایکس نت هم اطلاعاتت رو بالا ببر و هم کسب و کارت رو ارتقا بده. طراحی سایت، سئو، طراحی رابط و تجربه کاربری، گرافیک سایت و شبکه‌های اجتماعی با مشاوره رایگان

اشتراک
اطلاع از
guest
5 نظرات
قدیمی‌ترین
جدیدترین بیشترین رأی
Inline Feedbacks
نمایش همه نظرات
محمد

مقاله کاملی بود ممنون از شما

پریسا

بجز این الگوریتم ها، الگوریتم های دیگری وجود نداره؟

مریم

ممنون از مقاله مفیدتون