مهمترین الگوریتم های گوگل برای سئو و بهینه سازی چیست؟

102
الگوریتم های گوگل جهت سئو کردن
زمان مطالعه: 9 دقیقه

با گذشت زمان و پیشرفته تر شدن جست و جو های کاربران موتور های جست و جو هم به طبع باید پیشرفته تر از قبل شوند. در همین راستا گوگل برای برتری خود نسبت به سایر رقبا هر ساله الگوریتم های بهینه و کاربردی تری معرفی می کند تا کاربر وب به راحتی به هدف خود در بستر وب برسد. الگوریتم های گوگل یا Google Algorithm مجموعه ای از قواعد و دستور العمل های منطقی در بستر وب برای بهینه سازی موتور جست و جو گر گوگل می باشند.

در این مقاله قصد داریم 11 تا از مهم ترین الگوریتم هایی را نام ببریم که یک متخصص سئو جهت بهینه سازی سایت های محول شده می بایست بداند. چراکه با دانستن اصول کار راحت تر می توان به سئو کردن پرداخت. در پایان هم اگر هر گونه سوالی برایتان مطرح شد و کنجکاو شدید در بخش دیدگاه ها برای ما کامنت بزارید.

 

 

1- الگوریتم کبوتر

الگوریتم کبوتر

این الگوریتم گوگل در سال 2014 به طور رسمی ارائه شد. اساس کار آن هم بدین گونه بود که با توجه به موقعیت جغرافیایی شخص جست و جو کننده(local searcher) نتایجی به او نشان دهد که بیشترین ارتباط را با مکان حال حاضر فرد داشته باشد. به طور مثال اگر در شهر مشهد قرار داشته بباشید و عبارت بهترین مرکز دندان پزشکی را جست و جو کنید، نتایجی به شما نشان داده می شود که به شما نزدیک تر است. حال اگر فردی در تهران این عبارت را جست و جو کند نتایج به دست آمده برایش با فردی که در مشهد همین عبارت را سرچ کرده است متفاوت است.

کبوتر را صدا کنید!

حالت اول به این صوت است که شما در مشهد هستید و عبارت دندان پزشکی در تبریز را سرچ می کنید.
حالت دوم هم اینجوریه که شما در مشهد هستید و عبارت دندان پزشکی را سرچ می کنید.

در هر دو حالت بالا الگوریتم کبوتر به سراغ شما آمده و بررسی میکند که مکان فعلی شما در کجا قرار دارد. شرط بعدی که بررسی می کند عبارت و یا بهتر بگوییم مکانی است که در عبارت جست و جو شده آمده است را بررسی می کند.

یکی از بزرگترین مزیت ها این بود که اوایل این نوع الگوریتم به مذاق کسب و کارها خصوصا کسب و کار های بزرگ خوش نیامد. چراکه با این روش شعاع و دامنه نتایج کوچک تر شده بود و حالا کسب و کار های کوچکی که در گوگل مپ ثبت شده بودند هم می توانستند خودی نشان دهند و این بهترین لطف گوگل به آن ها بود.

شاخصه های کمک از الگوریتم کبوتر جهت سئو چیست؟

  1. ثبت شدن کسب و کار در گوگل مپ
  2. گرفتن کامنت و فید بک مثبت در گوگل مپ
  3. اسکیما دار شدن صفحات سایت
  4. تولید کردن محتواهایی بر مبنای محل سایت خودمان

 

2- آپدیت الگوریتم شاهین(Google Hawk)

Google Hawk

در سال 2017 ارائه شد. اما به طور رسمی شاهین را گوگل تایید نکرد. اساس کار آن هم بدین صورت بود که کسب و کارهایی که در کنار کسب و کار های مشابه اما بزرگتر و برند تر قرار می گرفتند را هم نشان دهد. تا قبل از این الگوریتم فروشگاه ها یا استارتاپ هایی که به طور اشتراکی از یک مکان استفاده می کردند یا مغازه هایی که داخل یک پاساژ بودند و کسب و کارشان را در گوگل مپ ثبت می کردند توانایی نشان داده شدن توسط گوگل در نتایج جست و جو را نداشتند و بیشتر آن هایی به نمایش در می آمد که یا زودتر ثبت شده بدند یا اینکه نسبت به رقیبشان برند بودند.

علاوه بر این افرادی سودجو جهت آسیب زدن به رقیب خود  یکسری مکان های فیک برای رقیب در مپ گوگل ثبت می کردند تا گوگل نتواند به درستی مکان اصلی را به کاربر نشان دهد. از همین رو الگوریتم شاهین که به نوعی یک آپدیت بود تا یک الگوریتم جدا کمک کرد این مشکل را رفع کنند.

 

3- سیستم کافئین گوگل

گوگل کافئین

تاریخ ارائه سال 2010 بود جاییکه گوگل برای اولین بار به طور رسمی از تمامیه متخصصان سئو درخواست کرد این سیستم را بررسی کنند و نقاط ضعف آن را ارائه دهند. یکی از نکات مهم در مورد کافئین این است که اصلا مبنای آن الگوریتم و یا آپدیت خاصی نیست. در واقعا یک سیستم ایندکس کرن و کراول جدید نسبت به نمونه های مشابه قبلی می باشد. تا قبل از کافئین سیستم ایندکس محتوا یک فرآیند طولانی و زمان بری بود. به طور مثال هر یک ماه تمامیه سایت ها بررسی میشد. حال ممکن بود سایتی در این بازه محتوایی جهت ایندکس شدن منتشر نمی کررد و یا ممکن بود سایتی 20 تا محتوا تولید می کرد اما تا رسیدن به 30 روز هیچ کدامشان ایندکس نمی شد و از رقیبان خود ممکن بود به شدت عقب بیوفتد.اما کافئین با آمدنش یک انقلاب بزرگ را در این زمینه به وجود آورد و سرعت ایندکس شدن محتوا به شدت افزایش یافت.

مزایا سیستم کافئین گوگل چه بود؟

  1. افزایش سرعت و دقت
  2. افزایش ذخیره سازی اطلاعات صفحات سایت ها
  3. ایندکس محتواهای متنی و غیر متنی
  4. عدم تاثیر گذاری منفی روی سایت ها در زمان ارائه

چگونه مورد رحمت کافئین قرار بگیریم؟

به طور کل دستور العمل خاصی مطرح نشده اما چیزی که مشخص است جهت ایندکس بهتر باید محتوای با کیفیتی تولید کنیم تا هم نرخ پرسش کمتری داشته باشیم و هم بتوانیم با کمک افزایش کلیک و تجربه کاربری بهتر به سئو سایتمان کمک کنیم و خودمان را به الگوریتم های گوگل ثابت کنیم.

 

4- جعبه شنی

به گفته جان مولر چیزی به اسم الگوریتم جعبه شنی یا همان Google SandBox نداریم. اما طبق گزارشات و مشاهدات متخصصین سئو زمانی که سایتی تازه متولد می شود و محتوا داخلش قرار می گیرد تقریبا تا 3 الی 4 ماه حتی بیشتر هیچ مطلبی از آن در نتایج گوگل رتبه نمی گیرد. دلیل آن  هم این است این گونه بیان کردند که تا گوگل به شما اعتماد نکند اجازه ایندکس شدن را نمی دهد. دلیلش هم کاملا منطقی است. تصور کنید در هر ساعت اگر به طور تقریبی 500 سایت متولد شوند، روزانه سایت های بسیار زیادی در بستر وب به وجود می آیند. حال اگر قرار باشد همه آن ها از همان اوایل رتبه بگیرند و اگر این سایت ها عمر کوتاهی داشته باشند یا اسپم و تبلیغاتی باشند کاربران را به شدت آزار می دهد.

به طور کلی یک سایت فقط یک مرتبه داخل این الگوریتم قرار می گیرد و تا وقتی هدفش از سایت زدن را با محتوای با کیفیت، با دوام، ترافیک ارگانیک و … نشان ندهد همچنان رتبه خاص و قابل توجه ای را نخواهد داشت.

 

5- رفتار هانی مون

این حالت ممکن است برای صفحات تازه منتشر شده بارها اتفاق بیوفتد. اصول کار آن هم بدین صورت است که گوگل بر اساس یکسری معیارها صفحات تازه انتشار شده را به نتایج اول آورده و آن ها را تست می کند. در صورتی که کلیک زیاد، نرخ پرش کمتر و بانس ریت کمتری داشته باشند در همان رنک های برتر قرار می گیرند اما اگر مورد استقبال کاربران قرار نگیرند به همان رتبه قبل و بلکهم بیشتر افت می کند. تقریبا بعد از 24 ساعت از انتشار مطلب به مدت یک هفته یا کمتر هانی مون یا ماه عسل گوگل عملی می شود.

 

6- گوگل دنس(Google Dance)

google dance

یکی دیگر از الگورتم های منتسب به گوگل که رسمی هم نیست گوگل دنس است. یکی از شوم ترین ها!

بطوری که در اوایل کار انقلاب بزرگی در نتایج گوگل پدید آمد. این طور می توان گفت که گوگل دنس فقط وظیفه بالا و پایین کردن رنک مطالب ربتبه گرفته در گوگل را دارد و بررسی و تست آن ها توسط سایر الگوریتم ها انجام میشود.  اما امروزه که ایندکس کردن برای گوگل راحت تر شده، نسبت به اوایل تغییرات ناگهانی به شدت کمتر شده و تاثیر آن بر سایت ها کاهش یافته است.

 

مطالب مرتبط زیر را هم مطالعه فرمائید.

 

7-آپدیت الگوریتمی گوگل فرد

fred google algorithm

سال 2015 برای مقابله با سایت هایی که محتوای تبلیغاتی زیاد و بی کیفیت داشتند ارائه شد. مسئولان گوگل اطلاعات زیادی در مورد نحوه عملکرد آن ندادند. طبیعی هم بود چراکه دلیلی نداشت با گفتن اصول کار این پالس را به سئو کاران کلاه سیاه بدهد که از نقاط ضعف این الگوریتم سو استفاده کنند.

گوگل فرد روی کدام نوع سایت ها حساس است؟

  1. سایت ها با محتوای بی کیفیت و تبلیغاتی
  2. داشتن تبلیغات زیاد نسبت به مطالب مفید
  3. تجربه کاربری اذیت کنند برای کاربران بازدید کننده
  4. دریافت بک لینک از سایت های بی اعتباری چون سایت های مزرعه لینک

نکته: گوگل هیچ وقت مانع درامد زایی وب مستران از طریق تبلیغات نبوده است بلکه از این روش هم استقبال می کند اما زیاده روی در این کار باعث جریمه شدن سایت خاطی خواهد شد.

 

8- آپدیت الگوریتم دزد دریایی

Google Pirate Algorithm

دزدی محتوا و کپی کردن آن ممکن است خون هر فردی را به جوش آورد. محتوا نویس پس از زحمات زیاد در تولید یک مقاله با کیفیت پس از انتشار و قبل از ایندکس شدن محتوای به وسیله گوگل در معرض سرقت ادبی قرار خواهد گرفت. برای مقابله با این تکنیک منفی در 2012 به طور رسمی الگوریتم دزد دریایی معرفی شد که تمرکز کارش بر روی گزارشات رسیده از کاربران از طریق DMCA بود.از اهمیت این موضوع همین بس که تمامیه این گزارشات به وسیله نیری انسانی گوگل چک می شود و دیگر خبری از ربات ها نیست.

آیا هر نوع گزارشی از طریق DMCA بررسی می شود؟

در پاسخ باید گفت آن ها بر روی عبارت هایی مثل عرضه رایگان، فروش رایگان، دانلود فلان نرم افزار به همراه کرک و… بسیار حساس بوده و روی این موضوعات تمرکز بیشتری دارد.

شاید بیان این نکته خالی از لطف نباشد که در وب سایت های انگلیسی به شدت قانون کپی رایت بر خلاف ایران دنبال می شود و سایت های خطاکار به شدت تنبیه می شوند. اما چرا در وب فارسی به راحتی می توان فیلم های خارجی را دانلود کرد یا به عبارتی دزد دریایی در وب فارسی کمتر تاثیر گذاشته است؟

به این دلیل که نیاز کاربر حتی از قانون کپی رایت هم مهم تر است. اگر کاربری نتواند با موتور قدرت مند گوگل نیازش را رفع کند قطعا به سراغ موتور جست و جوی دیگیری چون Bing و یاهو خواهدرفت و این برای آن ها جالب نیست. در نتیجه زیاد در فارسی این الگوریتم سایتی را تحت تاثیر قرار نداده است.

 

9- الگوریتم مرغ مگس خوار (HUMMINGBIRD)

HUMMINGBIRD

بروزرسانی کامل نسخه الگوریتم گوگل!

امروزه شما به راحتی می توانید هر نوع عبارت که املای یکسان ولی معنای متفاوتی را دارند سرچ کنید و نتیجه مورد انتظار خود را دریافت کنید. مثلا وقتی عبارت شیر پاکتی را سرچ کنید موتور جست و جو منظور شما را می فهمد و تشخیص می دهد که منظور شما شیر جنگل نیست. در سال 2013 که نیمی از سایت ها اسپم و تبلیغاتی شده بودند و کلمات کلیدی خود را بیش از اندازه در مطالب خود بکار برده بودند گوگل با ارائه این بروزرسانی حکم مرگ سایت های اسپم را صادر کرد.

روش کار به این صورت است که از طریق LSI هم و قرابت معنایی عبارت و کلمات قبل و بعد از کلمه کلیدی سرچ شده، نتایج مورد انتظار کاربر به او نشان داده می شد.

مزایای مرغ مگس خوار چیست؟

  1. بیشترین تاثیر بر محتوا و فیلتر با کیفیت ها از بی کیفیت ها
  2. بهبود به تجربه جست و جوی صوتی
  3. کمک و همکاری بهینه با رنک برین

 

10- الگوریتم گوگل برت(Google Bert)

Bert

گوگل برت یکی دیگر از الگوریتم های هوش مصنوعی است که در 2019 معرفی به طور رسمی معرفی شد. امروزه جست و جو کاربران عجولانه تر شده است. به همین نسبت هم توقع گرفتن بهترین نتایج را از موتور جست و جو دارند. در نتیجه به زبان محاوره ای و گفتاری سرچ خود را انجام می دهند. به همین دلیل متخصصین گوگل بر آن شدند تا الگوریتمی را ارائه دهند که بتواند هم عبارات سوالی و هم لانگ تیل ها را به راحتی به کاربر نشان دهند. هدف اصلی گوگل برت هم همین بود.

مزایا

  1. درک بهتر سرچ های صوتی که کاربر به زبان گفتار انجام می داد
  2. درک کلمات مشابه با استفاده از عبارات قبل و بعد از آن
  3. فهمیدن کلمات اشتباه وارد شده و اصلاح غلط املائی
  4. درک NLP یا همان پردازش طبیعی زبان که توانایی حدس کلمات بعدی را داشت
  5. پشتیبانی بیشاز 70 زبان دنیا
  6. تاثیر گذاری روی تقریابا 10 درصد از نتایج در زمان ارائه

 

11- الگوریتم پاندا(Panda)

الگوریتم پاندا

می توان به جرئت ادا کرد عامل برتری گوگل نسبت به رقیبان قدر خود چون بینگ الگوریتم پاندا است. زمانی که سایت های اسپم و تبلیغاتی مثل علف هرز زیاد شده بودند و کاربر برای رسیدن به نیازش مجبور بود دست کم تمامیه 10 نتیجه اول را باز کند تا بالاخره یکی مطلب مورد نیازش را داشته باشد و بتواند از محتوای سایت های تبلیغاتی به سلامت عبور کند، انتقادات زیادی به این نحوه تصمیم گیری گوگل شد. به نحوی که شاهد کوچ کاربرانش به سایر موتور های جستو جو شده بود و این زنگ خطر بزرگی برای مجموعه گوگل بود.

اینجا بود که الگوریتم پاندا با هدف حذف وب سایت ها و صفحات با محتوای کوتاه، کم ارزش، و کپی ارائه شد.

جامعه هدف الگوریتم پاندا چه سایت هایی بود؟

  1. مزرعه محتوا
  2. تبلیقات فراوان
  3. تعداد کلمات متن
  4. کپی محتوا
  5. نکات نگارشی
  6. تجربه کاربری بد
  7. شکایت کاربران
  8. کیفیت پایین محتوا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.