الگوریتمهای سئو گوگل ۲۰۲۲
هدف گوگل اینه که وبسایتهایی که محتوا، سئو داخلی و سئو محتوای بهتری دارن رو در رتبه بهتری نمایش بده. گوگل دنبال وبسایتهای بهتر، جامعتر، مفیدتر با محتوای یونیک میگرده. واسه همین مدام هستهی الگوریتم رو ابدیت میکنه و بعضا الگوریتمهای جدیدی هم اضافه میکنه.
البته گاهی وقتا هم از این الگوریتمها سواستفاده میشه و سئو کلاه سیاه تولید میشه!! که گوگل مجبوره واسه مقابله با سئو کلاه سیاه و غیراخلاقی، الگوریتمهای جدیدی اضافه کنه و خب این جنگ همیشه ادامه داره!! ما تو این مقاله قصد داریم، صفر تا صد الگوریتمهای گوگل رو توضیح بدیم و نکاتی که میتونه در سئو وبسایت شما تاثیرگذار باشه رو به صورت اختصاصی اعلام کنیم.
البته هیچکس جز خود گوگل نمیتونه ادعا کنه، که نحوهی عملکرد الگوریتمها و درصد تاثیرگذاری اونها رو در سئو رتبه بندی نتایج میدونه!! همون طور که میدونید گوگل یک ابرکامپیوتر ۲۴ سالس، که سالهای سال، توسط ادمهای متفاوت برنامه نویسی و بروزرسانی میشه. یعنی ی ربات پیر که پله پله، توسط برنامه نویسا و فعالان حوزهی ای تی به دانش و تکنولوژیش اضافه میشه و درک کردنش توسط ی ادم غیرممکنه.
لیست الگوریتمهای گوگل
بهروزرسانیها و الگوریتمهای کوچک و بی اهمیت، که به صورت روزانه در گوگل اجرا میشن، تاثیر زیادی داخل سئو رتبهبندی نتایج نداره و شاید اصلا متوجه اونا نشین. اما ی سری از الگوریتمها هستند که با فاصلهی سالانه اضافه میشن که بعضی وقتها سئو رتبه بندی سایتها رو زیرو رو میکنند. این الگوریتمها به قدری مهم اند که گوگل معرفی ابدیت جدید الگوریتم رو اعلام می کنه و حتی براش اسم انتخاب میکنه. چون گوگل بیشتر از اسم حیوانات برای این الگوریتمها استفاده میکنه، به اون باغ وحش گوگل میگن!! ابتدا لیستی از این الگوریتمها براتون اماده کردیم و در ادامه مهمترین اونارو براتون ارزیابی و تحلیل میکنیم.
- الگوریتم هیلتاپ
- الگوریتم jagger
- الگوریتم پدربزرگ
- الگوریم فلوریدا
- الگوریتم وینس
- الگوریتم پیج رنک
- الگوریتم رقص گوگل
- سندباکس گوگل
- الگوریتم پاندا
- الگوریتم کافئین
- الگوریتم تازگی محتوا
- الگوریتم ونیز
- الگوریتم دزد دریایی
- الگوریتم پنگوئن
- الگوریتم EMD
- الگوریتم Page Layout
- الگوریتم گورخر
- الگوریتم مرغ مگس خوار
- الگوریتم موبایل گدون
- الگوریتم کبوتر
- الگوریتم E-A-T
- الگوریتم رنک برین
- الگوریتم موش کور
- الگوریتم مدیک یا طبی
- الگوریتم MUM
- الگوریتم فِرد
- الگوریتم برت
- الگوریتم موبایل فرست ایندکس
- الگوریتم Fall Flux
- الگوریتم Maccabees
- الگوریتم اصلی
مهمترین الگوریتمهای گوگل
همونطور که گفتیم هستهی الگوریتم نتایج گوگل، پله پله شکل گرفته و واسه درک کردن الگوریتمهاش باید از پلههای اول شروع کرد، ما هم تصیم گرفتیم داستان گوگل رو از الگوریتمهای اولیه شروع کنیم. چون این الگوریتمها مدام در حال تغییرند ما هم این برگه رو مجبوریم، مدام بروزرسانی کنیم. پس سعی کنید این برگه رو bookmark کنید و داشته باشید. با ما همراه باشید.
الگوریتم وینسنت Vincent
با توجه به این که گوگل، همون اول با الگوریتم و کد شروع شده، معرفی اولین الگوریتم گوگل کار خنده داریه. در واقع گوگل خودش نوعی الگوریتمه!! اما اولین الگوریتمی که به صورت رسمی توسط گوگل معرفی شد، الگوریتم وینسنت Vincentبود. این الگوریتم از سال ۲۰۰۳ روی هستهی گوگل قرار گرفت و روی کلمات کلیدی تاکید داشت. اگه دوست دارید بدونید کلمات کلیدی چیه، مقالهی تیم ویستا وب درمورد کلمات کلیدی و LSI روی بخونید. صادقانه اطلاعات زیادی راجب این الگوریتم و نحوه ی کارش نیست وشما هم به این که اولین بوده، اکتفا کنید.
الگوریتم بالای تپه Hilltop
میگن بعضی وقتا ی دیوونه، ی سنگ مینداره تو چاه، هزارتا عاقل نمی تونن بیارن بیرون. اینم ازون الگوریتمهای گوگل بود که خیلی دردسر واسش درست کرد. احتمالا تا حالا اصطلاح لینک اسپم و مزرعهی لینک و فروش لینک و .. رو شنیدید!! و از خودتون پرسیدید، این همه لینکسازی واسه چیه؟
سال ۲۰۰۳ گوگل الگوریتم بالای تپه یا hilltop رو معرفی کرد. هدفش چی بود؟ کاربرای گوگل همیشه دنبال اطلاعات طبقه بندی شده، تخصصی و مرجع می گردن. ولی خوب هر ادمی از راه میرسه، شروع میکنه به تولید محتوا و مشخص نیست که محتوای تولیدی چه قدر اعتبار داره.
حالا گوگل با هدف شناسایی وبسایتهایی که محتوای تخصصی و مرجع دارن و به قول خودش بالای تپهان، این الگوریتم رو معرفی کرد. حالا این الگوریتم چیکار میکنه؟ میاد وبسایتهایی، که تعداد زیادی وب سایت دیگه به اونا لینک دهی می کنن رو شناسایی می کنه. احتمالا وبسایتهایی که بیشتر به اونا لینکدهی میشه، معتبرتر و مرجعترن . بعدش میاد محتواشون رو بررسی میکنه و اگه محتوا اکی بود، اونارو می بره بالای تپه. یعنی نتایج اولیه گوگل!! وب سایتهایی مثل Wikipedia، ehow ، yahoo همینطور به بالای تپهی گوگل رفتن.
سئو محتوا با استفاده از الگوریتم بالای تپه
خوب اینا که همش حرفه!! ازاین الگوریتم چه جوری استفاده کنیم. با توجه به الگوریتم بالای تپه، یکی از مهمترین فاکتورهای سئو،لینک سازیه . براساس این لینکها، نتایج جستوجو زیاد بالا و پایین میشه. خوب دقت کنید <بالا و پایین>. یعنی لینکسازی بد میتونه، رتبهی شمارو پایین بیاره. لینکسازی باید صحیح و اصولی باشه.
در واقع گوگل دوست نداره، شما با سایت a زدوبند کنید تا لینک محتواتون رو بذاره. دوست داره محتوای شما اونقد خوب باشه که سایت a بهش واقعی ارجاع بده. که البته الگوریتمهای سفت و سختی هم واسه شناسایی لینکهای اسپم داره. حالا چندتا نکته از لینکسازیها که احتمالا بدرتون بخوره را اینجا توضیح دادیم. اگه میخوایین صفر تا صد لینک سازی رو یاد بگیرید، مقالهی لینکسازی مارو بخونید.
به لینکهایی که توی وبسایتهای دیگه برای محتوای شما ایجاد میشه، بک لینک (Backlink) میگن. مثلا شمایی که دارین این مقاله رو می خونین، وبسایت a رو دارین و من داخل ویستاوب ی لینک واسه وبسایت a میسازم و اینجوری شما ی بک لینک داخل سایت ما دارید و کلی واسه خودتون تو گوگل اعتبار پیدا میکنید.
بعضی سایتها مقداری پول میگیرن و لینک شمارو میزارن که بهش میگن رپرتاژ. البته بعضیها مثل اینستاگرام، بعضیها تعامل می کنن و ادرس وبسایتهای همو به صورت دو طرفه میزارن. که کار اشتباهیه و گوگل میفهمه!
الگوریتم جعبه ماسه Sand Box
الگوریتم سند باکس هیچوقت از سمت گوگل به صورت رسمی معرفی نشده. اصن همین که اسمش حیوون نیست، معلومه گوگل نامگذاریش نکرده!!! سال ۲۰۰۴، سئوکارا و وبمسترها متوجه شدند، که وبسایتهایی که تازه شروع به کار کردن، حداقل تا چندماه تو نتایج گوگل بالا نمیان. ولی تو bing و yahoo، نتایج بر اساس تاریخ انتشار رتبه بندی میشن و مهم نیست ی وبسایت انتشاردهنده تازهکاره یا قدیمی.
حالا یعنی چی؟ مثلا ی وبسایت تازهکار شروع می کنه به تولید محتوا، سئو محتوا و سئو داخلی. تموم تلاششو میکنه که محتوای با کیفیت و یونیک تولید کنه. ولی تا پنج، شش ماه وبسایتش با هر کیفیتی داخل پنج صفحهی اول نتایج جستوجو گوگل قرار نمی گیره!! گوگل نمیخواست وبسایتهای تازهکار کنار وبسایتهای قدیمی قرار بگیرن. یعنی به وبسایتهای قدیمی که قبلا خودشونو اثبات کردن، اعتماد می کرد و وبسایتهای تازه کار رو عقب نگه میداشت، تا خودشون رو ثابت کنن.
ی جوری مثل جعبه ی ماسه. ماسهها رو الک میکنن ،اون ریزارو میفرستن پایین و درشتا بالا می مونن. الگوریتم سندباکس نوعی الگوریتم فیلتره و راهکاری برای استفاده ازش نیست و فقط سابقهی کار یک وبسایت براش مهمه و خوشبختانه سایت ویستاوب بیست سال داخل گوگل ریشه داره!!
الگوریتم به روز رسانی
خوب تا قبل سال ۲۰۰۵، وقتی تو گوکل دنبال ی محتوا می گشتین، احتمال اینکه بخورین به اطلاعات تاریخ گذشته و قدیمی خیلی بود. مثلا اگه میخواستین ببینین دوس دختر جاستین بیبر کیه، وقتی سرچ می کردید: دوس دختر جاستین بیبر، گوگل دوس دختر پنج سال پیشه، جاستین بیبر رواول بالا میوورد. دلیلش هم این بود که گوگل تو الگوریتمهاش به بروز بودن محتوا توجهی نمی کرد و برای رتبه بندی سئو به فاکتورهای دیگهای اهمیت میداد. البته واسه ایران که همه پنجاه سال با ی نفر میمونن، کاربردی بود ولی واسه غرب کافر، که سالانه و گاها روزانه، تجدید فراش میکنن، کاربردی نداشت.
گوگل برای حل این مشکل الگوریتم به روزرسانی رو معرفی کرد. رباتهای گوگل مدام محتواهای شما رو خزش می کنن . اگه محتوای شما بروزرسانی نشه و ی گوشه ی وبسایتتون خاک بخوره، گوگل بهش نمرهی پایینتری میده. واسه همین توصیه میکنم، محتواهای وب سایت خودتون رو هر چند وقت ی بار، حتی در حد اضافه کردن ی عکس، بروزرسانی کنید.
الگوریتم کافئین
همونطور که گفتیم، الگوریتم سطل ماسه یا sendboxسعی میکرد وبسایتهای قدیمی رو بالا نگه داره و به قولی هوای مشتریهای قدیمی رو داشته باشه. خوب حالا چه اتفاقی میفتاد این وسط؟ وبسایتهای قدیمی و رها شده، تو رتبه بندی نتایج از سایتهای تازه کار و با کیفیت، بالاتر قرار می گرفتن و منجر می شد به اینکه محتواهای قدیمی تر برسه دست مخاطب!!
رباتهای گوگل وقتی وبسایتهارو خزش و ایندکس میکردن، توجه زیادی به قدمت محتوای اونها نمی کردن. دقت کنید دوستان!! به قدمت محتواش توجه نمی کردن ولی قدمت خود وبسایت خیلی مهم بود. گوکل سال ۲۰۱۰ با بارگذاری الگوریتم کافئین، سعی کرد روند رباتهای خودشو عوض کنه. یعنی سرعت و حجم مطالبی که رباتها میخوندن رو بالا برد تا بتونن محتوای تولیدی رو با سرعت بیشتری بخونن و در نتیجه تغییراتی که وبسایتها روی محتواشون انجام میدادن با سرعت بیشتری به دست کاربرا برسه.
و درنهایت وبسایتها با اطلاعت قدیمی پایینتر قرار می گرفتن و وبسایتهایی که محتوای تازه منتشر میکردن در رتبهبندی بهتری قرار میگرفتن.
باغ وحش الگوریتمهای گوگل
اونطور که محتواهای اونور میگن، موثرترین الگوریتمهای گوگل، از سال ۲۰۱۰ به اینور روی هسته ی الگوریتم گوگل بارگذاری شده و اونا فعلا تاثیر زیادی تو رتبه بندی سئو دارن و بیشتر باید به اونا توجه کرد. اصلا باغ وحش الگوریتمهای گوگل از سال ۲۰۱۰ شکل گرفت. ما هم تو این پست سعی کردیم مهمترین الگوریتمهای گوگل رو به صورت اختصاصی تحلیل و انالیز کنیم، پس همراهمون باشین.
۱-الگوریتم پاندا
تا قبل از سال ۲۰۱۰ الگوریتمهای انتشاریافتهی گوگل نتوسته بودن، رضایت کاربرای اینترنت رو جلب کنن. نتایج گوگل پر بود از محتواهای کوتاه، کلمات کلیدی بدون جمله بندی، تبلیغات نامرتبط، پاپ آپ های آزار دهنده و…واقعا ی جوری شده بود، هیچکس واسه ساختن ی وبسایت بدردبخور، ی ثانیه هم وقت نمی ذاشت. صفحههایی با طراحی و گرافیک ضعیف که پربودن از محتواهای بدرد نخور.
مفهوم مزرعه ی محتوا هم تو این سالها شکل گرفت. مدیرای سایت، توی وبسایتهاشون، محتوای بی کیفیت و به تعداد زیاد منتشر میکردن و وقتی وبسایت تو رتبه بندی سئو نتایج جستوجو بالا میومد، شروع می کردن به لینک سازیهای مخرب. تا اینکه گوگل واسه نجات خودش اولین الگوریتم باغ وحش رو معرفی کرد. الگوریتم پاندا!!
الگوریتم پاندا به سئو فنی و تکنیکال کاری نداره و هدف اصلیش محتواهای انتشار یافته است. پاندا تلاش می کنه، محتوای با کیفیت رو از محتوای تکراری یا بیارزش تشخیص بده. برای این کارم فاکتورهای زیادی داره. پاندا ی الگوریتم دو جانبه است، یعنی چی؟
- سعی می کنه، محتواهای بی کیفیت، محتواهایی که مطلب جدیدی به گوگل اضافه نمی کنن یا ارزش افزودهی پایینی دارن، محتواهایی که از سایتهای دیگه کپی میشن و همچنین وبسایتهایی که محتوای خودشون رو مدام تکرار می کنن رو شناسایی کنه و در رتبهبندی سئو به اونا امتیاز پایینتری بده.
- پاندا سعی میکنه، وبسایتهایی که محتوای یونیک، باکیفیت، مفید و علمی رو استفاده می کنن در رتبه بندی سئو به اونا امتیاز بالاتری بده.
گوگل اولین بروزرسانی الگوریتم پاندارو سال ۲۰۱۱ منتشر کرد والبته نتایج رو هم دستخوش تغییر کرد، این الگوریتم ۱۱.۸ نتایج جستوجوی گوگل رو عوض کرد. خیلی از وبسایتها ریزش کردن. دلایلی که باعث پایین اومدن رتبهی سایتها اونموقع منتشر شد رو براتون اماده کردیم :
- گرافیک، طراحی یا شکل ظاهری
- استفاده از عنوانبندی، تگهای هدر، لیست و فهرست
- تبلیغات آزاردهنده و بی ربط
- چگالی زیاد کلمات کلیدی
- رعایت نکردن نکات نگارشی و دستورزبانی (البته منظور این نیس که این الگوریتم، به ادبیات فارسی مسلطه!! نه، اون موقع اونقدر اوضاع نوشتن داغون بود، که اصلا جمله بندی خاصی هم ملت استفاده نمی کردن، چندتا کلمهی کلیدی روانی وارمیذاشتن داخل محتوا. گوگل هم با این الگوریتم گفت: تنبلا حداقل ی چیزی بنویسن!)
- استفاده از عبارات و جملات تکراری در محتوا
- پایین بودن ارزش فنی و علمی محتو
سئو محتوا با الگوریتم پاندا
اما با انتشار این الگوریتم، باز هم مشکل گوگل به طور کلی حل نشد. امان از ادمهای تنبل و سواستفاده گر!! در شروع فعالیت پاندا برخی از وبسایتهای جریمه شده، محتواهایی که در موتور جستوجو شبیه هم بودنو پیدا میکردن و از هرکدوم ی قسمتی داخل محتوای خودشون میذاشتن و نهایتا ی محتوای جدید تولید میکردن. بعدشم با ویرایش محتوا و ساختار رتبه بندی خودشون رو بهبود میدادن. که گوگل مجبور شد این الگوریتم رو بروزرسانی کنه، تعدادی از عوامل تاثیر گذار رو براتون فهرست کردیم.
- اعتبار محتوا
- جذابیت صفحه
- تبلیغات ازاردهنده
- منابع و مراجع اطلاعات
- محتوای تکراری
- کلمات کلیدی تکراری
- ایا این وبسایت در حفظ اطلاعات کاربری مطمئن است.
- مشکلات نگارشی، ویرایشی
- محتوایی بر اساس نیاز کاربران، نه کسب رتبه در موتورهای جستجو
- ارزش افزوده ی مطلب (چیزی به گوگل اضافه میکنه یا نه)
- تنوع و کامل بودن محتوا
- تخصص و تسلط نویسنده بر محتوا
- تولید محتوای زیاد و بی کیفیت
- ویرایش و ساختاربندی محتوا
- توضیح کامل و مفهومی در مورد موضوع
- تحلیلهای منطقی و اطلاعات جذاب و جالب
- نشانهگذاری کنید و اشتراک گذاری (Social Signal)
- محتوای کوتاه و غیرکاربردی (Thin Content)
- حساسیت به جزئیات و توجه کافی
- رضایت و احساس کاربران
سخن پایانی در مورد الگوریتم پاندا
دوستان، طرز کار الگوریتمهای گوگل خیلی مشخص نیست. احتمالا هر الگوریتم به صورت مجزا یا تلفیقی محتوای شمارو بررسی می کنه و نمره ای مثبت یا منفی به محتوای شما میده و در نهایت گوگل با میانگینگیری این نمرات به شما در سئو نتیجهی محتوا رتبه میده. اینکه بدونیم پاندا مارو جریمه کرده یا نه عملا غیر ممکنه!! تنها راهی که من متوجه شدم اینه که به پنل سرچ کنسول سایتتون برید و نگاهی به ورودی سایت بندازید، اگه تو بازه ی شش ماههف افت شدیدی تو ترافیک سایت داشتید، احتمالا پاندا شمارو جریمه کرده.
۲-الگوریتم پنگوئن
خوب تا اینجا مشکل محتواهای کپی و بی کیفیت تا حدودی حل شد. ولی خوب ذات بد نیکو نگردد چون ک بنیانش بد است!! وبمسترها و مدیران سایت برای اینکه بتونن وبسایتهارو اسانسوری و میانبر بیارن بالا، دنبال ی راهحل ساده می گشتن و البته ی راه کمدردسر و راحتترهم پیدا کردن، الگوریتم بالای تپه Hilltop.
تو قسمت الگوریتم بالای تپه توضیح دادیم، که اگه سایتهایی که رنک خوبی دارن به پیج شما لینک بدن و اصطلاحا بکلینک بسازن، تو رتبهی سئو سایت شما تاثیرگذاره. حالا صاحبان وب سایتها شروع کردن به لینکسازیهای مخرب، البته اونموقعها نه تنها مخرب نبود، خیلی هم سازنده بود!! ازون به بعد سایتها به جای محتواهای کپی و بی ارزش پرشدن از فروش لینک بر اساس پیجرنک، تبادل لینک، مزرعهی لینک.(عجب بابا عجب)
با این اتفاق بازهم رضایت کاربرها از نتایج جستوجو گوگل کاهش پیدا کرد، تا اینکه الگوریتم پنگوئن متولد شد. الگوریتم پنگوئن سال ۲۰۱۲ به صورت رسمی توسط گوگل معرفی شد. هدف این الگوریتم، مبارزه با لینکسازی های غیرطبیعی و اسپم بود. این الگوریتم تو بازههای زمانی مشخص، به وبسایتها سرمیزنه ولینکهای استفاده شده رو بررسی میکنه و اگه لینکسازیهای اسپم و کلا روشهای اسپم و غیرطبیعی واسه بالا بردن رتبهبندی سئو سایت ببینه، سایت رو جریمه می کنه. میشه گفت پنگوئن ی الگوریتم برای مقابله با سئو کلاه سیاهه.
نکات مهم الگوریتم پنگوئن
تو اخرین ابدیتی که سال ۲۰۱۶ از پنگوئن منتشر شد، بروزرسانی الگوریتم پنگوئن رسما به هسته اصلی الگوریتم گوگل اضافه شد. البته سازوکار پنگوئن عوض نشده ولی سعی میکنه به جای جریمهی سایتهای خاطی به بیاثر کردن لینکهای کم اعتبار و بیاعتبار کفایت کنه.
اگه شما هم لینکسازیهای مخرب و اسپم دارین و میخوایین از شرشون خلاص بشین از طریق ابزار Disavow در پنل گوگل سرچ کنسول این کاررو انجام بدین.
با اینکه روش بالا، لینکسازیهای مخرب شمارو بی اثر میکنه ولی برای بخشش توسط گوگل و بالا اومدن در نتایج گوگل باید صبر کنید و هزینه!
یکی از مشکلات بزرگ disavow اینه که، شما نمی تونین متوجه بشین، کدوم لینکها با ارزشن و باعث بهبود رتبهی سئو شما میشن و کدوم لینکها اسپم و مخربن. پس باید همه رو با هم پاک کنید و این یعنی ی باخت درست و حسابی.
۳-الگوریتم مرغ مگسخوار (humming bird)
شاید انقلاب گوگل تو هوش مصنوعی با الگوریتم مرغ مگس خوار شروع شد. قبل از از سال ۲۰۱۳ وقتی عبارت شیر مادر رو داخل گوگل سرچ می کردید، گوگل محتواهایی که شیر جنگل هم داخلش بودو در نتایج می اورد. یعنی مبنای سرچ موتور جستو جوی گوگل کلمات کلیدی بود و به ارتباطی که بین اونا بود، توجهی نمی کرد.
با معرفی الگوریتم مرغ مگسخوار این روند عوض شد. ازین به بعد گوگل سعی کرد مبنای جستوجوی خودش رو عبارات قرار بده. اگه بخواییم ریشهای تر بگیم. مثلا اگه شما عبارت شیرمادر رو سرچ می کردید، گوگل سعی میکرد محتواهایی که عبارت شیر مادر داخلشه رو تو نتایج نمایش بده نه محتواهایی که کلمهی شیر و مادر داخلشه ینی سعی می کرد دنبال عبارت بگرده نه کلمهها!
و بعد گوگل محتواهای شبیه به هم رو خزش میکرد و سعی کرد عبارات هم خانواده رو تو دیتا بیسش ثبت کنه، تا بتونه بیشتر درک کنه کدوم کلمات بیشتر با هم در ارتباطن، مثلا قبل از سال ۲۰۱۳ شما اگه می خواستین بدونین سن جنتی چنده؟ باید عبارت سن جنتی چه قدر است؟ رو سرچ می کردید، تا گوگل محتوایی که همچنین عبارتی داخلش هست رو پیدا کنه و براتون بیاره!!ز
ولی هوش مصنوعی مرغ مگس خوار سرعت و دقت بالایی داشت. شما کافیه عبارت سن جنتی رو سرچ کنید، این الگوریتم دقیقا مفهوم این عبارت رو می فهمه و با ی عدد کارتون رو راه میندازه. یعنی گوگل دیگه دنبال کلمات کلیدی نبود، اون با خزش کلمههایی همخانواده و هممفهوم سعی می کرد، مفهوم عبارات رو بیشتر بفهمه. کم کم اطلاعات و دیتابیس این الگوریتم افزایش پیدا کرد و گراف دانش گوگل شکل گرفت. وقتی شما ی عبارت کلیدی در موتور جستوجو کنید، این الگوریتم در قالبهای متفاوت، عبارتهای متفاوت و هممفهومی به شما پیشنهاد میده.
البته این الگوریتم فقط نقش سازنده نداره و ی الگوریتم فیلترکننده نیز هست. یعنی چی؟ یعنی افرادی که سعی می کردن با Keyword Stuffing شروع به پیداکردن کلمات کلیدی و انتشار اون در محتوای خودشون کنن و سئو خودشونو بهبود ببخشن، پیدا میکنه و بهشون نمرهی منفی میده.
بهبود سئو با الگوریتم مرغ مگس خوار (humming bird)
خوب تا اینجا که فقط تئوری توضیح دادیم و مطلبمون ارزش فنی نداشت. ما چه طور می تونین از این الگوریتم مرغ مگس خوار استفاده کنیم و سئو خودمون رو بهبود ببخشیم؟
- به جای کلمات کلیدی از عبارات مفهومی استفاده کنید!!
همونطور که گفتیم این این الگوریتم جنبهی فیلتر کننده هم داره. یعنی اگه چگالی کلمات کلیدی رو غیر اصولی بالا ببرین، متوجه میشه و به شما نمره منفی میده. سعی کنید به جای کلمات کلیدی از عبارات هم مفهوم استفاده کنید. یعنی مثلا میخوایین راجب مزایای اب پیاز درشفاف سازی پوست بنویسد!! عبارت کک مک ، جای زخم، لیزر پوست، پاکسازی پوست، شفاف کردن پوست و ..استفاده کنید. اینطور عبارات تقریبا هم مفهومن.
۲-استفاده از کلمات هم معنی
این تکنولوژی سعی می کنه متوجه بشه، کلمات هم معنی چی هستن تا اگه فردی اون کلمات رو سرچ کرد دچار اشتباه نشه. مثلا اون میدونه میهن، وطن، سرزمین و کشور ی معنی دارن. یعنی اگه شما کلمهی وطن رو سرچ کنید این الگوریتم تو اولویتهای بعدیش، سعی میکنه از کلمات سرزمین و کشور هم استفاده کنه. پس این که شما از کلمات هم معنی تو عباراتتون استفاده کنید درصد خیلی کم و ضعیفی میتونه تو سئو سایتتون تاثیر بذاره. میتونید مقاله ی کلمات کلیدی LSI رو در بلاگ ما مطالعه کنید.
۳-استفاده از اسکیما در بهینه سازی سئو
خوب در مورد کلمات کلیدی و عبارات کلیدی صحبت کردیم، حالا مواردی مثل تصاویر، فیلم، پی دی اف، نویسنده، تاریخ انتشار، فرمت صفحه، زمان انتشار رو چطور برای موتورهای جست وجو بهینه کنیم تا گوگل مفهوم اونارو بفهمه؟
گوگل باکس سرچ جداگانه ای برای فیلم، عکس داره و همونطور که میدونید عکسها و فیلمهای هم مفهوم رو هم مثل محتوا کنار هم قرار میده. البته گوگل الگوریتمهای جداگانه و قدرتمندی در این زمینه داره، اما در حوصلهی متن ما می تونید از مفهوم کد گذاری یا نشانه گذاری اسکیما schima استفاده کنید.
اسکیما (Schema) مجموعههای از اطلاعات کوچیکه (microdata) که با اضافه کردن اونا تو سایت خودتون، ی توضیح اضافهتر و جامعتر به گوگل میدید، گوگل هم تو نتایج جستجو این توضیحات اضافه را به کاربرا نمایش میده. در واقع با استفاده از زبان اسکیما، شما به زبان خود گوگل با او صحبت میکنید. برای اطلاعت بیشتر میتونید مقالهی تیم وستا وب دربارهی کدگذاری اسکیما مطالعه کنید.
۴-الگوریتم کبوتر pigeon
کدنویسا و سئوکارا دلیل انتخاب این اسم رو نمیدونن، ولی کفتربازا خوب درک میکنن، چرا گوگل ی همچین اسمی رو واسه این الگوریتم انتخاب کرده!! کبوتر ی ویژگی خوب داره، شما هرجای دنیا رهاش کنی، برمیگرده خونش!! حالا اینکه وفاداره و فلان رو بیخیال، ادرس رو چه جوری پیدا میکنه؟
قدیما وقتی ی ادم می خواست بره مسافرت، ی کبوترم همراه خودش می برد. مثلا می رفت شهر کناری. ی نامه به پای کبوتر می بست و رهاش می کرد، کبوتر هم هرجور شده، ادرس خونه رو پیدا میکرد و نامه رو میوورد خونه. تو جنگ جهانی دوم، کبوتر USA43SC6390، معروف به G. I. Joe تونست قبل از بمباران ی شهرک توسط متفقین، ایتالیاییهای و انگلیسی هارو باخبر کنه و جون صدها نفر رو نجات بده.
. حالا سوال اینجاست، کبوتر چه جوری لوکیشن خونه یادش میمونه و نامه رو میبره؟ کبوتر پرندهایه که میتونه جزئیات رو بدون درنظر گرفتن جهت گیری فضایی بررسی کنه. یعنی وفادار نیست، جزئیات خونه رو یادشه!!الگوریتم کبوتر هم همین کارو میکنه، سعی میکنه بین هزارتا وبسایت ایندکس شدهی مرتبط با کلمهی کلیدی، اونایی که هم خونه و هم منطقهی کاربرن رو ببینه و معرفی کنه. الگوریتم کبوتر گوگل سعی میکنه، لوکیشن کاربر خودش رو تشخیص بده و نتایج جستوجو رو مطابق با مکان کاربر نمایش بده. اصطلاحا بهش میگن سئو محلی.
گوگل دوست داشت تو serp نتایج موتور جستو جو به جای سایتهای بزرگ که همیشه اول بودن، سایتهای محلی و اصطلاحا لوکال رو نمایش بده، تا هم به کسب و کار اونها رونق بده و هم به نتایج خودش تنوع بده. یعنی چی؟ یعنی قبلا تو هربازهی زمانی و مکانی شما کلمهی لولهکش رو سرچ میکردید، ده تا لولهکش مشهور و همیشگی اول میومدن. خوب این نسبت به اینستاگرام که قابلیت اکسپلور رو داره، فاجعه بود.
شما تو اکسپلور اینستاگرام بالغ بر هزارتا لولهکش متنوع میتونی ببینی ولی تو گوگل به این بزرگی باید ده تا لولهکش همیشگی رو ببینی! درثانی لولهکشی تو ایالت فلوریدای امریکا وبسایت داره، به چه کار ما میاد؟ این الگوریتم تو طول چندسال مدام بروزرسانی شد و نتایج serp گوگل با نتایج google map هم یکسان شد.
حالا کافیه کلمهی لوله کش رو تو گوگل سرچ کنید. سه تا از وبسایتهای لولهکشی که از نظر موقعیت مکانی به شما نزدیک هستند، معرفی میشن و اگه کسب و کار خودشون رو توی گوگل مپ ثبت کرده باشن، لینک وبسایت اونارو هم روی گوگل مپ نمایش میده.
بهینهسازی سئو با الگوریتم کبوتر pigeon
توضیح زیاد راجب این الگوریتم، هم شمارو بیشتر گیج میکنه هم مارو. واسه همین سعی کردیم، تعدادی از فاکتورهای بدردبخوری که الگوریتم کبوتر در بهینهسازی وبسایتها تو نتایج گوگل داره رو به صورت طبقه بندی توضیح بدیم، این طور بیشتر این الگوریتم رو درک میکنید.
- ساخت حساب Google My Business
این الگوریتم، موقعیت مکانی فیزیکی براش از کلمات کلیدی مهمتره. اول برین تو Local Business اطلاعات کاربریتون رو ثبت کنید. اول باید ی اکانت Google My Business بسازید.سعی کنید اطلاعات دقیق و بروز استفاده کنید. ساعتی که مغازه باز میشه، ساعتی که بسته میشه، روشهای پرداخت، نوع محصولات و خدمات و لوگو رو تو این حساب بارگذاری کنید. وقتی که تموم اطلاعات لازم رو تو پروفایلتون وارد کردید، این اطلاعات به پروفایلتون اضافه میشه و تو نتایج جستوجو لوکال و گوگل مپ نمایش داده میشه.
توجه : اولین شوک اینه که این امکان تو ایران فعال نیست و اگه تو ایران نیستین از این امکان استفاده کنید، دنبال روشهای دیگه و فیلترشکن هم نرید که نتایج فاجعه انگیزی به دنبال داره!!
- یکسان سازی نتایج serp google با google map
خبر خوب اینه که، هنوزم این الگوریتم، موقعیت مکانی فیزیکی شما براش خیلی مهمه. و هنوز راهی هست که بتونید موقعیت مکانی خودتون رو ثبت کنید. برای اینکار از google map استفاده کنید. این امکان هم نسخهی اپلیکیشن داره هم وب. برای ثبت نام فقط به ی اکانت جیمیل نیاز دارید. واردmap google بشید و گزینه ی Add a Missing Place رو بزنید.
- بازخورد مشتریان در google map
گوگل مپ بخشی با عنوان پرسش و پاسخ کاربران داره. سعی کنید، کاربرا رو تشویق به نظردهی در اکانت خودتون بکنید. یکی از کلیدیترین پارارمترهای موثر بر سئو محلی، همین نظرات کاربران در صفحه گوگل مپه.
- ثبت ادرس در وبسایت و لندینگ پیج
رباتهای گوگل قدرت درک ادرس و شمارهی تماس کسب و کار رو دارن. سعی کنید ادرستون رو داخل فوتر وبسایتتون قرار بدید. فوتر تو تموم برگه ها هست و الگوریتم کبوتر بهتر میتونه پیداتون کنه. میتونید ی لندینگ پیج با سئو محلی برای کسب و کارتون طراحی کنید و ادرس خودتون رو اونجا هم قرار بدید. از طراحی صفحهی تماس با ما هم غافل نشید و نکتهی مهم اینکه سعی کنید اطلاعاتی که تو وبسایتتون درج میکنید با اطلاعاتی که تو گوگل مپ درج میکنید یکی باشه.
- سئو با استفاده از کلمات کلیدی
الگوریتم کبوتر فاکتورهای زیادی واسه رتبهبندی داره، ولی خوب همونطور که همون اول گفتیم. اولویت اولش موقعیت مکانیه. یعنی اگه شما سرچ کنید: لوله کش، اون وبسایتی که پنجاه متر با شما فاصله داره رو نشون میده و اصلا به سئو محتوا توجهی نمی کنه. این الگوریتم تموم تلاشش رو میکنه که موازی با google map حرکت کنه. ولی خوب استفاده از محتوا و کلمات کلیدی همچین بی تاثیرم نیست!
شاید تو کسب و کارهای محلی، گوگل سعی کنه نتایج رو بر اساس فاصله رتبه بندی کنه، ولی خیلی از کسب و کارها هم براساس کیفیت محتوا رتبه بندی میشن. بعضی کلمات تو محتوا ذاتا محلی اند، مثلا تو کلمات تعمیرکار و لوله کش ،کاربر احتمال زیاد تو موقعیت خودش لولهکش و تعمیرکار میخواد. ولی مثلا شما کسب کار <شرکت طراحی وب سایت> رو تو گوگل جستوجو کنید. یا مثلا کسب و کار <شرکت ژئوفیزیک> . دیگه گوگل توانایی رتبه بندی بر اساس موقعیت مکانی رو نداره . احتمالا کاربر مجبور میشه کلمات محلی و لوکال هم داخل جستوجوی خودش استفاده کنه. مثلا شرکت طراحی وب سایت جردن!! حالا باید چیکار کرد؟
باید روی سئو با کلمات محلی وبسایتتون کار کنید، سعی کنید از سرویس Keyword Planner گوگل استفاده کنید. این امکان، کلماتی که مربوط به محله و لوکال مدنظرتون هست رو پیدا میکنه و بهتون پیشنهاد میده. ازین کلمات کلیدی میتونید در محتوا، متاتگها و URL ها استفاده کنید والبته این نکات رو هم در نظر بگیرید.
- گوگل از دایرکتوریهای محلی هم در این الگوریتم استفاده میکند. دایرکتوریهای محلی همون وبسایتهای محلی اند که کسب و کارهای اون منطقه رو نمایش میدن و ما خودمون یدونشو با اسم بانک برند ایرانیان داریم.
غلطهای املایی و کلمات مترادف تأثیری تو نتایج جستوجو ندارد. گوگل دیگه خیلی باهوش شده و لهجههای محلی هم داره تو دیتا بیس ثبت می کنه و با توجه به این که کلمات تو لهجههای متفاوت، متفاوت نوشته میشن . گوگل دیگه تمرکزی روی املا کلمات نداره و اصلا نمیتونه داشته باشه.
۵-الگوریتم رنکبرین (Rank Brain)
شاید الگوریتم رنک برین انقلابی در هوش مصنوعی بود. هیچ هوش مصنوعی به دقت، سرعت و اطلاعات گوگل تو دنیا وجود نداره. تا قبل سال ۲۰۱۸ گوگل ی ربات خودخواه بود، که بیشتر به فاکتورها و الگوریتمهای خودش توجه می کرد. یعنی ی وبسایت رو خزش میکرد و بعدش بر اساس فاکتورهای خودش ایندکس و SERP میکرد. حالا چی شد؟ گوگل با ی مشکل مواجه شد. مثلا گوگل به دو سایت A و B بر اساس فاکتورهای خودش، رتبهی یک و دو داده بود. ولی متاسفانه بیشتر کاربرا، واسهی محتوای مورد نیاز خودشون به وبسایت B می رفتن. این یعنی چی؟ یعنی اقای گوگل فاکتورهایی که با اونا محتوارو رتبه بندی کردی درست نیس و کاربرا راضی نیستن.
شاید همون سالها ترافیک زیادی از کاربرا داخل اینستاگرام بودن و گوگل هم از ترافیک خالی شده بود. دلیلش چی بود؟ ی مثال براتون میزنم. چه پستهای تو اکسپلور اینستاگرام بیشتر بالا میان؟ پستهایی که بیشتر ویو میگیرن، بیشترکامنت می گیرن و بیشتر لایک میگیرن. حالا چه کاربرایی تو سرچ اکسپلور اینستا زودتر بالا میان؟ بله. کاربرایی که فالوور بیشتری دارن. ینی اینکه اینستاگرام تماما به کاربراش توجه می کرد و گوگل تماما به خودش!!
اینجا بود که گوگل تصمیم گرفت ی نگاه دوباره به درون خودش بکنه و عوض بشه و الگوریتم رنکبرین رو خلق کرد. رنکبرین ی فناوری جدیده با پایه هوش مصنوعی (AI) . رنکبرین سعی می کنه به جای اینکه توسط ادمها اموزش ببینه که چه جوری رفتار کنه، خودش در طول مدت زمان به صورت خود به خود، نحوهی کارکرد ی چیز رو یاد بگیره و کامل بشه. اصطلاحا بهش میگن Machine Learning.
گوگل سعی میکرد، نحوه ی SERP گوگل رو کاربرای گوگل، ایجاد کنند نه خودش، اینجوری بود که رنک برین اومد. حالا رنک برین چیکار میکنه؟ رنک برین دو وجه داره، وجه اولش اینه که به رضایت کاربری توجه میکنه و مفهومی مثل UI , UX شکل میگیره و دوم این که سعی میکنه به سوالای کاربران پاسخ هدفمند و مفهومی بده، تو این تاپیک همراهمون باشید تا کاملتر توضیح بدیم.
- تجربه ی کاربری UX وUI
الگوریتم رنکبرین تموم تلاشش رو میکنه تا بفهمه کاربرا از پیج شما رضایت دارن یا نه!! و بعد با توجه به رضایت کاربرا از محتوای شما، به وبسایت شما نمره میده. حالا الگوریتم رنکبرین چه طور اینکارو میکنه؟ اون میاد سه تا نرخ رو برای تموم کاربرایی که وارد وبسایت شما میشن، اندازه گیری میکنه و بعد از میانگیری به شما نمره میده. این سه نرخ رو ببینیم.
- نرخ پرش(Bounce rate)
این نرخ یعنی کاربر وارد وبسایت ما بشه و اون کاری رو که ما دوست داریم؛ انجام نده! مثلا ما پیج فروشگاه شیرینی داریم، اگه ی کاربر وارد وبسایت ما بشه، و از پیج ما خرید نکنه، در واقع پرش اتفاق افتاده. البته همهی وبسایتها فروشگاهی نیستن. مثلا وبسایت دانلود فیلم. اگه ی نفر وارد وبسایت ما بشه، فیلم مارو دانلود کنه و کامنت بذاره، در واقع با ما تعامل کرده و پرش اتفاق نیفتاده.
- (Dwell Time)
میانگین مدت زمان بازدید کاربران از یک محتوا، زمان ماندگاری در محتوا (Dwell Time) نامیده میشود. فرض کنید ده نفر داخل پیج ما باشن. اگه همه ی اونا با هم نیم ساعت تو پیج ما باشن، زمان ماندگاری در وبسایت ما میشه سه دقیقه که اصن عدد خوبی نیست.
- نرخ کلیک CTR
فرض کنید یه نفر عبارت الگوریتمهای گوگل رو داخل گوگل سرچ کنه و لینک محتوای مارو داخل نتایج گوگل ببینه. العان ی مشاهده اتفاق افتاده. حالا فرض کنید روی محتوای ما کلیک کنه و وارد محتوای ما بشه. حالا ی کلیک هم اتفاق افتاده. نسبت تعداد کلیکها به تعداد مشاهدهها رو نرخ کلیک میگن.
این امار رو میتونید داخل Google Analytics یا گوگل آنالتیکس بررسی کنید.
- شناسایی مفهوم کلیدی براساس عبارت جستجو شده
دومین کاری که رنکبرین میکنه تا کاربرا خودشون نایج گوگل رو سئو کنن، اینه که کلمات جستجوی کاربر رو ثبت میکنه و بعد سعی می کنه، بر اساس لوکال کاربر، تاریخچه جستجو، علایقی که کاربر از قبل داشته (۲۰۰ فاکتور رو بررسی میکنه) نتایج جستجو رو برای کاربر میکنه. یعنی تماما نتایج رو با علایق کاربر منطبق بکنه و این فوقالعادس.
الگوریتم رنکبرین (Rank Brain) چه امکاناتی رو به موتور گوگل اضافه کرد؟
- People also search for
اگه از نتایج گوگل ی گزینه رو انتخاب کنید و وارد محتواش بشید و اگه دوباره به صفحهی نتایج گوگل برگردید، گوگل فکر میکنه شما به جواب نرسیدید .گوگل زیر همون نتیجه، ی باکس باز میکنه و چنتا پیشنهاد برای فهمیدن جواب بهتون میده.
- People also ask
وقتی در گوگل یک سوال سرچ کنید در قسمت زیر برگهی نتایج ی باکس باز میشه و سوالات هم مفهوم با سوال شمارو براتون لیست می کنه.
- featured snippets
تا حالا شده ی عبارتی داخل گوگل سرچ کنید که جوابش یه کلمس، مثلا شعاع زمین. یا فاصله تا خورشید. بعد ی باکس اول گوگل باز میشه و جواب رو با ی کلمه میده و جالبه زیرش توضیحات اضافه هم میده، گوگل این جواب رو از دهتا سایت اول تو نتایج SERP گوگل انتخاب کرده و جواب اعتبار بالایی داره که اصطلاحا بهش میگن نتیجهی صفرم.
۶-الگوریتم رقص گوگل
خوب همونطور که گفتیم. گوگل تو الگوریتم سندباکس سعی میکرد، وبسایتهای قدیمی رو بالا نگه داره و وبسایتهای جدید رو عقب. گوگل، اینطور میخواست: اعتبار محتوایی که در اختیار کاربر میزاره رو تضمین کنه. حالا چه اتفاقی میافتاد؟ محتواهای جدید و بدردبخور تو نتایج بالا نمی اومد و محتواهای قدیمی و بدردنخورهمیشه اول بودن. البته گوگل بروزرسانیهای زیادی واسه رفع این مشکل انجام داد. مثلا الگوریتم بروزرسانی و کافئین. ولی خوب با توجه به تعداد زیاد محتواهای اتشار یافته و همچنین سئو ضعیف سایتهای پایین، امکان این که محتواهای خوب بیان بالا کم بود.
حالا گوگل چیکار کرد؟ اومد مثل استعدادیابهای رقص عمل کرد. تو استعدادیابی رقصندهها، تعداد شرکت کننده ها خیلی زیاده. اگه بخوان یکی یکی تست بگیرن، هزار سال طول میکشه. پس سعی میکنن همه رو با هم تو ی سالن امتحان کنن. اینطور که استعداد یابها وارد سالن رقص میشن و دیجی هم پشت سر هم اهنگهای مختلف رو پلی میکنه. استعداد یاب رقص تو هر اهنگ ی نفرو زیر ذرهبین نگه میدارن ومهارتهای اونو می سنجن .مدام توی سالن میچرخن و به صورت کاتوره ای ی نفرو زیر سر میگیرن.
الگوریتم رقص گوگل هم همینطورعمل میکنه. این الگوریتم، وبسایتهایی که تو رتبهی پایینتر قرار دارن، ولی مستعد رشد هستن (پیج دوم و حداکثر سوم) رو چند روز زیر نظر میگیره، تا رفتار کاربرایی که وارد پیج اونا میشن رو ارزیابی کنه. دقت کنید تو این الگوریتم اصلا فاکتورهای خوده گوگل مهم نیست، گوگل فقط میخواد رفتار کاربرا رو بسنجه. البته که تو پیج دوم و سوم کاربری در کار نیست، گوگل به این وبسایتها افتخار میده و میارتشون پیج اول!! و بعد الگوریتم رنکبرین اونها رو زیر نظر میگیره، ببینه نرخ کلیک، نرخ میانگین زمان و نرخ پرش چه جوریه؟
حالا تو مرحله ی بعد این امار رو با وبسایتهایی که تو صفحهی اول بودن، مقایسه میکنه تا ببینه امار وبسایت قبلی بهتر بود یا مدعی جدید؟ اگه نتیجه ی بهتری ازون دید، جایگاه بهتری بهش میده و اگه ام نه، سریع برش میگردونه سر جای اولش.
صحبت فنی در مورد بهبود سئو وبسایت خودتون برای این الگوریتم وجود نداره، جز اینکه اگه تو صفحهی دوم یا سوم نتایج جستوجو هستید برای رقص گوگل خودتون رو اماده کنید، تا بتونید خودتون رو نشون بدید.
۷-الگوریتم تازگی محتوا Freshness
البته این الگوریتم رو در ابتدای مقاله توضیح دادیم، ولی با توجه به اهمیت این الگوریتم، تصمیم گرفتیم اونو تو قسمت باغ وحش الگوریتمهای گوگل هم توضیح بدیم. این الگوریتم تو سال ۲۰۱۱ معرفی شد و تونست چیزی حدود ۳۵ درصد نتایج رو عوض کنه. و هدفش کمک به تولید محتواهای تازه بود.
محتواهای منتشر شده بر اساس تازگی چند دستهاند. اول محتواهایی که به بروزرسانی نیاز ندارن، مثلا جنگ بین ایران و عثمانی در دشت چالدران. محتوای این موضوع هیچوقت تغییر نمی کنه و گاها فقط میشه ابعاد و اطلاعاتی جدید به اون اضافه کرد. محتواهایی هم هستند که بروزرسانی همیشگی نیاز ندارن، مثلا محتوای دوست دختر جاستین بیبر شاید سالانه به بروزرسانی نیاز داشته باشه، هرچند در دنیای صفحات مجازی راجب موضوع دوست دختر جاستین بیبر هروز محتواهای جدیدی منتشر میشه!!
و در صدر محتواهایی هستند که با قیمت، اخبار، سیاست، ورزش سروکار دارن. موضوع قیمت در ایران، محتواییه که به بروزرسانی ثانیهای احتیاج داره. مثلا ترکیب تیم استقلال مقابل پیکان به بروزرسانی هفتگی نیاز داره. حالا این الگوریتم سعی میکنه، محتواهای بروز تر و جدید تر رو در صدر نتایج گوگل قرار بده.
طرز کار این الگوریت خیلی مشخص نیست، چون گاها شده راجب بعضی قیمتها و اخبار جست و جو کنیم و محتوای تازهای دستمون رو نگیره. احتمالا اگه وب سایت شما بروزرسانی خوبی داشته باشه، نرخهایی که مربوط تجربهی کاربری هست در وبسایت شما بالا میره، مثلا اگه ی کاربر تو وبسایت شما ی دقیقه وقت بگذرونه، و محتوای شما تازه باشه، دفعه ی بعد مثلا ده دقیقه توی وبسایت شما میمونه!! پس نرخ میانگین زمان یا dwell time تو سایت شما بالا میره.
یا مثلا اگه پیج شما در صفحات اجتماعی به اشتراک گذاشته بشه، احتملا محتوایی بروز دارید. بک لینکها و لینکسازی ها هم معیاری مهم برای بروز بودن محتوای شما هستند. اگه محتوای شما به تعداد زیاد بک لینک دریافت کنه، یعنی محتوای شما بروزه!! ما تصمیم گرفتیم، تعدای از عواملی که در بهینهسازی وبسایت شما برای الگوریتم بروزرسانی موثر هست رو لیست کنیم.
- محتوای کلیدی رو بهروز کنید
اگه وبسایتی داشته باشین که حجم محتوای زیادی داشته باشه، احتمالا با مشکلی بزرگ روبرو هستین. بروزرسانی مدام محتوا، نیاز به تعداد زیادی نیرو و متعاقبا هزینهی بالا داره. پیشنهاد ما اینه که به Google Analytics یا گوگل آنالتیکس مراجعه کنید. سعی کنید محتواهایی که نرخ کلیک بالا، ترافیک بالا و Impression بالا رو داره، لیست کنید و وقت خودتون رو روی اونا بذارید.
- از محتواهای تولید نشده استفاده کنید
سعی کنید، از محتواهایی استفاده کنید که در گوگل منتشر نشده اند. برای اینکار سعی کنید از محتواهای نسخهی انگلیسی استفاده کنید. از منابع کتابخانه و رزونامه هم میتونید استفاده کنید.
- تاثیر رسانههای اجتماعی در الگوریتم بروزرسانی
همونطور که گفتیم گوگل این روزها به شدت به رسانههای اجتماعی توجه میکنه و سعی میکنه بیشتر جلوی باد اسیاب بسازه نه دیوار. زمانی که ی محتوا به تعداد زیاد در رسانههای اجتماعی اشتراکگذاری بشه، گوگل احتمال میده که اون صفحه بروز تره، هرچند اگه افراد از صفحات متفاوت به پیج شما بیان، ترافیک وبسایت شما بالا میره و روی سئو شما موثره.
- تاریخ انتشار مقالات را حذف نکنید
خوب قطعا الگوریتم بروزرسانی، به تاریخ انتشار محتوا به شدت توجه میکنه. اگه محتوای شما بروز نیست، سعی کنید به جای پاک کردن تاریخ انتشار، صفحه رو بروزسانی کنید.
۸-الگوریتم Mobile First Index
اوایل کار گوگل، اینترنت با کامپیوتر معنی میشد. یعنی هرکسی که کامپیوتر داشت به اینترنت هم دسترسی داشت. به همین دلیل تموم فاکتورهای سئو گوگل بر اساس دسکتاب بود. ولی این موبایل ها بودن که اینترنت رو برای همهی مردم فراگیر کردن. به خاطر ارزون بودن موبایلها و از طرفی قابلیت وبگردی راحت، جستوجوی دسکتاپ قافله رو به جست و جوی موبایل باخت. کافیه این امارها رو ببینید.
- ۵۲.۲ درصد از ترافیک، متعلق به سیستمهایی غیر از دسکتاپه.
- ۷۰ درصد از حجم زمانی که افراد داخل اینترنت هستند، متعلق به موبایله
- ۷۴ درصد از کاربران وفادار، یا همونایی که میرن و برمیگردن، همین کاربرای موبایلن
- ۶۷ درصد از مشتریان ترجیح میدن خریدشون رو از سایتهای رسپانسیو بکنن.
- و جالبتر اینکه افرای که در موبایل خودشون وبگردی میکنن تو نود وشش درصد مواقه از گوگل استفاده میکنن.
چه وبسایتهایی برای الگوریتم Mobile First Index بهینه هستند؟
- اگر نسخه موبایل و دسکتاپ شما یکی باشد، تغییری در آنالیز گوگل از محتوای شما اتفاق نمی افته
- سایتهای Responsive یا واکنشگرا. سعی کنیدف نسخهی ریسپانسیو و دسکتاپ یکسان باشه، اگه محتوا موبایل با استفاده از css پنهان بشه، برای سئو سایت شما نمره ی منفی داره
- سایتهایی که برای نسخه موبایل، ادرس جدیدی در نظر میگیرن، که احتمالا اول ادرسشون پیشوند m. استفاده می کنند.
- داینامیک سروینگ
سخنپایانی
تو این مقاله سعی کردیم، تموم الگوریتمهایی که توسط گوگل به صورت رسمی اعلام شدن رو به صورت خلاصه توضیح بدیم. البته الگوریتمی برت bert هم تو این دسته قرار میگیره که توسط گوگل تاحالا معرفی نشده و ما هم ازون چشم پوشی کردیم، ممنون ازینکه همراه ما بودید.