دسترسی سریع به محتوای این مقاله
- 1 الگوریتم های گوگل چه هستند؟
- 2 الگوریتم پیج رنک (PageRank)؛ اولین الگوریتم گوگل
- 3 الگوریتم بوستون (Google Boston)
- 4 الگوریتم فلوریدا (Google Florida)
- 5 الگوریتم شخصی سازی نتایج جستجو (Google Personalized Search)
- 6 الگوریتم جستجوی کلی (Google Universal Search)
- 7 الگوریتم پیشنهاد گوگل (Google Suggest)
- 8 الگوریتم کافئین (Google Caffeine)
- 9 الگوریتم پاندا (Google Panda)
- 10 الگوریتم پنگوئن (Google Penguin)
- 11 الگوریتم Google Knowledge Graph
- 12 الگوریتم Pirate Update
- 13 الگوریتم مرغ مگس خوار (Google Hummingbird)
- 14 الگوریتم Payday Update
- 15 الگوریتم کبوتر (Google Pigeon)
- 16 الگوریتم Mobile-Friendly Update
- 17 الگوریتم رنگ برین (Google RankBrain)
- 18 الگوریتم Mobilegeddon
- 19 الگوریتم موش کور (Possum)
- 20 الگوریتم پنگوئن نسخه 4
- 21 الگوریتم Intrusive Interstitial Penalty
- 22 الگوریتم فرد (Google Fred)
- 23 الگوریتم Google BROAD CORE
- 24 الگوریتم Google MEDIC UPDATE الگوریتمی که در سال 2018 ارائه شد
- 25 الگوریتم Neural Matching؛ یک الگوریتم کاربردی برای بهبود درک زبان طبیعی
- 26 الگوریتم برت (Bert)
- 27 الگوریتم E-A-T؛ از مفاهیم کلیدی در بهروزرسانیهای الگوریتم گوگل
- 28 نتیجهگیری
- 29 ترتیب پیشنهادی مدیر وب برای یادگیری الگوریتمهای گوگل
اخیراً یکی دیگر از الگوریتم های گوگل تحت عنوان Google MEDIC UPDATE منتشر شده است و این نشان میدهد که گوگل مدام در حال به روز رسانی الگوریتم های خود است. این الگوریتمها به گوگل کمک میکنند که نسبت به مطالب و شرایط مختلف عکس العمل نشان داده و بهترین شرایط برای کاربران به وجود بیاورد. البته یکی از دیدگاههای اشتباهی که در مورد الگوریتم های گوگل وجود دارد این است که اکثر کاربران و وبمستران فکر میکنند که هر کدام از این الگوریتمها یک سیستم مجزا بوده که همیشه بر روی گوگل باقی میمانند.
این در حالی است که هر کدام از این الگوریتمها یک آپدیت یا بروز رسانی از سیستم کلی گوگل است، که با وجود باقی ماندن آپدیتهای قبلی، یک آپدیت جدید به آن اضافه میشود. به منظور درک بیشتر این موضوع و آشنایی شما با الگوریتم های گوگل، مروری کلی بر همه الگوریتم های به وجود آمده از سال 2003 تا کنون خواهیم داشت و نشان خواهیم داد که هر کدام از این الگوریتمها با چه هدفی به وجود آمدهاند.
الگوریتم های گوگل چه هستند؟
قبل از هر چیزی باید بدانیم که الگوریتم های گوگل چه هستند و با چه سیستمی کار میکنند؟ بطور کلی الگوریتم به یک سیستم ریاضی گفته میشود که در جریان آن میتوان چند موضوع دیگر را تعریف کرد و آنها را به نتیجه رساند. به عنوان مثال، فرض بگیرید که فردی میخواهد به یک آدرس مشخص برسد، اگر این فرد از شما بپرسد که از چه مسیری عبور کند، میتوانیم پیشنهاد پیاده رفتن، استفاده از مترو و همچنین استفاده از اتوبوس را که سه پیشنهاد متفاوت است، به او دهیم. هر سه روش او را به مقصد میرساند و تنها زمان رسیدن در هر کدام از آنها متفاوت است. ما میتوانیم اسم هر کدام از این مسیرها را یک الگوریتم بنامیم.
الگوریتمهای گوگل به همین شیوه عمل میکنند و به کاربران این نکته را نشان میدهند که نحوه رسیدن به بهترین رتبه در گوگل به چه صورت است. تفاوتی که در این الگوریتمها وجود دارد این است که او در مورد آنها اطلاعات چندانی بروز نمیدهد تا وبمسترها فقط بر روی آنها متمرکز نشوند. این موضوع باعث میشود که همیشه کاربر و بازدیدکننده در اولویت قرار گیرد و مطالب مناسب دریافت کند. حالا برویم تا تکتک الگوریتمها را با هم بشناسیم.
الگوریتم پیج رنک (PageRank)؛ اولین الگوریتم گوگل
اولین الگوریتم اصلی گوگل که در سال 1998 ارائه شد، الگوریتم پیج رنک بود. این الگوریتم بر اساس اهمیت و اعتبار صفحات و متناسب با تعداد و کیفیت لینکها به آنها، صفحات را رتبهبندی میکرد. برای گرفتن پیج رنک بالا باید توجه داشت که تعداد بک لینکها بیش از حد، غیر مرتبط و اسپم شده نباشد. نحوه کار این الگوریتم به این صورت است که میزان ارتباطات پیوندی و جایگاه نسبی هر صفحه را بر اساس پیوندهای ورود محاسبه میکند.
مهمترین ویژگیها و اثرات پیج رنک عبارتاند از:
• بررسی اهمیت صفحات بر اساس تعداد و کیفیت پیوندها به آنها
• بهکارگیری الگوریتم ماتریس واکنشگرا برای محاسبه رتبهبندی
• افزایش اهمیت صفحات با پیوندهای ورودی معتبر
• تشویق به ساخت پیوندهای طبیعی و ارتباطات محتوایی
الگوریتم بوستون (Google Boston)
الگوریتم بوستون به عنوان اولین آپدیت و بروزرسانی الگوریتم های گوگل بود که در سال 2003 در یک کنفرانس علمی مهندسی ارائه شد. این الگوریتم، تصمیم گرفت که در روند بررسی، مطالب را به صورت ماهانه یا حتی زودتر انجام دهد. در گامهای بعدی تغییراتی در این الگوریتم بوجود آمد که در جریان آن مطالب به صورت روزانه بررسی میشد و کاربران به فکر انتشار روزانه محتوا در وب سایت خود بودند.
الگوریتم فلوریدا (Google Florida)
این الگوریتم در ماه نوامبر سال 2003 منتشر شد و به نوعی وبمسترهای آن زمان را تحت تأثیر قرار داد. در واقع در این الگوریتم به وبمسترها نشان داده شد که از چه تکنیکی برای جذب ترافیک ارگانیک استفاده کند. به عنوان مثال، استفاده از کلمات کلیدی یا حتی استفاده از لینکهای داخلی و خارجی مواردی بود که در این الگوریتم رنگ واقعیت به خود گرفت.
در بین الگوریتم های گوگل، الگوریتم فلوریدا از اولین بهروزرسانیهای مهم گوگل بود که تاثیرات قابل توجهی در رتبهبندی و مقابله با تکنیکهای سئو غیرقانونی (spamming)به وجود آورد. همچنین اجرای بهروزرسانیها برای بهبود کیفیت نتایج جستجو و افزایش عدالت شیوه کار این الگوریتم است.
بر همین اساس مهمترین ویژگیها و تاثیرات الگوریتم فلوریدا عبارتاند از:
• بهبود وضعیت رتبهبندی و مقابله با تکنیکهای سئو غیرقانونی
• تغییر در الگوریتمهای رتبهبندی برای ارتقای کیفیت نتایج جستجو
• تغییرات وسیع در رتبهبندی وبسایتها
• بهبود کارایی و دقت نتایج جستجو
الگوریتم شخصی سازی نتایج جستجو (Google Personalized Search)
این الگوریتم در ژوئن سال 2005 از طرف گوگل منتشر شد و در آن کاربران میتوانستند از تاریخچه جستجوی خود برای جستجوهای جدید استفاده کنند. در واقع، تلاشها و جستجوهای قبلی کاربران در این الگوریتم ذخیره شده و گوگل در جستجوهای بعدی این موارد را به آنها نشان میداد. این الگوریتم نشان دهنده دسترسی گوگل برای اولین بار به تاریخچه جستجوی کاربران است.
الگوریتم جستجوی کلی (Google Universal Search)
این الگوریتم در ماه می سال 2007 برای سهولت کاربران گوگل راهاندازی شد و میتوان آن را به عنوان یکی از بهترین بهروزرسانیهای گوگل در نظر گرفت. تا قبل از به وجود آمدن این الگوریتم، کاربران به هنگام جستجو، نتایجی شامل تصاویر، اخبار، کتابها و موارد مشابه دریافت میکردند. این در حالی است که الگوریتم جستجوی کلی باعث تفکیک هر کدام از این نتایج بود و ما از این تاریخ به بعد میتوانیم اخبار، تصاویر گوگل یا هر مطلب متفرقه دیگری را به صورت مجزا بگیریم. تصویر زیر نشان میدهد که منظور این الگوریتم چیست.
الگوریتم پیشنهاد گوگل (Google Suggest)
پس از 4 سال استفاده آزمایشی، بالاخره الگوریتم پیشنهاد گوگل در آگوست سال 2008 راه اندازی شد. در این الگوریتم، تمرکز بر روی استفاده از عبارات کلیدی یا همان کوئری (Query) بود. این الگوریتم به کاربران کمک میکرد که علاوه بر کلمه یا عبارت کلیدی خود، کلمات کلیدی محبوب را نیز ببیند و از بین آنها گزینههای بهتر را انتخاب کنند. این الگوریتم به عنوان مقدمه برای الگوریتم Google Instant بود که در سال 2010 پیشنهاد شد و نوع پیشرفته دیگری از الگوریتم های گوگل است.
الگوریتم کافئین (Google Caffeine)
تا قبل از به وجود آمدن الگوریتم کافئین، سیستم ارائه محتوا در گوگل و نتایج جستجو به صورت لایه لایه بود که فقط سایتهای دارای رتبه بالاتر در همان جستجوی اول نشان داده میشدند و اغلب سایتهای جدید دیده نمیشدند. گوگل برای حمایت از وب سایتهای جدید و وب سایتهای ضعیفتر، در سال 2009 یک الگوریتم به نام الگوریتم کافئین معرفی کرد که راه اندازی آن به ژوئن 2010 موکول شد. در این سیستم دیگر خبری از لایه بندی بودن سایتها با توجه به قیمت آنها نبود و در حقیقت جستجوی کاربران به صورت کلی و در بین همه سایتها انجام میگرفت.
از مهمترین الگوریتم های گوگل میتوان به الگوریتم Caffeine اشاره کرد. بهبود سرعت، کارایی و بهروزرسانی نتایج جستجوی گوگل هدف اصلی این الگوریتم بود. با این بهروزرسانی، گوگل توانایی بیشتری برای افزایش سرعت نمایهسازی صفحات وب خزنده پیدا کرد و توانست نتایج جستوجو را با محتوای تازهتر و بهروزتری ارائه دهد. همچنین نحوه کار این الگوریتم به این صورت است که از خزش مستمر، نمایهسازی قطعهای و تکنولوژیهای پیشرفته برای بهبود عملکرد خود استفاده میکند.
مهمترین ویژگیها و تاثیرات الگوریتم Caffeine عبارتاند از:
• سرعت بالاتر نمایهسازی
• ساختار پایگاه داده جدید
• بهروزرسانی مداوم
• بهبود سرعت نمایش نتایج
• افزایش حجم نمایهسازی
• پشتیبانی از محتوای جدید و بهروز
الگوریتم پاندا (Google Panda)
الگوریتم پاندا در ابتدا با نام Farmer منتشر شد که به نوعی به صورت غیرمستقیم ریز شدن گوگل در مزارع محتوا و ارائه یک محتوای با کیفیت توسط وی را نشان میداد. اما در هر صورت این الگوریتم در سال 2011 با نام رسمی پاندا ارائه شد که نام آن از نام مهندس سازنده الگوریتم برگرفته شده است. در حقیقت این الگوریتم در پاسخ به تعداد روز افزون شکایت جامعه جهانی به سایتهای با محتوای بیکیفیت ساخته شد. پاندا عمدتاً به سراغ سایتهایی با محتوای ضعیف میرود که مطالب سایر سایتها را کپی کرده و به عنوان محتوای خود منتشر میکنند. الگوریتم پاندا یکی از مهمترین ابزارهای بود که با هدف مبارزه با نتایج جستجوی خاکستری یا همان سئو کلاه خاکستری به وجود آمد.
بهطورکلی الگوریتم Panda بر روی کیفیت محتوا تاکید میکند و در جلوگیری از محتوای کپیشده، محتوای پر از کلمات کلیدی و محتوای کیفیت پایین نقش مهمی دارد. پاندا این طور کار میکند که الگوریتمهای تشخیصی را برای سنجش کیفیت و ارزش محتوا مورد استفاده قرار میدهد.
تاثیرات و ویژگیهای الگوریتم پاندا عبارتاند از:
• تاثیر بر کیفیت محتوا با کاهش محتوای کپیشده و پر از کلمات کلیدی
• سنجش کیفیت محتوا بر اساس ارزش اضافی برای کاربران
• افزایش کیفیت محتوا و بهبود تجربه کاربری
• کاهش ترافیک به وبسایتهای کپیشده یا پر از کلمات کلیدی
الگوریتم پنگوئن (Google Penguin)
الگوریتم پنگوئن را میتوان الگوریتم تراشکار گوگل معرفی کرد که هدف اصلی آن کاهش رتبه بندی سایتهایی بود که از طریق غیر قانونی و با نقض دستورالعملهای کیفی گوگل خود را به رتبههای بالاتر رسانده بودند. این الگوریتم در ماه آوریل سال 2012 منتشر شد و هنوز هم به عنوان یکی از مهمترین اصول کار گوگل شناخته میشود.
اصولاً سایتهایی که از تکنیکهای مختلف مانند روشهای اسپم، به کار بردن بیش از حد کلمات کلیدی و همچنین لینکهای غیرقانونی استفاده میکنند، آمار بازدیدها و ترافیک و ارگانیک را کاهش میدهند. این به روزرسانی در الگوریتم های گوگل سایتهای مختلف استفاده کننده از سئو کلاه سیاه را به شدت مجازات میکند. بنابراین وبمسترها مجبور هستند که سایتهایی با کیفیت محتوای بالا ایجاد کنند و تجربیات مثبتی در اختیار کاربران قرار دهند تا تجربه کاربری وب سایت نیز رشد کند.
به طور کلی، مبارزه با لینکهای به دست آمده از سایتهای اسپم، تشخیص لینکهای پولی و یا کلیکهای خریداری شده و همچنین تشخیص بهینه سازی بیش از حد، از نقاط قوت پنگوئن هستند. در واقع در بین الگوریتم های گوگل، پنگوئن در بهبود کیفیت لینکها و جلوگیری از استفاده از لینکهای نامناسب و لینکهای خریداریشده نقش دارد. برای این کار از الگوریتمهای تحلیلی برای تشحیص لینکهای نامناسب و تاثیر آنها بر رتبهبندی استفاده میکند.
بر همین اساس ویژگیها و اثرات الگوریتم پنگوئن عبارتاند از:
• ارزیابی و بهبود کیفیت لینکها و جلوگیری از استفاده از لینکهای نامناسب
• مقابله با لینکهای خریداریشده یا ایجاد شده به طور افتراقی
• کاهش تاثیر لینکهای نامناسب بر رتبهبندی وبسایت
• افزایش اعتماد به لینکهای طبیعی و معتبر
الگوریتم Google Knowledge Graph
این مورد از الگوریتم های گوگل به این دلیل راه اندازی شده که کاربران و جستجوگران خیلی راحتتر و سریع به اطلاعات علمی دسترسی داشته باشد. الگوریتم Google Knowledge Graph در ماه می سال 2012 معرفی شد و روال کار آن بدین صورت است که یک نمودار از اطلاعات در سمت راست نتایج به کاربر نشان میدهد. گوگل اعلام کرده است که این الگوریتم به درک بهتر جستجوگران از جهان واقعی و روابط آنها با یکدیگر کمک میکند. جالب است بدانید که این الگوریتم در هنگام راهاندازی، اطلاعات مربوط به 500 میلیون شی خاص و همچنین اطلاعات درباره ارتباط بین سه و نیم میلیارد مورد مختلف را، بهطور کامل داشته است.
برای درک این موضوع توصیه میکنم که کلمه مدیر وب را در گوگل سرچ کنید. نتایج جستجو علاوه بر اطلاعات و موارد معمولی که در هر حالتی نشان داده میشوند، یک نمودار مجزا در سمت راست را نیز نمایش میدهد که به عنوان اطلاعات تکمیلی به شما داده میشود. این اطلاعات معمولاً شامل آدرس، نوع کسب و کار و حوزه فعالیت کلمه کلیدی جستجو شده است.
الگوریتم Pirate Update
الگوریتم Pirate Update اولین بار در آگوست 2012 توسط گوگل معرفی شد. این الگوریتم با هدف مقابله با نقض حقوق مولف و کپیرایت در نتایج جستجوی گوگل طراحی گردید. تمرکز اصلی الگوریتمPirate Update بر روی سایتهایی است که محتوای محافظت شده را بدون اجازه صاحب حق نشر توزیع میکنند.
بهطورکلی ویژگیها، اهداف و تاثیرات الگوریتم Pirate Update عبارتاند از:
مبارزه با نقض کپیرایت: اصلیترین هدف این الگوریتم کاهش رتبه و نمایش سایتهایی است که محتوای محافظت شده توسط کپیرایت را بدون مجوز منتشر میکنند.
پاسخ به درخواستهای حذف محتوا: این الگوریتم به درخواستهای حذف محتوای DMCA توجه ویژهای دارد که از سوی صاحبان حقوق ارسال میشود.
کاهش ترافیک سایتهای نقضکننده کپیرایت: الگوریتم Pirate Update به کاهش ترافیک سایتهای متخلف و در نتیجه کاهش تعداد بازدیدکنندگان آنها کمک میکند.
کاهش رتبه سایتهای ناقض کپیرایت: سایتهای گزارش شده به دلیل نقض مقررات حقوق مولف، کاهش در رتبه خود مشاهده میکنند و در نتایج جستوجوی گوگل کمتر دیده میشوند.
حمایت از حقوق صاحبان محتوا: این الگوریتم مانع از دسترسی آسان به محتوای غیر قانونی میشود
علاوه بر این، در میان انواع الگوریتم های گوگل، نحوه کار الگوریتم Pirate Update نیز متفاوت است. این الگوریتم با تحلیل و ارزیابی درخواستهای DMCA، حذف لینکهای غیرقانونی و کاهش رتبه سایتهای متخلف، مانع از ضایع شدن حق مولفان و تولیدکنندگان محتوای یونیک میشود.
الگوریتم مرغ مگس خوار (Google Hummingbird)
به مرور زمان، گوگل متوجه شد که عکس العمل جستجوگران نسبت به کوئری ها بسیار خاص و منحصر به فرد است و ترجیحاً آنها به شکلی است که فقط به سراغ یک عبارت یا چند کلمه مربوطه بروند. این موضوع نشان میداد که کاربران نسبت به نتایج جستجو حساسیت بالایی دارند و ترجیح میدهند که نتایج بسیار نزدیکتر و دقیقتر باشد. بنابراین یکی دیگر از الگوریتم های گوگل تحت عنوان الگوریتم مرغ مگس خوار در سال 2013 منتشر شد.
این الگوریتم نسبت به مدلهای قبلی تغییر آن چنانی و بسیار بزرگی نداشت، اما توانایی آن بسیار مهم و تاثیرگذار بود که باعث جلب رضایت کاربران میشد. جستجوهای گوگل نشان میدهد که استفاده از الگوریتم مرغ مگس خوار تقریباً نزدیک به 90 درصد از نتایج جستجو را تحت تأثیر قرار داده و نتایج بهینه شده را به کاربران عرضه میکنند.
الگوریتم مرغ مگس خوار، مدلهای مفهومی را برای درک جملات و مفاهیم موجود در جستوجو مورد استفاده قرار میدهد.
بر همین اساس ویژگیها و اثرات الگوریتم مرغ مگس خوار عبارتاند از:
• تجزیه و تحلیل مفهومی جستجوها به جای جستوجوی صرف کلمات کلیدی
• بهبود سازگار بودن محتوا با نیازهای کاربران و درک بهتر از جملات و مفاهیم
• ارائه نتایج دقیقتر و مطابق با خواست کاربران
• بهبود تجربه جستجو و افزایش رضایتمندی کاربران
برای آشنایی بیشتر با الگوریتم مرغ مگس خوار اینجا کلیک کنید.
الگوریتم Payday Update
الگوریتم Payday Update که در ژوئن 2013 معرفی شد، با هدف کاهش رتبه سایتهای اسپم و کمتر کردن نمایش محتوای کمکیفیت و مزاحم در نتایج جستجوی گوگل در اختیار کاربران قرار گرفت. این بهروزرسانی به طور ویژه بر سایتهایی تمرکز دارد تکنیکهای سئوی اسپم را برای رتبهبندی بالای وبسایتهای خود استفاده میکنند.
بسیاری از وبمسترها برای جلوگیری از تاثیرات منفی الگوریتم Payday Update، از روشهای سئوی سفید، مانند: تولید محتوای با کیفیت، بهینهسازی سایت برای کاربران، ایجاد بکلینکهای طبیعی و خودداری از بهکارگیری کلمات کلیدی نامرتبط، استفاده میکنند. بهطورکلی در میان انواع الگوریتم های گوگل، این الگوریتم در حفظ کیفیت و اعتبار نتایج جستوجو نقش مهمی دارد و سایتهای باکیفیت را ترغیب میکند تا روشهای سئوی اصولی را مورد استفاده قرار دهند.
بر همین اساس مهمترین ویژگیها و اهداف الگوریتم Payday Update عبارتاند از:
• مبارزه با اسپم: کاهش رتبه و نمایش سایتهایی که از روشهای اسپم برای بهبود رتبهبندی خود استفاده میکنند، اصلیترین هدف این الگوریتم است.
• تمرکز بر صنایع پرریسک: این الگوریتم بهصورت تخصصی به موضوعاتی مانند: وامهای سریع، کازینوهای آنلاین، داروهای غیرمجاز و سایر صنایعی توجه دارد که معمولا هدف تکنیکهای سئوی اسپم هستند.
• افزایش کیفیت نتایج جستجو: با کاهش رتبههای سایتهای کمکیفیت، گوگل کیفیت نتایج جستوجو را افزایش داده و تجربه کاربری بهتری ارائه میکند.
الگوریتم کبوتر (Google Pigeon)
توصیه میکنم که در همین ابتدا به کبوتر نامه بر فکر کنید تا درک درستی از این الگوریتم داشته باشد. الگوریتم کبوتر ژوئن سال 2014 توسط شرکت گوگل معرفی شد که برای جستجوهای محلی طراحی شده است. این الگوریتم جدید به گوگل این امکان را میدهد که از بین نتایج مختلف، بهترین گزینه را از نظر موقعیت مکانی و جغرافیایی پیشنهاد دهد. در واقع الگوریتم کبوتراز قابلیت الگوریتم پیشنهاد گوگل، الگوریتم نمودار دانش، الگوریتم تشخیص زبان و همچنین الگوریتم مرغ مگسخوار خود استفاده میکند تا بهترین گزینه ممکن را با توجه به موقعیت مکانی جستجوگر، به او پیشنهاد دهد. این یکی از جامعترین و بهترین الگوریتم های گوگل در جستجوهای محلی است. برای کسب اطلاعات دقیقتر و کامل درباره الگوریتم کبوتر اینجا کلیک کنید.
الگوریتم Mobile-Friendly Update
یکی دیگر از الگوریتم های گوگل ، الگوریتم Mobile-Friendly Update است که در سال 2015 عرضه شد. هدف این بهروزرسانی ارتقای تجربه کاربری بر روی دستگاههای همراه بود و به دنبال این بود تا تاثیرگذاری بیشتری بر رتبهبندی نتایج جستجوی کاربرانی داشته باشد که از دستگاههای موبایل استفاده میکنند.
ویژگیها و اهداف الگوریتم Mobile-Friendly Update عبارتاند از:
• اولویت دستگاههای همراه: این الگوریتم با اولویت دادن به وبسایتهای بهینهشده برای دستگاههای موبایل، سعی دارد تا تجربه کاربری کاربران موبایل را بهبود دهد.
• بهبود تجربه کاربری: به دلیل استفاده از دستگاههای تلفن همراه برای جستجوی وب، این بهروزرسانی در سرعت بارگذاری و تطابق صفحات با اندازههای صفحه نمایش مختلف نقش دارد.
• تاثیر بر رتبهبندی: وبسایتهای بهینهشده برای دستگاههای همراه، معمولا در رتبهبندی جستجوها در دستگاههای موبایل بهتر عمل میکردند.
از سوی دیگر نحوه کار الگوریتم Mobile-Friendly Update این گونه است که نسخههای بهینهشده وبسایتها برای دستگاههای تلفن همراه را ارزیابی میکند و تشخیص میدهد. بر همین اساس مهمترین اثرات و ویژگیهای این الگوریتم عبارتاند از:
• استفاده از فاکتورهایی مانند سرعت لود، تطابق صفحه با اندازه دستگاه و سازگاری با فناوریهای مختلف تلفن همراه برای تعیین رتبه وبسایتها در نتایج موتورهای جستجو
• افزایش ترافیک موبایل
• بهبود نرخ تبدیل
• کاهش نرخ خروج
الگوریتم رنگ برین (Google RankBrain)
شرکت گوگل الگوریتم رنک برین را بدین شکل معرفی میکند که یک سیستم هوش مصنوعی یادگیری ماشین است که موتورهای جستجو را در ایجاد رابطه بین کلمات مختلف کمک کرده و نتایج را بهینه سازی میکند. کاری به معنی تحت اللفظی این الگوریتم نداریم و بیشتر میخواهیم عملکرد آنها را بررسی کنیم. فرض بگیرید که شما در مورد الگوریتم های گوگل جستجو میکنید. در الگوریتم رنک برین، نتایج مختلفی با توجه به این کلمه کلیدی بررسی میشود و نزدیکترین آنها را به شما پیشنهاد میدهد. در واقع، این الگوریتم مانع میشود که نتایج مربوط به خود کلمه گوگل یا خود کلمه الگوریتم در نتایج اصلی آورده شود تا کاربر نتایج را به صورت دقیق و مرتبط دریافت کند.
بین الگوریتم های گوگل، رنک برین که در سال 2015 ارائه شد، از شبکههای عصبی برای تحلیل و درک مفاهیم موجود در جستوجوها استفاده میکند.
بر همین اساس مهمترین ویژگیها و تاثیرات الگوریتم رنک برین عبارتاند از:
- استفاده از هوش مصنوعی برای شناخت رفتار جستجوی کاربران
- تجزیهوتحلیل جملات پیچیده و تطبیق مفاهیم با نیازهای کاربران
- بهبود دقت و سازگاری نتایج جستجو با موضوعات مورد علاقه کاربران
- ارائه پاسخهای بهتر و سریعتر به سوالات پیچیده
الگوریتم Mobilegeddon
شرکت گوگل با توجه به پیش بینیهایی که در مورد استفاده از گوشیهای هوشمند و روند رو به رشد کاربرد آنها داشته است، یک الگوریتم به همین موضوع اختصاص داده است. الگوریتم جدید Mobilegeddon در ماه آوریل سال 2015 پخش شد و وظیفه آن بررسی وب سایتهای مرتبط با تلفن همراه و محتوای آنهاست. در واقع این الگوریتم در نگاه کلی به وب سایت این نکته را مد نظر قرار میدهد که سایت مورد نظر تا چه اندازه متناسب با گوشیهای هوشمند و تبلتها طراحی شده است. حتماً بحث ریسپانسیو بودن طراحی سایت را شنیدهاید که دقیقاً برای تناسب با این الگوریتم مطرح شدهاست.
الگوریتم موش کور (Possum)
الگوریتم موش کور را میتوان نسخه بهبود یافته الگوریتم کبوتر معرفی کرد که در سپتامبر سال 2016 معرفی شد. این الگوریتم پا را فراتر گذاشته و محدوده جستجوهای محلی را بسیار کوچکتر کرده است. به عنوان مثال، این الگوریتم به شما این امکان داده میشود که کسب و کارهای خارج شهر را از کسبوکارهای داخل شهر تفکیک کنید. حتی با کمک این ابزار امکان تعیین مسافت تا محل مورد نظر نیز به جستجوگران داده میشوند. به طور کلی مزایای استفاده از الگوریتم موش کور در سه مورد خلاصه میشود:
• این الگوریتم مشاغل و کسب و کارهای خارج از محدوده شهری را نسبت به مشاغل داخل شهر تفکیک میکنند تا تناسب آنها با کلمه کلیدی بهتر باشد؛
• از این الگوریتم برای فیلتر کردن مکانهای نزدیک به هم و دارای آدرس یکسان استفاده میشود؛
• محل فیزیکی فرد جستجوگر یا تایپ کننده تأثیر زیادی بر نتایج دارد. این یعنی اگر شما در منطقه خاصی از تهران به دنبال رستوران بگردید، بدون شک الگوریتم موش کور شما را به سراغ گزینههایی میبرد که به منطقه مورد نظر نزدیکتر باشد.
الگوریتم پنگوئن نسخه 4
بروزرسانی و آپدیت کردن فقط به معنای معرفی نسخههای جدید نیست و میتوان الگوریتم های گوگل را با شیوههای مختلف به روز رسانی کرد. یکی از این موارد، الگوریتم پنگوئن 4 است که در سال 2016 و در سپتامبر معرفی شد. این نسخه از الگوریتم پنگوئن دو مزیت بزرگ دارد که یکی از آنها به کار بردن جستجوی زمان لحظهای در نتایج است. یعنی در این لحظه نتایج جستجو با 5 دقیقه دیگر ممکن است تفاوت داشته باشد.
همچنین در نسخه 4 این الگوریتم برای کسانی که در نسخههای قبلی متضرر شدهاند راهکارهایی پیشنهاد شده است که بتواند رتبههای قبلی خود را به دست میآورند. در واقع اگر این افراد یا وب سایتها اقدامات لازم برای پاکسازی لینکهای اسپم و دیدگاههای بدون هویت انجام دهند، به همان رتبه قبلی خود برمیگردند.
الگوریتم Intrusive Interstitial Penalty
ظهور الگوریتم Intrusive Interstitial Penalty در ماه ژانویه سال 2017 را میتوان بهترین خبر برای جستجوگران و بازدیدکنندگان در نظر گرفت. در حقیقت، این یکی از بهترین الگوریتم های گوگل برای ایجاد تجربه کاربری خوب و مناسب بین کاربران است. حتماً این تجربه را داشتهاید که با مراجعه به یک سایت، بلافاصله یک پاپ آپ باز میشود یا یک صفحه مزاحم جلوی چشم شما قرار میگیرد که حتماً باید آن را ببندید. این موضوع بارها و بارها تکرار میشود و در نتیجه کاربر از حضور در چنین سایتی پشیمان میشود.
گوگل برای جلوگیری از این موضوع، الگوریتم Intrusive Interstitial Penalty را معرفی کرده است. این الگوریتم سه دسته از وب سایتها را مجازات میکند:
- وب سایتهایی که دارای یک صفحه نمایش پنجرهای هستند که بلافاصله پس از ورود کاربر به وب سایت، باز شده و کاربر مجبور است که آن را ببندد؛
- وب سایتهایی که یک کادر و مستطیلی تبلیغاتی در جلوی چشم کاربر قرار میدهند و بازدیدکننده مجبور است که برای رسیدن به محتوای اصلی آن را رد کند؛
- وب سایتهایی که در بخش فوقانی صفحه اصلی خود یک کادر میگذارند که محتوای آن با محتوای اصلی وب سایت متفاوت است و ممکن است کاربر را از موضوع اصلی دور کند.
الگوریتم فرد (Google Fred)
به روز رسانی الگوریتم فرد در ماه مارس سال 2017 رخ داد. این الگوریتم بیشتر سایتهای را مورد هدف قرار میداد که کسب درآمد و تبلیغات را بیش از تجربه کاربران در اولویت خود قرار میدهند. استفاده از اسم فرد برای این الگوریتم توجیه خاصی ندارد و در واقع طراح آن، به نوعی از یک اسم شوخی و غیر رسمی برای آن استفاده کرده است.
وب سایتهایی با محتوای بیکیفیت، دارای لینکهای نامطلوب و نرخ تبدیل بیش از حد، پاپ آپ ها وشیوه های تبلیغاتی بیش از حد بر روی صفحه، به اصطلاح به دنبال کم کردن ترافیک ارگانیک و بردن کاربران به سمت انتقال بازدید هستند. جالب است بدانید که بعضی از این سایتها تا 90 درصد از ترافیک خود را به جاهای دیگر منتقل میکنند و از حربههایی مانند تبلیغات بنری و تبلیغات کلیکی استفاده میکند.
الگوریتم فرد به این وب سایتها اجازه کار نمیدهد و معتقد است که این موضوع به کاربران گوگل لطمه میزند. بنابراین، وب سایتهایی که از این شیوه استفاده میکنند، باید در انتظار مجازات گوگل باشند که همان پنالتی شدن است.
الگوریتم Google BROAD CORE
در 1 آگوست سال 2018، گوگل در توییتر تأیید کرد که در این هفته به روز رسانی الگوریتم های مرکزی به شکل گسترده انجام گرفته است. با وجود اینکه گوگل هر روز تغییراتی به صورت ریز و غیر محسوس در نتایج خود به وجود میآورد، اما برخی از آنها گستردهتر و متمرکزتر هستند. این مورد باعث میشود که الگوریتم های جدیدی به وجود بیایند که این الگوریتم نیز در بین آنها قرار میگیرد. کارایی الگوریتم Google BROAD CORE این است که هیچ کدام از وب سایتها محل امنی برای حضور ندارند و اگر یک وب سایت بتواند محتوای عالی و با کیفیت و البته «تخصصی» تولید کند، بدون توجه به رتبه سایت، میتواند خود را به بالاترین رتبه ممکن برساند.
الگوریتم Google MEDIC UPDATE الگوریتمی که در سال 2018 ارائه شد
این الگوریتم بخشی از الگوریتم اصلی Google BROAD CORE است که همزمان با آن شروع به کار کرده است. در ابتدا از این الگوریتم با عنوان Medic یاد میشد، زیرا بیشتر وب سایتهای مربوط به بخش پزشکی و بهداشتی را تحت تأثیر قرار میدهد. اما بعد از مدتی گوگل با تغییراتی در آن، اعلام کرد که حوزههای دیگر صنعتی و حقوقی را نیز توسط این الگوریتم تحت تأثیر قرار میدهد.
این در واقع یک ترفند از طرف گوگل برای تقویت سایتهای تخصصی است. اما میبینید که برای این یک مطلب پزشکی تخصصی وقتی جستجو میکنید، بیشتر وبلاگهایی بالا میآیند که رتبه بهتری دارند. با وجود الگوریتم Medic، این موضوع منتفی شده و شما برای هر بحث تخصصی به همان وبسایت تخصصی آن هدایت میشوید.
این الگوریتم از پارامترهای خاصی برای سنجش صحت و قابل اعتماد بودن محتواهای بهداشتی و پزشکی استفاده میکند.
مهمترین تاثیرات و ویژگیهای این الگوریتم عبارتاند از:
• تاکید بر صحت و قابل اعتماد بودن محتوا در حوزههای بهداشت، پزشکی و سلامت
• سنجش دقیقتر محتواهای مرتبط با بهداشت و درمان
• تغییرات قابل مشاهده در رتبهبندی نتایج جستجو برای صفحات بهداشتی و پزشکی
• جلب اعتماد کاربران به محتواهای پزشکی و بهداشتی
الگوریتم Neural Matching؛ یک الگوریتم کاربردی برای بهبود درک زبان طبیعی
الگوریتم Neural Matching توسط گوگل در سال 2018 معرفی شد. این الگوریتم یکی از تلاشهای موثر گوگل برای بهبود درک زبان طبیعی و ارائه نتایج جستجوی دقیقتر به کاربران است. الگوریتم Neural Matching با بهکارگیری تکنیکهای یادگیری عمیق و شبکههای عصبی به گوگل کمک میکند تا ارتباطات معنایی پیچیده بین کلمات و عبارات را درک کند و نتایجی را ارائه دهد که با مفهوم کلی سوال کاربران هماهنگتر هستند.
بین الگوریتم های گوگل، الگوریتم Neural Matching، با استفاده از شبکههای عصبی و تطابق معنایی پرسش و محتوا عملکرد خود را انجام میدهد. همچنین بهکارگیری این الگوریتم باعث افزایش دقت نتایج جستوجو، بهبود تجربه کاربری، پاسخدهی بهتر به جستجوهای پیچیده و درک بهتر زبان طبیعی میشود.
مهمترین ویژگیهای الگوریتم Neural Matching عبارتاند از:
• درک مفهومی پیشرفته: این الگوریتم از شبکههای عصبی برای تجزیهوتحلیل و درک ارتباطات مفهومی بین کلمات و عبارات استفاده میکند.
• تطابق معنایی: این الگوریتم به جای تکیه بر تطابق کلمات کلیدی، به تطابق معنایی بین پرسش و محتوا توجه میکند و نتایجی را ارائه میدهد که با مفهوم کلی پرسش سازگاری بیشتری دارند.
• کاربرد در جستجوهای محاورهای: در میان الگوریتم های گوگل این الگوریتم، بهطور ویژه در جستوجوهای محاورهای و پیچیده عملکرد بهتری دارد.
الگوریتم برت (Bert)
الگوریتم BERT (Bidirectional Encoder Representations from Transformers) از پیشرفتهای مهم در حوزه پردازش زبان طبیعی بود که توسط تیم Google AI در سال 2018 معرفی و در سال 2019 بهصورت عمومی منتشر شد. در بین الگوریتم های گوگل، این الگوریتم با بهکارگیری شبکههای عصبی ترنسفورمر و با بهرهمندی از آموزش تقویتی برای تحلیل دقیقتر جملات و متون پیچیده، خیلی زود توانست در کیفیت نتایج جستجو و پاسخدهی به سؤالات کاربران بهبود قابل توجهی باشد.
از مهمترین ویژگیهای الگوریتم برت میتوان به موارد زیر اشاره کرد:
• پردازش دوطرفه (Bidirectional): به این معنا که برت میتواند اطلاعاتی را از هر دو جهت (پیش به عقب و عقب به پیش) در یک جمله را در نظر بگیرد.
• آموزش تقویتی (Pre-training): این الگوریتم با کمک دادههای بزرگ مانند متنها و مقالات ویکی پدیا، بهصورت پیشینه آموزش میبیند. این آموزش به برت کمک میکند تا مفاهیم عمومی را از ترجمه، جملهسازی، پرسش و پاسخ و تحلیل متن استخراج کند.
• استفاده از مدل زبانی ترنسفورمر (Transformer-based): این زبان یک مدل عمیق عصبی برای پردازش زبان طبیعی است که به برنامهریزی موازی و دقیق درک و تولید متن کمک میکند.
• مدل زبانی پیشآموزشدیده (Pre-trained Language Model): این مدل بهعنوان یک مدل زبانی پیشآموزشدیده، توانایی بالایی در درک و تفسیر جملات و متنهای مختلف دارد.
الگوریتم E-A-T؛ از مفاهیم کلیدی در بهروزرسانیهای الگوریتم گوگل
یکی دیگر از انواع الگوریتم های گوگل، E-A-T است. این مفهوم مخفف سه واژه تخصص (Expertise)، اعتبار (Authoritativeness) و اعتمادپدیری (Trustworthiness) میباشد که بر کیفیت و اعتبار محتوا تاکید دارد. این الگوریتم بهویژه برای سایتهای تخصصی و حساسی مانند: سایتهای بهداشتی، پزشکی، مالی و قانونی مورد استفاده قرار میگیرد..
مفهوم E-A-T در ابتدا در دستورالعملهای رتبهبندی کیفیت جستجوی گوگل معرفی و با گذشت زمان به یکی از اصول اساسی الگوریتم های گوگل تبدیل شد. بهبود کیفیت محتوا، افزایش اعتماد کاربران و کاهش اطلاعات نادرست، تاثیرات این الگوریتم بر بهبود رتبهبندی نتایج جستوجو است. بااینحال الگوریتم E-A-T برای این که تولید محتوای تخصصی و دقیق، نمایش اعتبار و تخصص و افزایش شفافیت و اعتماد را در درجه اول اهمیت قرار میدهد.
نتیجهگیری
پس میبینیم که روند رشد الگوریتم های گوگل بیشتر به سود کاربران و برای به دست آوردن مطالب مرتبط است. در حقیقت، گوگل این موضوع را در نظر گرفته که اکثر جستجوگران، افرادی با سطح دانش معمولی هستند که تنها کلید واژه را وارد میکنند و با جستجوی تخصصی آشنایی ندارند. حالا باید منتظر بمانیم تا ببینیم که گوگل در سالهای بعدی چه تغییراتی در الگوریتم های خود به وجود میآورد.
ترتیب پیشنهادی مدیر وب برای یادگیری الگوریتمهای گوگل
- قدم اول: آشنایی با الگوریتم های گوگل و تاثیر آن بر نتایج جستجو (اکنون اینجا هستید)
- قدم دوم: جدیدترین الگوریتمهای گوگل چگونه کار میکند و الگوریتمها چقدر مهم هستند؟
- قدم سوم: فایل صوتی سئو و آشنایی با الگوریتم های گوگل
- قدم چهارم: کتاب سئو و الگوریتم های گوگل
- قدم پنجم: صفر تا صد الگوریتم پاندا و نحوه رفع جریمه گوگل پاندا
- قدم ششم: هر آنچه باید از الگوریتم پنگوئن بدانید
- قدم هفتم: الگوریتم مرغ مگس خوار، مهمترین الگوریتم گوگل را کامل بشناسید
- قدم هشتم: الگوریتم Mobile First Index چیست و چطور سایتمان را برای آن آماده سازیم؟
- قدم نهم: الگوریتم گورخر گوگل و تاثیر آن بر روی فروشگاه های اینترنتی
- قدم دهم: الگوریتم کبوتر گوگل چیست و چه تاثیری بر رتبه سایت شما دارد؟
- قدم یازدهم: الگوریتم دزدان دریایی چگونه با دزدی محتوا مقابله می کند؟
- قدم دوازدهم: الگوریتم فرشنس گوگل چه تاثیری بر سئو سایت دارد؟
- قدم سیزدهم: راهنمای جامع الگوریتم رنک برین به زبان ساده
- قدم چهاردهم: رقص گوگل چیست و چه تاثیری بر SEO دارد؟
- قدم پانزدهم: آپدیت فرد چیست و چطور سایت خود را با آن سازگار کنیم؟
- قدم شانزدهم: آشنایی با گوگل برت (Google BERT)؛ هدف از توسعه این الگوریتم چیست؟
- قدم هفدهم: همه چیز درباره آپدیت الگوریتم فلوریدا 2 گوگل و تاثیرش بر وبسایتها
- قدم هجدهم: گوگل پنالتی چیست؛ راهنمای کامل رفع جریمههای گوگل
میانگین امتیاز 4.9 / 5. تعداد آرا: 25
5 دیدگاه برای “الگوریتم های گوگل | بررسی الگوریتمهای مهم گوگل از نظر تاریخی و عملکرد”
ممنون از مطلب خوبتون
مرسی از شما
خواهش میکنم خوشحالیم که براتون مفید بوده.
عالی
سپاس فراوان