،

الگوریتم های گوگل | بررسی الگوریتم‌های مهم گوگل از نظر تاریخی و عملکرد

الگوریتم های گوگل

دسترسی سریع به محتوای این مقاله

4.9
(25)

اخیراً یکی دیگر از الگوریتم های گوگل تحت عنوان Google MEDIC UPDATE منتشر شده است و این نشان می‌دهد که گوگل مدام در حال به روز رسانی الگوریتم های خود است. این الگوریتم‌ها به گوگل کمک می‌کنند که نسبت به مطالب و شرایط مختلف عکس العمل نشان داده و بهترین شرایط برای کاربران به وجود بیاورد. البته یکی از دیدگاه‌های اشتباهی که در مورد الگوریتم های گوگل وجود دارد این است که اکثر کاربران و وبمستران فکر می‌کنند که هر کدام از این الگوریتم‌ها یک سیستم مجزا بوده که همیشه بر روی گوگل باقی می‌مانند.
این در حالی است که هر کدام از این الگوریتم‌ها یک آپدیت یا بروز رسانی از سیستم کلی گوگل است، که با وجود باقی ماندن آپدیت‌های قبلی، یک آپدیت جدید به آن اضافه می‌شود. به منظور درک بیشتر این موضوع و آشنایی شما با الگوریتم های گوگل، مروری کلی بر همه الگوریتم های به وجود آمده از سال 2003 تا کنون خواهیم داشت و نشان خواهیم داد که هر کدام از این الگوریتم‌ها با چه هدفی به وجود آمده‌اند.

 

 

الگوریتم های گوگل چه هستند؟

قبل از هر چیزی باید بدانیم که الگوریتم های گوگل چه هستند و با چه سیستمی کار می‌کنند؟ بطور کلی الگوریتم به یک سیستم ریاضی گفته می‌شود که در جریان آن می‌توان چند موضوع دیگر را تعریف کرد و آنها را به نتیجه رساند. به عنوان مثال، فرض بگیرید که فردی می‌خواهد به یک آدرس مشخص برسد، اگر این فرد از شما بپرسد که از چه مسیری عبور کند، می‌توانیم پیشنهاد پیاده رفتن، استفاده از مترو و همچنین استفاده از اتوبوس را که سه پیشنهاد متفاوت است، به او ‌دهیم. هر سه روش او را به مقصد می‌رساند و تنها زمان رسیدن در هر کدام از آنها متفاوت است. ما می‌توانیم اسم هر کدام از این مسیرها را یک الگوریتم بنامیم.
الگوریتم‌های گوگل به همین شیوه عمل می‌کنند و به کاربران این نکته را نشان می‌دهند که نحوه رسیدن به بهترین رتبه در گوگل به چه صورت است. تفاوتی که در این الگوریتم‌ها وجود دارد این است که او در مورد آن‌ها اطلاعات چندانی بروز نمی‌دهد تا وبمسترها فقط بر روی آنها متمرکز نشوند. این موضوع باعث می‌شود که همیشه کاربر و بازدیدکننده در اولویت قرار گیرد و مطالب مناسب دریافت کند. حالا برویم تا تک‌تک الگوریتم‌ها را با هم بشناسیم.

 

 

 

 

الگوریتم پیج رنک (PageRank)؛ اولین الگوریتم‌ گوگل

اولین الگوریتم اصلی گوگل که در سال 1998 ارائه شد، الگوریتم پیج رنک بود. این الگوریتم بر اساس اهمیت و اعتبار صفحات و متناسب با تعداد و کیفیت لینک‌ها به آن‌ها، صفحات را رتبه‌بندی می‌کرد. برای گرفتن پیج رنک بالا باید توجه داشت که تعداد بک لینک‌ها بیش از حد، غیر مرتبط و اسپم شده نباشد. نحوه کار این الگوریتم به این صورت است که میزان ارتباطات پیوندی و جایگاه نسبی هر صفحه را بر اساس پیوندهای ورود محاسبه می‌کند.

مهم‌ترین ویژگی‌ها و اثرات پیج رنک عبارت‌اند از:
• بررسی اهمیت صفحات بر اساس تعداد و کیفیت پیوندها به آن‌ها
• به‌کارگیری الگوریتم ماتریس واکنش‌گرا برای محاسبه رتبه‌بندی
• افزایش اهمیت صفحات با پیوندهای ورودی معتبر
• تشویق به ساخت پیوندهای طبیعی و ارتباطات محتوایی

 

الگوریتم بوستون (Google Boston)

الگوریتم بوستون به عنوان اولین آپدیت و بروزرسانی الگوریتم های گوگل بود که در سال 2003 در یک کنفرانس علمی مهندسی ارائه شد. این الگوریتم، تصمیم گرفت که در روند بررسی، مطالب را به صورت ماهانه یا حتی زودتر انجام دهد. در گام‌های بعدی تغییراتی در این الگوریتم بوجود آمد که در جریان آن مطالب به صورت روزانه بررسی می‌شد و کاربران به فکر انتشار روزانه محتوا در وب سایت خود بودند.

 

الگوریتم فلوریدا (Google Florida)

این الگوریتم در ماه نوامبر سال 2003 منتشر شد و به نوعی وبمسترهای آن زمان را تحت تأثیر قرار داد. در واقع در این الگوریتم به وبمسترها نشان داده شد که از چه تکنیکی برای جذب ترافیک ارگانیک استفاده کند. به عنوان مثال، استفاده از کلمات کلیدی یا حتی استفاده از لینک‌های داخلی و خارجی مواردی بود که در این الگوریتم رنگ واقعیت به خود گرفت.

در بین الگوریتم های گوگل، الگوریتم فلوریدا از اولین به‌روزرسانی‌های مهم گوگل بود که تاثیرات قابل توجهی در رتبه‌بندی و مقابله با تکنیک‌های سئو غیرقانونی (spamming)به وجود آورد. همچنین اجرای به‌روزرسانی‌ها برای بهبود کیفیت نتایج جستجو و افزایش عدالت شیوه کار این الگوریتم است.
بر همین اساس مهم‌ترین ویژگی‌ها و تاثیرات الگوریتم فلوریدا عبارت‌اند از:
• بهبود وضعیت رتبه‌بندی و مقابله با تکنیک‌های سئو غیرقانونی
• تغییر در الگوریتم‌های رتبه‌بندی برای ارتقای کیفیت نتایج جستجو
• تغییرات وسیع در رتبه‌بندی وب‌سایت‌ها
• بهبود کارایی و دقت نتایج جستجو

 

الگوریتم شخصی سازی نتایج جستجو (Google Personalized Search)

این الگوریتم در ژوئن سال 2005 از طرف گوگل منتشر شد و در آن کاربران می‌توانستند از تاریخچه‌ جستجوی خود برای جستجوهای جدید استفاده کنند. در واقع، تلاش‌ها و جستجوهای قبلی کاربران در این الگوریتم ذخیره شده و گوگل در جستجوهای بعدی این موارد را به آنها نشان می‌داد. این الگوریتم نشان دهنده دسترسی گوگل برای اولین بار به تاریخچه جستجوی کاربران است.

 

 

 

الگوریتم جستجوی کلی (Google Universal Search)

این الگوریتم در ماه می سال 2007 برای سهولت کاربران گوگل راه‌اندازی شد و می‌توان آن را به عنوان یکی از بهترین به‌روزرسانی‌های گوگل در نظر گرفت. تا قبل از به وجود آمدن این الگوریتم، کاربران به هنگام جستجو، نتایجی شامل تصاویر، اخبار، کتاب‌ها و موارد مشابه دریافت می‌کردند. این در حالی است که الگوریتم جستجوی کلی باعث تفکیک هر کدام از این نتایج بود و ما از این تاریخ به بعد می‌توانیم اخبار، تصاویر گوگل یا هر مطلب متفرقه دیگری را به صورت مجزا بگیریم. تصویر زیر نشان می‌دهد که منظور این الگوریتم چیست.

 

الگوریتم جستجوی کلی

 

الگوریتم پیشنهاد گوگل (Google Suggest)

پس از 4 سال استفاده آزمایشی، بالاخره الگوریتم پیشنهاد گوگل در آگوست سال 2008 راه اندازی شد. در این الگوریتم، تمرکز بر روی استفاده از عبارات کلیدی یا همان کوئری (Query) بود. این الگوریتم به کاربران کمک می‌کرد که علاوه بر کلمه یا عبارت کلیدی خود، کلمات کلیدی محبوب را نیز ببیند و از بین آنها گزینه‌های بهتر را انتخاب کنند. این الگوریتم به عنوان مقدمه برای الگوریتم Google Instant بود که در سال 2010 پیشنهاد شد و نوع پیشرفته دیگری از الگوریتم های گوگل است.

 

الگوریتم کافئین (Google Caffeine)

تا قبل از به وجود آمدن الگوریتم کافئین، سیستم ارائه محتوا در گوگل و نتایج جستجو به صورت لایه لایه بود که فقط سایت‌های دارای رتبه بالاتر در همان جستجوی اول نشان داده می‌شدند و اغلب سایت‌های جدید دیده نمی‌شدند. گوگل برای حمایت از وب سایت‌های جدید و وب سایت‌های ضعیف‌تر، در سال 2009 یک الگوریتم به نام الگوریتم کافئین معرفی کرد که راه اندازی آن به ژوئن 2010 موکول شد. در این سیستم دیگر خبری از لایه بندی بودن سایت‌ها با توجه به قیمت آنها نبود و در حقیقت جستجوی کاربران به صورت کلی و در بین همه سایت‌ها انجام می‌گرفت.

از مهم‌ترین الگوریتم های گوگل می‌توان به الگوریتم Caffeine اشاره کرد. بهبود سرعت، کارایی و به‌روزرسانی نتایج جستجوی گوگل هدف اصلی این الگوریتم بود. با این به‌روزرسانی، گوگل توانایی بیشتری برای افزایش سرعت نمایه‌سازی صفحات وب خزنده پیدا کرد و توانست نتایج جست‌وجو را با محتوای تازه‌تر و به‌روزتری ارائه دهد. همچنین نحوه کار این الگوریتم به این صورت است که از خزش مستمر، نمایه‌سازی قطعه‌ای و تکنولوژی‌های پیشرفته برای بهبود عملکرد خود استفاده می‌کند.

مهم‌ترین ویژگی‌ها و تاثیرات الگوریتم Caffeine عبارت‌اند از:
• سرعت بالاتر نمایه‌سازی
• ساختار پایگاه داده جدید
• به‌روزرسانی مداوم
• بهبود سرعت نمایش نتایج
• افزایش حجم نمایه‌سازی
• پشتیبانی از محتوای جدید و به‌روز

 

الگوریتم پاندا (Google Panda)

الگوریتم پاندا در ابتدا با نام Farmer منتشر شد که به نوعی به صورت غیرمستقیم ریز شدن گوگل در مزارع محتوا و ارائه یک محتوای با کیفیت توسط وی را نشان می‌داد. اما در هر صورت این الگوریتم در سال 2011 با نام رسمی پاندا ارائه شد که نام آن از نام مهندس سازنده الگوریتم برگرفته شده است. در حقیقت این الگوریتم در پاسخ به تعداد روز افزون شکایت جامعه جهانی به سایت‌های با محتوای بی‌کیفیت ساخته شد. پاندا عمدتاً به سراغ سایت‌هایی با محتوای ضعیف می‌رود که مطالب سایر سایت‌ها را کپی کرده و به عنوان محتوای خود منتشر می‌کنند. الگوریتم پاندا یکی از مهم‌ترین ابزارهای بود که با هدف مبارزه با نتایج جستجوی خاکستری یا همان سئو کلاه خاکستری به وجود آمد.

به‌طورکلی الگوریتم Panda بر روی کیفیت محتوا تاکید می‌کند و در جلوگیری از محتوای کپی‌شده، محتوای پر از کلمات کلیدی و محتوای کیفیت پایین نقش مهمی دارد. پاندا این طور کار می‌کند که الگوریتم‌های تشخیصی را برای سنجش کیفیت و ارزش محتوا مورد استفاده قرار می‌دهد.
تاثیرات و ویژگی‌های الگوریتم پاندا عبارت‌اند از:
• تاثیر بر کیفیت محتوا با کاهش محتوای کپی‌شده و پر از کلمات کلیدی
• سنجش کیفیت محتوا بر اساس ارزش اضافی برای کاربران
• افزایش کیفیت محتوا و بهبود تجربه کاربری
• کاهش ترافیک به وب‌سایت‌های کپی‌شده یا پر از کلمات کلیدی

 

 

الگوریتم پاندا

 

الگوریتم پنگوئن (Google Penguin)

الگوریتم پنگوئن را می‌توان الگوریتم تراشکار گوگل معرفی کرد که هدف اصلی آن کاهش رتبه بندی سایت‌هایی بود که از طریق غیر قانونی و با نقض دستورالعمل‌های کیفی گوگل خود را به رتبه‌های بالاتر رسانده بودند. این الگوریتم در ماه آوریل سال 2012  منتشر شد و هنوز هم به عنوان یکی از مهمترین اصول کار گوگل شناخته می‌شود.
اصولاً سایت‌هایی که از تکنیک‌های مختلف مانند روش‌های اسپم، به کار بردن بیش از حد کلمات کلیدی و همچنین لینک‌های غیرقانونی استفاده می‌کنند، آمار بازدیدها و ترافیک و ارگانیک را کاهش می‌دهند. این به روزرسانی در الگوریتم های گوگل سایت‌های مختلف استفاده کننده از سئو کلاه سیاه را به شدت مجازات می‌کند. بنابراین وبمسترها مجبور هستند که سایت‌هایی با کیفیت محتوای بالا ایجاد کنند و تجربیات مثبتی در اختیار کاربران قرار دهند تا تجربه کاربری وب سایت نیز رشد کند.
به طور کلی، مبارزه با لینک‌های به دست آمده از سایت‌های اسپم، تشخیص لینک‌های پولی و یا کلیک‌های خریداری شده و همچنین تشخیص بهینه سازی بیش از حد، از نقاط قوت پنگوئن هستند. در واقع در بین الگوریتم های گوگل، پنگوئن در بهبود کیفیت لینک‌ها و جلوگیری از استفاده از لینک‌های نامناسب و لینک‌های خریداری‌شده نقش دارد. برای این کار از الگوریتم‌های تحلیلی برای تشحیص لینک‌های نامناسب و تاثیر آن‌ها بر رتبه‌بندی استفاده می‌کند.
بر همین اساس ویژگی‌‌ها و اثرات الگوریتم پنگوئن عبارت‌اند از:
• ارزیابی و بهبود کیفیت لینک‌ها و جلوگیری از استفاده از لینک‌های نامناسب
• مقابله با لینک‌های خریداری‌شده یا ایجاد شده به طور افتراقی
• کاهش تاثیر لینک‌های نامناسب بر رتبه‌بندی وب‌سایت
• افزایش اعتماد به لینک‌های طبیعی و معتبر

الگوریتم پنگوئن

الگوریتم Google Knowledge Graph

این مورد از الگوریتم های گوگل به این دلیل راه اندازی شده که کاربران و جستجوگران خیلی راحت‌تر و سریع به اطلاعات علمی دسترسی داشته باشد. الگوریتم Google Knowledge Graph در ماه می سال 2012 معرفی شد و روال کار آن بدین صورت است که‌ یک نمودار از اطلاعات در سمت راست نتایج به کاربر نشان می‌دهد. گوگل اعلام کرده است که این الگوریتم به درک بهتر جستجوگران از جهان واقعی و روابط آنها با یکدیگر کمک می‌کند. جالب است بدانید که این الگوریتم در هنگام راه‌اندازی، اطلاعات مربوط به 500 میلیون شی خاص و همچنین اطلاعات درباره ارتباط بین سه و نیم میلیارد مورد مختلف را، به‌طور کامل داشته است.
برای درک این موضوع توصیه می‌کنم که کلمه مدیر وب را در گوگل سرچ کنید. نتایج جستجو علاوه بر اطلاعات و موارد معمولی که در هر حالتی نشان داده می‌شوند، یک نمودار مجزا در سمت راست را نیز نمایش می‌دهد که به عنوان اطلاعات تکمیلی به شما داده می‌شود. این اطلاعات معمولاً شامل آدرس، نوع کسب و کار و حوزه فعالیت کلمه کلیدی جستجو شده است.

 

 لیست کامل الگوریتم های گوگل

 

الگوریتم‌ Pirate Update

الگوریتم Pirate Update اولین بار در آگوست 2012 توسط گوگل معرفی شد. این الگوریتم با هدف مقابله با نقض حقوق مولف و کپی‌رایت در نتایج جستجوی گوگل طراحی گردید. تمرکز اصلی الگوریتمPirate Update بر روی سایت‌هایی است که محتوای محافظت شده را بدون اجازه صاحب حق نشر توزیع می‌کنند.

به‌طورکلی ویژگی‌ها، اهداف و تاثیرات الگوریتم Pirate Update عبارت‌اند از:

مبارزه با نقض کپی‌رایت: اصلی‌ترین هدف این الگوریتم کاهش رتبه و نمایش سایت‌هایی است که محتوای محافظت شده توسط کپی‌رایت را بدون مجوز منتشر می‌کنند.
پاسخ به درخواست‌های حذف محتوا: این الگوریتم به درخواست‌های حذف محتوای DMCA توجه ویژه‌ای دارد که از سوی صاحبان حقوق ارسال می‌شود.
کاهش ترافیک سایت‌های نقض‌کننده کپی‌رایت: الگوریتم Pirate Update به کاهش ترافیک سایت‌های متخلف و در نتیجه کاهش تعداد بازدیدکنندگان آن‌ها کمک می‌کند.
کاهش رتبه سایت‌های ناقض کپی‌رایت: سایت‌های گزارش شده به دلیل نقض مقررات حقوق مولف، کاهش در رتبه خود مشاهده می‌کنند و در نتایج جست‌وجوی گوگل کمتر دیده می‌شوند.
حمایت از حقوق صاحبان محتوا: این الگوریتم مانع از دسترسی آسان به محتوای غیر قانونی می‌شود

علاوه بر این، در میان انواع الگوریتم های گوگل، نحوه کار الگوریتم Pirate Update نیز متفاوت است. این الگوریتم با تحلیل و ارزیابی درخواست‌های DMCA، حذف لینک‌های غیرقانونی و کاهش رتبه سایت‌های متخلف، مانع از ضایع شدن حق مولفان و تولیدکنندگان محتوای یونیک می‌شود.

 

الگوریتم مرغ مگس خوار (Google Hummingbird)

به مرور زمان، گوگل متوجه شد که عکس العمل جستجوگران نسبت به کوئری ها بسیار خاص و منحصر به فرد است و ترجیحاً آنها به شکلی است که فقط به سراغ یک عبارت یا چند کلمه مربوطه بروند. این موضوع نشان می‌داد که کاربران نسبت به نتایج جستجو حساسیت بالایی دارند و ترجیح می‌دهند که نتایج بسیار نزدیک‌تر و دقیق‌تر باشد. بنابراین یکی دیگر از الگوریتم های گوگل تحت عنوان الگوریتم مرغ مگس خوار در سال 2013 منتشر شد.
این الگوریتم نسبت به مدل‌های قبلی تغییر آن چنانی و بسیار بزرگی نداشت، اما توانایی آن بسیار مهم و تاثیرگذار بود که باعث جلب رضایت کاربران می‌شد. جستجو‌های گوگل نشان می‌دهد که استفاده از الگوریتم مرغ مگس خوار تقریباً نزدیک به 90 درصد از نتایج جستجو را تحت تأثیر قرار داده و نتایج بهینه شده را به کاربران عرضه می‌کنند.
الگوریتم مرغ مگس خوار، مدل‌های مفهومی را برای درک جملات و مفاهیم موجود در جست‌وجو مورد استفاده قرار می‌دهد.
بر همین اساس ویژگی‌‌ها و اثرات الگوریتم مرغ مگس خوار عبارت‌اند از:
• تجزیه و تحلیل مفهومی جستجوها به جای جست‌وجوی صرف کلمات کلیدی
• بهبود سازگار بودن محتوا با نیازهای کاربران و درک بهتر از جملات و مفاهیم
• ارائه نتایج دقیق‌تر و مطابق با خواست کاربران
• بهبود تجربه جستجو و افزایش رضایتمندی کاربران

برای آشنایی بیشتر با الگوریتم مرغ مگس خوار اینجا کلیک کنید.

 

 

 

 

Google Hummingbird

 

الگوریتم Payday Update

الگوریتم Payday Update که در ژوئن 2013 معرفی شد، با هدف کاهش رتبه سایت‌های اسپم و کمتر کردن نمایش محتوای کم‌کیفیت و مزاحم در نتایج جستجوی گوگل در اختیار کاربران قرار گرفت. این به‌روزرسانی به طور ویژه بر سایت‌هایی تمرکز دارد تکنیک‌های سئوی اسپم را برای رتبه‌بندی بالای و‌ب‌سایت‌های خود استفاده می‌کنند.

بسیاری از وب‌مسترها برای جلوگیری از تاثیرات منفی الگوریتم Payday Update، از روش‌های سئوی سفید، مانند: تولید محتوای با کیفیت، بهینه‌سازی سایت برای کاربران، ایجاد بک‌لینک‌های طبیعی و خودداری از به‌کارگیری کلمات کلیدی نامرتبط، استفاده می‌کنند. به‌طورکلی در میان انواع الگوریتم های گوگل، این الگوریتم در حفظ کیفیت و اعتبار نتایج جست‌وجو نقش مهمی دارد و سایت‌های باکیفیت را ترغیب می‌کند تا روش‌های سئوی اصولی را مورد استفاده قرار دهند.
بر همین اساس مهم‌ترین ویژگی‌ها و اهداف الگوریتم Payday Update عبارت‌اند از:
• مبارزه با اسپم: کاهش رتبه و نمایش سایت‌هایی که از روش‌های اسپم برای بهبود رتبه‌بندی خود استفاده می‌کنند، اصلی‌ترین هدف این الگوریتم است.
• تمرکز بر صنایع پرریسک: این الگوریتم به‌صورت تخصصی به موضوعاتی مانند: وام‌های سریع، کازینوهای آنلاین، داروهای غیرمجاز و سایر صنایعی توجه دارد که معمولا هدف تکنیک‌های سئوی اسپم هستند.
• افزایش کیفیت نتایج جستجو: با کاهش رتبه‌های سایت‌های کم‌کیفیت، گوگل کیفیت نتایج جست‌وجو را افزایش داده و تجربه کاربری بهتری ارائه می‌کند.

 

الگوریتم کبوتر (Google Pigeon)

توصیه می‌کنم که در همین ابتدا به کبوتر نامه بر فکر کنید تا درک درستی از این الگوریتم داشته باشد. الگوریتم کبوتر ژوئن سال 2014 توسط شرکت گوگل معرفی شد که برای جستجوهای محلی طراحی شده است. این الگوریتم جدید به گوگل این امکان را می‌دهد که از بین نتایج مختلف، بهترین گزینه را از نظر موقعیت مکانی و جغرافیایی پیشنهاد دهد. در واقع الگوریتم کبوتراز قابلیت الگوریتم پیشنهاد گوگل، الگوریتم نمودار دانش، الگوریتم تشخیص زبان و همچنین الگوریتم مرغ مگس‌خوار خود استفاده می‌کند تا بهترین گزینه ممکن را با توجه به موقعیت مکانی جستجوگر، به او پیشنهاد دهد. این یکی از جامع‌ترین و بهترین الگوریتم های گوگل در جستجوهای محلی است. برای کسب اطلاعات دقیق‌تر و کامل درباره الگوریتم کبوتر اینجا کلیک کنید.

 

الگوریتم Mobile-Friendly Update

یکی دیگر از الگوریتم های گوگل ، الگوریتم Mobile-Friendly Update است که در سال 2015 عرضه شد. هدف این به‌روزرسانی ارتقای تجربه کاربری بر روی دستگاه‌های همراه بود و به دنبال این بود تا تاثیرگذاری بیشتری بر رتبه‌بندی نتایج جستجوی کاربرانی داشته باشد که از دستگاه‌های موبایل استفاده می‌کنند.

ویژگی‌ها و اهداف الگوریتم Mobile-Friendly Update عبارت‌اند از:
• اولویت دستگاه‌های همراه: این الگوریتم با اولویت دادن به وب‌سایت‌های بهینه‌شده برای دستگاه‌های موبایل، سعی دارد تا تجربه کاربری کاربران موبایل را بهبود دهد.
• بهبود تجربه کاربری: به دلیل استفاده از دستگاه‌های تلفن همراه برای جستجوی وب، این به‌روزرسانی در سرعت بارگذاری و تطابق صفحات با اندازه‌های صفحه نمایش مختلف نقش دارد.
• تاثیر بر رتبه‌بندی: وب‌سایت‌های بهینه‌شده برای دستگاه‌های همراه، معمولا در رتبه‌بندی جستجوها در دستگاه‌های موبایل بهتر عمل می‌کردند.
از سوی دیگر نحوه کار الگوریتم Mobile-Friendly Update این گونه است که نسخه‌های بهینه‌شده وب‌سایت‌ها برای دستگاه‌های تلفن همراه را ارزیابی می‌کند و تشخیص می‌دهد. بر همین اساس مهم‌ترین اثرات و ویژگی‌های این الگوریتم عبارت‌اند از:
• استفاده از فاکتورهایی مانند سرعت لود، تطابق صفحه با اندازه دستگاه و سازگاری با فناوری‌های مختلف تلفن همراه برای تعیین رتبه وب‌سایت‌ها در نتایج موتورهای جستجو
• افزایش ترافیک موبایل
• بهبود نرخ تبدیل
• کاهش نرخ خروج

 

الگوریتم Mobile-Friendly Update

 

الگوریتم رنگ برین (Google RankBrain)

شرکت گوگل الگوریتم رنک برین را بدین شکل معرفی می‌کند که یک سیستم هوش مصنوعی یادگیری ماشین است که موتورهای جستجو را در ایجاد رابطه بین کلمات مختلف کمک کرده و نتایج را بهینه سازی می‌کند. کاری به معنی تحت اللفظی این الگوریتم نداریم و بیشتر می‌خواهیم عملکرد آنها را بررسی کنیم. فرض بگیرید که شما در مورد الگوریتم های گوگل جستجو می‌کنید. در الگوریتم رنک برین، نتایج مختلفی با توجه به این کلمه کلیدی بررسی می‌شود و نزدیک‌ترین آنها را به شما پیشنهاد می‌دهد. در واقع، این الگوریتم مانع می‌شود که نتایج مربوط به خود کلمه گوگل یا خود کلمه الگوریتم در نتایج اصلی آورده شود تا کاربر نتایج را به صورت دقیق و مرتبط دریافت کند.

بین الگوریتم های گوگل، رنک برین که در سال 2015 ارائه شد، از شبکه‌های عصبی برای تحلیل و درک مفاهیم موجود در جست‌وجوها استفاده می‌کند.

بر همین اساس مهم‌ترین ویژگی‌ها و تاثیرات الگوریتم رنک برین عبارت‌اند از:

  • استفاده از هوش مصنوعی برای شناخت رفتار جستجوی کاربران
  • تجزیه‌وتحلیل جملات پیچیده و تطبیق مفاهیم با نیازهای کاربران
  • بهبود دقت و سازگاری نتایج جستجو با موضوعات مورد علاقه کاربران
  • ارائه پاسخ‌های بهتر و سریع‌تر به سوالات پیچیده

 

الگوریتم رنگ برین

 

الگوریتم Mobilegeddon

شرکت گوگل با توجه به پیش بینی‌هایی که در مورد استفاده از گوشی‌های هوشمند و روند رو به رشد کاربرد آنها داشته است، یک الگوریتم به همین موضوع اختصاص داده است. الگوریتم جدید Mobilegeddon در ماه آوریل سال 2015 پخش شد و وظیفه آن بررسی وب سایت‌های مرتبط با تلفن همراه و محتوای آنهاست. در واقع این الگوریتم در نگاه کلی به وب سایت این نکته را مد نظر قرار می‌دهد که سایت مورد نظر تا چه اندازه متناسب با گوشی‌های هوشمند و تبلت‌ها طراحی شده است. حتماً بحث ریسپانسیو بودن طراحی سایت را شنیده‌اید که دقیقاً برای تناسب با این الگوریتم مطرح شده‌است.

 

الگوریتم موش کور (Possum)

الگوریتم موش کور را می‌توان نسخه بهبود یافته الگوریتم کبوتر معرفی کرد که در سپتامبر سال 2016 معرفی شد. این الگوریتم پا را فراتر گذاشته و محدوده جستجوهای محلی را بسیار کوچک‌تر کرده است. به عنوان مثال، این الگوریتم به شما این امکان داده می‌شود که کسب و کارهای خارج شهر را از کسبوکارهای داخل شهر تفکیک کنید. حتی با کمک این ابزار امکان تعیین مسافت تا محل مورد نظر نیز به جستجوگران داده می‌شوند. به طور کلی مزایای استفاده از الگوریتم موش کور در سه مورد خلاصه می‌شود:
• این الگوریتم مشاغل و کسب و کارهای خارج از محدوده شهری را نسبت به مشاغل داخل شهر تفکیک می‌کنند تا تناسب آنها با کلمه‌ کلیدی بهتر باشد؛
• از این الگوریتم برای فیلتر کردن مکان‌های نزدیک به هم و دارای آدرس یکسان استفاده می‌شود؛
• محل فیزیکی فرد جستجوگر یا تایپ کننده تأثیر زیادی بر نتایج دارد. این یعنی اگر شما در منطقه خاصی از تهران به دنبال رستوران بگردید، بدون شک الگوریتم موش کور شما را به سراغ گزینه‌هایی می‌برد که به منطقه مورد نظر نزدیک‌تر باشد.

 

 

 

 

الگوریتم موش کور

 

 

الگوریتم پنگوئن نسخه 4

بروزرسانی و آپدیت کردن فقط به معنای معرفی نسخه‌های جدید نیست و می‌توان الگوریتم های گوگل را با شیوه‌های مختلف به روز رسانی کرد. یکی از این موارد، الگوریتم پنگوئن 4 است که در سال 2016 و در سپتامبر معرفی شد. این نسخه از الگوریتم پنگوئن دو مزیت بزرگ دارد که یکی از آنها به کار بردن جستجوی زمان لحظه‌ای در نتایج است. یعنی در این لحظه نتایج جستجو با 5 دقیقه دیگر ممکن است تفاوت داشته باشد.
همچنین در نسخه 4 این الگوریتم برای کسانی که در نسخه‌های قبلی متضرر شده‌اند راهکارهایی پیشنهاد شده است که بتواند رتبه‌های قبلی خود را به دست می‌آورند. در واقع اگر این افراد یا وب سایت‌ها اقدامات لازم برای پاکسازی لینک‌های اسپم و دیدگاه‌های بدون هویت انجام دهند، به همان رتبه قبلی خود برمیگردند.

 

الگوریتم Intrusive Interstitial Penalty

ظهور الگوریتم Intrusive Interstitial Penalty در ماه ژانویه سال 2017 را می‌توان بهترین خبر برای جستجوگران و بازدیدکنندگان در نظر گرفت. در حقیقت، این یکی از بهترین الگوریتم های گوگل برای ایجاد تجربه کاربری خوب و مناسب بین کاربران است. حتماً این تجربه را داشته‌اید که با مراجعه به یک سایت، بلافاصله یک پاپ آپ باز می‌شود یا یک صفحه مزاحم جلوی چشم شما قرار می‌گیرد که حتماً باید آن را ببندید. این موضوع بارها و بارها تکرار می‌شود و در نتیجه کاربر از حضور در چنین سایتی پشیمان می‌شود.
گوگل برای جلوگیری از این موضوع، الگوریتم Intrusive Interstitial Penalty را معرفی کرده است. این الگوریتم سه دسته از وب سایت‌ها را مجازات می‌کند:

  • وب سایت‌هایی که دارای یک صفحه نمایش پنجره‌ای هستند که بلافاصله پس از ورود کاربر به وب سایت، باز شده و کاربر مجبور است که آن را ببندد؛
  • وب سایت‌هایی که یک کادر و مستطیلی تبلیغاتی در جلوی چشم کاربر قرار می‌دهند و بازدیدکننده مجبور است که برای رسیدن به محتوای اصلی آن را رد کند؛
  • وب سایت‌هایی که در بخش فوقانی صفحه اصلی خود یک کادر می‌گذارند که محتوای آن با محتوای اصلی وب سایت متفاوت است و ممکن است کاربر را از موضوع اصلی دور کند.

 

معرفی الکوریتم های گوگل

 

الگوریتم فرد (Google Fred)

به روز رسانی الگوریتم فرد در ماه مارس سال 2017 رخ داد. این الگوریتم بیشتر سایت‌های را مورد هدف قرار می‌داد که کسب درآمد و تبلیغات را بیش از تجربه کاربران در اولویت خود قرار می‌دهند. استفاده از اسم فرد برای این الگوریتم توجیه خاصی ندارد و در واقع طراح آن، به نوعی از یک اسم شوخی و غیر رسمی برای آن استفاده کرده است.
وب سایت‌هایی با محتوای بی‌کیفیت، دارای لینک‌های نامطلوب و نرخ تبدیل بیش از حد، پاپ آپ ها وشیوه های تبلیغاتی بیش از حد بر روی صفحه، به اصطلاح به دنبال کم کردن ترافیک ارگانیک و بردن کاربران به سمت انتقال بازدید هستند. جالب است بدانید که بعضی از این سایت‌ها تا 90 درصد از ترافیک خود را به جاهای دیگر منتقل می‌کنند و از حربه‌هایی مانند تبلیغات بنری و تبلیغات کلیکی استفاده می‌کند.
الگوریتم فرد به این وب سایت‌ها اجازه کار نمی‌دهد و معتقد است که این موضوع به کاربران گوگل لطمه می‌زند. بنابراین، وب سایت‌هایی که از این شیوه استفاده می‌کنند، باید در انتظار مجازات گوگل باشند که همان پنالتی شدن است.

 

 

الگوریتم Google BROAD CORE

در 1 آگوست سال 2018، گوگل در توییتر تأیید کرد که در این هفته به روز رسانی الگوریتم های مرکزی به شکل گسترده انجام گرفته است. با وجود اینکه گوگل هر روز تغییراتی به صورت ریز و غیر محسوس در نتایج خود به وجود می‌آورد، اما برخی از آنها گسترده‌تر و متمرکزتر هستند. این مورد باعث می‌شود که الگوریتم های جدیدی به وجود بیایند که این الگوریتم نیز در بین آنها قرار می‌گیرد. کارایی الگوریتم Google BROAD CORE این است که هیچ کدام از وب سایت‌ها محل امنی برای حضور ندارند و اگر یک وب سایت بتواند محتوای عالی و با کیفیت و البته «تخصصی» تولید کند، بدون توجه به رتبه سایت، می‌تواند خود را به بالاترین رتبه ممکن برساند.

 

الگوریتم Google MEDIC UPDATE الگوریتمی که در سال 2018 ارائه شد

این الگوریتم بخشی از الگوریتم اصلی Google BROAD CORE است که همزمان با آن شروع به کار کرده است. در ابتدا از این الگوریتم با عنوان Medic یاد می‌شد، زیرا بیشتر وب سایت‌های مربوط به بخش پزشکی و بهداشتی را تحت تأثیر قرار می‌دهد. اما بعد از مدتی گوگل با تغییراتی در آن، اعلام کرد که حوزه‌های دیگر صنعتی و حقوقی را نیز توسط این الگوریتم تحت تأثیر قرار می‌دهد.
این در واقع یک ترفند از طرف گوگل برای تقویت سایت‌های تخصصی است. اما می‌بینید که برای این یک مطلب پزشکی تخصصی وقتی جستجو می‌کنید، بیشتر وبلاگ‌هایی بالا می‌آیند که رتبه بهتری دارند. با وجود الگوریتم Medic، این موضوع منتفی شده و شما برای هر بحث تخصصی به همان وبسایت تخصصی آن هدایت می‌شوید.

این الگوریتم از پارامترهای خاصی برای سنجش صحت و قابل اعتماد بودن محتواهای بهداشتی و پزشکی استفاده می‌کند.
مهم‌ترین تاثیرات و ویژگی‌های این الگوریتم عبارت‌اند از:
• تاکید بر صحت و قابل اعتماد بودن محتوا در حوزه‌های بهداشت، پزشکی و سلامت
• سنجش دقیق‌تر محتواهای مرتبط با بهداشت و درمان
• تغییرات قابل مشاهده در رتبه‌بندی نتایج جستجو برای صفحات بهداشتی و پزشکی
• جلب اعتماد کاربران به محتواهای پزشکی و بهداشتی

 

الگوریتم گوگل Google MEDIC UPDATE

 

الگوریتم Neural Matching؛ یک الگوریتم کاربردی برای بهبود درک زبان طبیعی

الگوریتم Neural Matching توسط گوگل در سال 2018 معرفی شد. این الگوریتم یکی از تلاش‌های موثر گوگل برای بهبود درک زبان طبیعی و ارائه نتایج جستجوی دقیق‌تر به کاربران است. الگوریتم Neural Matching با به‌کارگیری تکنیک‌های یادگیری عمیق و شبکه‌های عصبی به گوگل کمک می‌کند تا ارتباطات معنایی پیچیده بین کلمات و عبارات را درک کند و نتایجی را ارائه دهد که با مفهوم کلی سوال کاربران هماهنگ‌تر هستند.
بین الگوریتم های گوگل، الگوریتم Neural Matching، با استفاده از شبکه‌های عصبی و تطابق معنایی پرسش و محتوا عملکرد خود را انجام می‌دهد. همچنین به‌کارگیری این الگوریتم باعث افزایش دقت نتایج جست‌وجو، بهبود تجربه کاربری، پاسخ‌دهی بهتر به جستجوهای پیچیده و درک بهتر زبان طبیعی می‌شود.
مهم‌ترین ویژگی‌های الگوریتم Neural Matching عبارت‌اند از:
• درک مفهومی پیشرفته: این الگوریتم از شبکه‌های عصبی برای تجزیه‌و‌تحلیل و درک ارتباطات مفهومی بین کلمات و عبارات استفاده می‌کند.
• تطابق معنایی: این الگوریتم به جای تکیه بر تطابق کلمات کلیدی، به تطابق معنایی بین پرسش و محتوا توجه می‌کند و نتایجی را ارائه می‌دهد که با مفهوم کلی پرسش سازگاری بیشتری دارند.
• کاربرد در جستجوهای محاوره‌ای: در میان الگوریتم های گوگل این الگوریتم، به‌طور ویژه در جست‌وجوهای محاوره‌ای و پیچیده عملکرد بهتری دارد.

 

الگوریتم‌ برت (Bert)

الگوریتم BERT (Bidirectional Encoder Representations from Transformers) از پیشرفت‌های مهم در حوزه پردازش زبان طبیعی بود که توسط تیم Google AI در سال 2018 معرفی و در سال 2019 به‌صورت عمومی منتشر شد. در بین الگوریتم های گوگل، این الگوریتم با به‌کارگیری شبکه‌های عصبی ترنسفورمر و با بهره‌مندی از آموزش تقویتی برای تحلیل دقیق‌تر جملات و متون پیچیده، خیلی زود توانست در کیفیت نتایج جستجو و پاسخ‌دهی به سؤالات کاربران بهبود قابل توجهی باشد.
از مهم‌ترین ویژگی‌های الگوریتم برت می‌توان به موارد زیر اشاره کرد:
• پردازش دوطرفه (Bidirectional): به این معنا که برت می‌تواند اطلاعاتی را از هر دو جهت (پیش به عقب و عقب به پیش) در یک جمله را در نظر بگیرد.
• آموزش تقویتی (Pre-training): این الگوریتم با کمک داده‌های بزرگ مانند متن‌ها و مقالات ویکی پدیا، به‌صورت پیشینه آموزش می‌بیند. این آموزش به برت کمک می‌کند تا مفاهیم عمومی را از ترجمه، جمله‌سازی، پرسش و پاسخ و تحلیل متن استخراج کند.
• استفاده از مدل زبانی ترنسفورمر (Transformer-based): این زبان یک مدل عمیق عصبی برای پردازش زبان طبیعی است که به برنامه‌ریزی موازی و دقیق درک و تولید متن کمک می‌کند.
• مدل زبانی پیش‌آموزش‌دیده (Pre-trained Language Model): این مدل به‌عنوان یک مدل زبانی پیش‌آموزش‌دیده، توانایی بالایی در درک و تفسیر جملات و متن‌های مختلف دارد.

 

الگوریتم‌ برت (Bert)

 

الگوریتم E-A-T؛ از مفاهیم کلیدی در به‌روزرسانی‌های الگوریتم گوگل

یکی دیگر از انواع الگوریتم های گوگل، E-A-T است. این مفهوم مخفف سه واژه تخصص (Expertise)، اعتبار (Authoritativeness) و اعتمادپدیری (Trustworthiness) می‌باشد که بر کیفیت و اعتبار محتوا تاکید دارد. این الگوریتم به‌ویژه برای سایت‌های تخصصی و حساسی مانند: سایت‌های بهداشتی، پزشکی، مالی و قانونی مورد استفاده قرار می‌گیرد..
مفهوم E-A-T در ابتدا در دستورالعمل‌های رتبه‌بندی کیفیت جستجوی گوگل معرفی و با گذشت زمان به یکی از اصول اساسی الگوریتم های گوگل تبدیل شد. بهبود کیفیت محتوا، افزایش اعتماد کاربران و کاهش اطلاعات نادرست، تاثیرات این الگوریتم بر بهبود رتبه‌بندی نتایج جست‌وجو است. بااین‌حال الگوریتم E-A-T برای این که تولید محتوای تخصصی و دقیق، نمایش اعتبار و تخصص و افزایش شفافیت و اعتماد را در درجه اول اهمیت قرار می‌دهد.

 

نتیجه‌گیری

پس می‌بینیم که روند رشد الگوریتم های گوگل بیشتر به سود کاربران و برای به دست آوردن مطالب مرتبط است. در حقیقت، گوگل این موضوع را در نظر گرفته که اکثر جستجوگران، افرادی با سطح دانش معمولی هستند که تنها کلید واژه را وارد می‌کنند و با جستجوی تخصصی آشنایی ندارند. حالا باید منتظر بمانیم تا ببینیم که گوگل در سال‌های بعدی چه تغییراتی در الگوریتم های خود به وجود می‌آورد.

 

ترتیب پیشنهادی مدیر وب برای یادگیری الگوریتم‌های گوگل

 

میانگین امتیاز 4.9 / 5. تعداد آرا: 25

5 دیدگاه برای “الگوریتم های گوگل | بررسی الگوریتم‌های مهم گوگل از نظر تاریخی و عملکرد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *