46000400916

با ما در تماس باشـید

الگوریتم های گوگل 25 الگوریتم معروف گوگل

کلیات الگوریتمهای گوگل

یکی از غولهای تکنولوژِی دنیا بدون شک همین موتور جست و جو گر گوگل هست چیزی که تونسته اونو به این جایگاه عظیم و بالا برسونه و در مقابل رقیب قدرتمندی مثل یاهو پیروز کنه و به این موقعیت برسونه که اول موتور جست و جوگر باشه همین آپدیت همیشگی و به روز نگه داشتن خودش هست. این آپدیت نگه داشتن میسر نیست مگر با استفاده از مکانیزمهای اتوماتیک و تکنولوژیهای روز که گوگل این مکانیزمهای اتوماتیک و تکنولوژی رو در قالب الگوریتم های گوگل در دستور کار قرار داده است.

گوگل روزانه بیش از 4 میلیارد جستجو را انجام میده و به پر استفاده ترین وب سایت جهان و برجسته ترین موتور جستجو از نظر حجم جستجو تبدیل میکنه. گوگل سالانه هزاران به روز رسانی الگوریتم را برای بهبود تجربه کاربری، برای مخاطبان در حال رشد خود و ماندن در صدر سایتهای جهان اعلام کرد.الگوریتمهایی که همیشه آپدیت میشن و برای بهبود عملکرد موتور جست و جو به تعداد آنها از زمان اولین الگوریتم تا حالا اضافه شده است.

برای فراگیری بازاریابی آنلاین حتما روی عبارت “دیجیتال مارکتینگ حرفه ای” کلیک کنید.

در بین این الگورتمها قطعا هستند اونهایی که اهمیت بالاتری دارند اما این نباید به منزله بی اهمیت بودن بقیه باشه. اصلا با این تفکر که کدام مهمتر و کدام کم اهمیت تر هست این محتوای عالی رو نخونید. همه مهم هستند و همه باید جدی گرفته بشوند.اما برخی موارد هم هستن که شاید برای کسب و کار شما زیاد مهم نباشه چون نحوه عملکرد اون الگوریتم گوگل محدود به مکان یا زمان خاصی هست.

مثلا الگوریتم کبوتر که مربوط به سرچ محلی هست برای سایتی که بیس اطلاعات عمومی داره اندازه یک فروشگاه و یک سایت خدماتی که در لوکیشن خاصی قرار داره اهمیت نداره. این یک نمونه کوچیک که باید کارایی همه را بشناسیم. بریم برای بررسی کامل که در پایان این محتوا باید کامل تمام الگوریتم های گوگل را بصورت دقیق شناخته باشید.

الگوریتم های گوگل چیست؟

الگوریتم های گوگل مجموعه قوانینی هستن که گوگل برای رتبه بندی وب سایت ها در نتایج جستجو استفاده میکنه. سیستم پیچیده گوگل داده ها را از صفحات بازیابی میکنه و به دنبال درک آنچه جستجوگران به دنبال آن هستن و رتبه بندی صفحات بر اساس ارتباط و کیفیت و کارائی محتواهای ارائه شده.

اما چگونه گوگل تصمیم گرفت که کدام نتایج را به شما نشون بده و به چه ترتیبی؟

گوگل الگوریتم و ساز و کار بسیار پیچیده ای برای ارائه نتایج جستجو داره و تغییرات نسبتاً زیادی در طی زمان هم داره. و اگرچه این شرکت الگوریتم دقیقی رو عمومی نمیکنه، سئو مثبت در این پست عالی الگوریتمهای گوگل را آورده و همچنین چند عنصر وجود داره که می دونیم به طور واقعی و ملموس بر توانایی صفحه برای نمایش در نتایج برای کلمات کلیدی خاص تأثیر دارند:

  • وجود کلمات کلیدی اصلی در عنوان اصلی
  • تگ های هدر و توضیحات متا
  • تعداد پیوندهای ارگانیک و طبیعی به صفحه ( بک لینک )
  • رسپانسیو بودن سایت و عملکرد آن در موبایل و دستگاه های کوچکتر از سایز دسکتاپ
  • کاربردی و اصولی بودن محتوا
  • محتواهای یونیک و ارزشمند

البته، اینها تنها برخی از ویژگی هایی که الگوریتم گوگل هنگام تعیین نحوه ارائه و رتبه بندی صفحات بررسی میکنه. احتمالاً ده ها، نه صدها مورد دیگه وجود داره. مواری که قبلا دویست مورد تاثیر گذار در سئو خوانده میشدند و حالا و با آپدیتهای اخیر این تعداد خیلی از این عدد فراتر هم رفته.

و اما گوگل چگونه تعیین میکنه که کدام صفحات رتبه بالاتر بگیرند؟

همانطور که الگوریتم گوگل یک صفحه وب را میخزد و “خوانده” میکنه، یک مقدار عددی از پیش تعیین شده را برای هر صفت و عنوانی که امتیاز برای صفحه محسوب میشود را که در صفحه جستجو میکند، تجویز میکنه. سپس آن مقدار عددی به نتیجه نهایی اضافه میشه. بنابراین، صفحه وب که مطلوب ترین امتیاز و صفات را داره به بالای رتبه بندی صفحه ارتقا می یابه زیرا الگوریتم به اون اهمیت بیشتری میده.

به زبان ساده هرچه بیشتر المانهای سئو در یک صفحه رعایت بشه امتیاز بیشتری به صفحه تعلق میگیره و نهایت در نمره پایانی اثر بیشتری گذاشته و با مقایسه نسبت به رقبایی که در همان کلمات محتوا دارن رتبه بندیها انجام میشوند.

این محاسبات توسط پلتفرم گوگل بسیار سریع انجام میشه و رتبه بندی ممکنه در نوسان باشه زیرا توسعه دهندگان وب ویژگی هایی را که در رتبه بندی صفحات در یک وب سایت یا در یک صفحه نقش دارن، دستکاری می کنن.

بنابراین، رتبه‌بندی‌هایی که توسط الگوریتم‌های گوگل تخصیص داده میشن سیال هستن. صفحه ای که برای یک کلمه کلیدی در رتبه سوم قرار می گیره، ممکنه با تغییر محتوای آن و سایر صفحات در نتایج، به رتبه اول صعود یا دهم سقوط کنه. معمولاً مشاغلی که بهینه سازی موتور جستجو یا SEO را در سایت خود بهتر انجام میدن، رتبه های برتر را در اختیار دارن .

سئو مثبت میتواند این تضمین را به مخاطبین و کارفرمایان خود بدهد که بصورت تضمینی میتواند رتبه های برتر گوگل را برای شما بدست آورد فقط کافیست به تیم ما اعتماد کنید.

الگوریتم گوگل برای سئو چیست؟

همانطور که قبلا ذکر شد، الگوریتم گوگل تا حدی از کلمات کلیدی برای تعیین رتبه بندی صفحات استفاده میکنه. بهترین راه برای رتبه بندی برای کلمات کلیدی خاص، انجام سئو هست. سئو در اصل راهیه که به گوگل بگید یک وب سایت یا صفحه وب در مورد یک موضوع خاصه.

سال‌ها پیش، برای بسیاری از سایت‌ها عادی بود که در محتوای خودشون زیاد از کلمه کلیدی استفاده کنن. در اصل، آنها تصور می کردن که الگوریتم گوگل فکر میکنه که هر چه تعداد کلمات کلیدی بیشتری نوشته بشه، صفحه باید اهمیت بیشتری داشته باشه.

هنگامی که گوگل متوجه این موضوع شد، الگوریتم خودشو تغییر داد تا سایت هایی را که صفحات خود را با کلمات کلیدی پر می کنن و همچنین بسیاری از روش های سئو کلاه سیاه استفاده می کردن رو جریمه کنه. به همین دلیل، باید از هر گونه تاکتیکی که با هدف پیشی گرفتن از موتورهای جستجو انجام میشه، اجتناب کنید. اگرچه ممکنه فورا متوجه نشن، اما گوگل در نهایت آنچه را که می‌خواهید انجام بدهید که قوانین و الگوریتمها را دور بزنید را متوجه میشود و در نهایت رتبه شما آسیب خواهد دید یا اگر از روشهای غیر مجاز یا همون سئو کلاه سیاه زیاد استفاده کرده باشید کلا از نتایج حذف خواهید شد.

اما آنچه که مهمه و بعنوان الگوریتم گوگل برای سئو سئوال میشه اینه که الگوریتمها در یکی یا دوتا الگوریتم گوگل خلاصه نمیشوند و نخواهند شد و برای هر المان و ویژگی الگوریتم مربوطه عمل خواهد کرد پس برای همین سئو هم باید مجموعه ای از روشها و تکنیکهایی باشه که در جهت و هم سو با قوانین همین الگوریتمهای گوگل باشد.

آینده الگوریتم گوگل چیست؟

گوگل به ندرت نشونه ای از تغییرات در الگوریتم های خود ارائه میده، مگر اینکه این تغییرات عمده باشن. تغییرات کوچکتر در داخل ایجاد میشه و معمولاً جز به صورت امواج کوچکتر احساس نمیشه. این امری حیاتی است که با اعلامیه های الگوریتم گوگل همراه باشید، اما به همان اندازه مهمه که الگوریتم ها رو گول نزنید یا سعی نکنید دورش بزنید.

در عوض، ضروریه که به سادگی قدرت الگوریتم گوگل را بپذیرید و سعی کنید بهترین وب سایت ممکن را تولید کنید. در نتیجه، بازدیدکنندگان از آنچه می بینند خرسند خواهند شد، که همیشه یک سیگنال رتبه بندی مثبته.

انواع مختلف الگوریتم های گوگل چیست و چگونه بر نتایج جستجو تاثیر میذارن؟

خوب تا اینجا باید با الگوریتمهای گوگل آشنایتی پیدا کرده باشید و از این به بعد بهتره که مورد معرفی و بررسی قرار بگیرند. گوگل از الگوریتم های مختلفی برای اصلاح و بهبود نتایج جستجوی خود استفاده میکنه. در اینجا سعی شده تمام الگوریتمهای گوگل آورده بشه که یک محتوای ارزشمند، مرجع و قابل اتکا برای شما تهیه کرده باشیم. این جدول را در خاطر داشته باشید که بعد از آن همه را بررسی خواهیم کرد.

ردیفالگوریتم گوگلسال ایجاد
1پیج رنک PageRank 1998
2رقص گوگل Google Dance2004
3جعبه شن Google Sandbox2004
4تپه Hilltop Algorithm2004
5کافئین Caffeine2010
6پاندا Panda 2011
7فرشنس(تازه گی) Freshness 2011
8ونیز Venice 2012
9دزد دریایی Pirate2012
10EMD (Exact Match Domain) 2012
11پنگوئن Penguin 2012
12پیج لی اوت Page Layout2012
13گور خر Zebra2013
14مرغ مگس خوار Hummingbird 2013
15ضد اسپم و فیشینگ Payday Loan2013
16کبوتر Pigeon 2014
17موبایل فرندلی Mobilegeddon 2015
18رنک برین Rank Brain2015
19موش کور Possum 2016
20فرد Fred 2017
21 مدیک یا طبی Medic 2018
22برت BERT 2018
23موبایل فرست ایندکس Mobile First Index 2019
24سند راهنمای ارزیاب‌های جستجوی گوگل E-E-A-T 2019
25چند وجهی (MUM (Multitasking United Model2021
26محصولات دست اول Product Reviews2021
27محتوای مفید Helpful Content2022

1. الگوریتم پیج رنک گوگل:

این یکی از اولین الگوریتم های گوگل بود که برای رتبه بندی صفحات وب بر اساس تعداد و کیفیت لینک هایی که به آنها اشاره می کنن طراحی شده بود.گوگل برای اینکه در ابتدای کار خود و در رقابت با موتور قدرتمندی چون یاهو بتونه رقابت کنه از این الگوریتم استفاده کرد.

نحوه کار به این شکل بود که نمره ای به هر سایتی اختصاص داده میشد و بر اساس اون رتبه بندی صفحات انجام میشد. مدیران سایتها قادر بودند که پیج رنک سایت خودشون رو مشاهده کنند اما گوگل تصمیم گرفت که از دسترس کاربران خارج کنه و شاید استفاده نکنه.

اما با توجه به تحقیقاتی که انجام شده گوگل هنوز در هسته خود این الگوریتم رو داره اما دیگه عمومی نیست. این الگوریتم هم المانهای مختلفی داشت که اون المانها هر کدوم در الگوریتمهای بعدی بصورت خیلی قویتر و حرفه ای تر موجود هستند. دلیل عنوان کردن الگوریتم گوگل پیج رنک این بود که آشنایی ابتدایی با یکی از اولین الگوریتمهای گوگل داشته باشید.

2. رقص گوگل

تصور کنید که یک پست وبلاگی به قدری مفید و غنی از  کلمات کلیدی بسازید که عملاً از گوگل التماس کنید که آن را با رتبه های برتر پر کنه. گوگل میگه: «مستقیم با شما به بالا». شما انتشار را فشار دهید، منتظر بمانید و سپس شاهد آشکار شدن عجیب ترین ناهنجاری باشید. صفحه وب شما که به تازگی ایجاد شده ، سفری عجیب را آغاز می کنه یک روز به اوج می رسه و روزی دیگر به اعماق صفحات نتایج موتورهای جستجو سقوط می کنه.

با عقل جور در نمی آید. چگونه این پدیده را توضیح دهیم؟ دو کلمه: رقص گوگل. اجازه بده

در اوایل دهه 2000، زمانی که گوگل به‌روزرسانی‌های الگوریتم را عرضه می‌کرد یا خواه ناخواه در الگوریتم‌های موجود خود تغییرات اساسی ایجاد می‌کرد، باعث نوسانات SERP (نوسانات سریع در رتبه‌بندی) شد. در نتیجه، نام “رقص” گرفت.

امروزه، از آنجایی که گوگل به‌روزرسانی‌های افزایشی را اجرا می‌کنه که ظاهراً نوسانات قبلی را ایجاد نمی‌کنن، رقص SERPها باید کمرنگ می‌شد. با این حال، اعداد دروغ نمی گویند. نوسانات SERP هنوز بسیار زنده و خوب است. برای دیدن این بازی فقط باید به سال گذشته، 2023 نگاه کنید.

سال 2023 عمدتاً توسط به‌روزرسانی محتوای مفید و به‌روزرسانی نظرات تعریف شد. هر دو پیامدهای بزرگی برای بسیاری از جایگاه‌ها داشتن (و همچنان دارند)، اما شاید هیچ جایگاهی به اندازه وب‌سایت‌های وابسته آسیب ندیده باشه. سال 2023 واقعا سال وحشتناکی برای سایت های وابسته بود.

وبگاه‌های وابسته: یک درگاه وب که علاوه بر CMS خود، اطلاعات بقیهٔ ارائه دهندگان خدمات را به ازای دریافت مبلغی در اختیار کاربران قرار می‌دهند. معمولاً سه ارتباط اصلی قابل تصور است. موسسات وابسته مانند cj.com، دفترهای تبلیغاتی هم‌چون ebay.com و مصرف‌کنندگان مثل یاهو.(ویکی پدیا)

از طرفی یک تعریف دیگری برای الگوریتم گوگل دنس یا رقص گوگل هم متصور هستند که خود گوگل عمدا این کار را انجام میده که رتبه های مختلف و جایگاه های مختلفی در نتایج سرپ(SERP) به صفحات مختلف میده تا عملکرد آنها رو ببینه و هر کدام در نتایج بالاتر عملکرد بهتری داشتند وضعیت استیبلی و ماندگاری به آن صفحه در نتیجه بالا داده بشود.

الگوریتم گوگل دنس کی فعال است؟

گوگل دنس یا رقص گوگل بر اساس تجربه در اوایل انتشار یک صفحه و یا یک سایت بسیار فعال هست و تغییر در رتبه ها در دو روز متوالی هم بسیار زیاد هست. این پروسه ممکنه از چند روز تا حتی یکی دوماه طول بکشه و بعد از بررسیهای مختلف وضعیت ثبات به صفحه و سایت داده بشود . اگه موفق به کسب رتبه خوب و بالا شدید و عملکرد خوبی از خودتون نمایش دادید احتمالا در همان رتبه ها خواهید ماند. و اینم بسته به رفتار کار در مواجهه با سایت و صفحات شما در نتایج و بعد از کلیک کردن هست.

3. اگوریتم گوگل سند باکس Google Sandbox

اصطلاح Google Sandbox به مجموعه‌ای از الگوریتم‌های ادعایی اشاره می‌کنه که وب‌سایت‌های تازه ایجاد شده را از رتبه‌بندی خوب در SERP‌های Google برای یک دوره زمانی خاص، صرف نظر از اینکه محتوا و صفحات وب آن‌ها با کیفیت بالا و بهینه‌سازی شده هستند، محدود می‌کنه. در واقع در زمان سند باکس سرف نظر از هر مطلب و محتوا و کیفیت گوگل فقط اجازه به فعالیت در قعر نتایج را به شما میده.

مفهوم Google Sandbox  در سال 2004 رایج شد و از آن زمان برای بسیاری از وب سایت هایی که نیاز به رتبه بندی در جستجوی Google ASAP داشتد، نگران کننده شد.

ایده پشت این مفهوم اینه که هر وب‌سایت جدید تحت یک «دوره آزمایشی» قرار می‌گیره که در طی آن اجازه رتبه‌بندی خوبی نداره. دوره Sandbox ممکنه از چند هفته تا چند ماه طول بکشه (مهم نیست چقدر برای بهینه سازی صفحات خود تلاش می کنید): پس از اتمام این دوره، رتبه سایت باید بهبود یابد. 

به دلیل نگرانی هایی مانند این، طبیعی است که ممکن است در مورد وب سایت خود و اینکه آیا ممکن است تحت تأثیر Google Sandbox قرار گیرد یا خیر، نگران باشید. بیایید اکنون نگاهی گذرا به پیامدهای بالقوه SEO Google Sandbox (در تئوری) بیندازیم. 

چرا Google Sandbox اینقدر نگران کننده است؟

دلیل اصلی نگرانی بسیاری از صاحبان وب سایت و سئوکاران در مورد دوره Sandbox صرفاً به این دلیل است که ممکنه از همان ابتدا (و برای مدتی طولانی) از رسیدن به اهداف تجاری و سئوی خود جلوگیری کنه.

به طور کلی، دو دسته وب‌سایت وجود داره که می‌تواند تحت تأثیر Google Sandbox قرار بگیره.

وب‌سایت‌های جدید: هر وب‌سایت تازه ایجاد شده باید Google Sandbox را برای مدت زمان مشخصی تجربه کنه. 

وب سایت های غیر فعال : برخی افراد ادعا می‌کنندکه Google Sandbox ممکنه حتی بر وب‌سایت‌های قدیمی که برای مدتی طولانی چیزی جدید منتشر نکردن(اما سپس شروع به ایجاد محتوای جدید کردن) تأثیر بذاره.

4. تپه Hilltop Algorithm

الگوریتم تپه یا hilltop چیست

الگوریتم تپه گوگل یا هیلتاپ توسط Krishna Bharat در دانشگاه تورنتو توسعه پیدا کرد. هیلتاپ یکی از مهم‌ترین الگوریتم‌های ارائه شده توسط کمپانی گوگل است که در سال 2003 به دنیای وب معرفی شد. این الگوریتم، از همان ابتدا روی نحوه عملکرد سئو سایت‌ها تاثیر بسیاری گذاشت و بعد از گذشت مدت زمانی طولانی همچنان به عنوان یک الگوریتم مهم گوگل روی امتیاز‌دهی و رتبه‌بندی سایت‌ها تاثیر گذار می‌باشد

تاثیر الگوریتم تپه گوگل بر سئو سایت

هدف از ارائه الگوریتم تپه، بررسی اعتبار صفحات وب بر اساس محتوا و اطلاعات داخل آن‌ها و همچنین لینک‌های خارجی سایت‌ها می‌باشد. در واقع این الگوریتم با ارزیابی کیفیت محتوا‌های صفحات وب و صحت و واقعی بودن لینک‌ها، اعتبار یا عدم اعتبار وب‌سایت‌ها را تعیین می‌کند و به رتبه‌بندی آن‌ها می‌پردازد.

سازندگان الگوریتم تپه معتقد هستند که نقل قول از محتوا یک صفحه وب در وب‌سایت‌های مرجع نشان‌دهنده اعتبار آن صفحه‌می‌باشد. به اعتقاد توسعه دهنده الگوریتم تپه یا هیلتاپ، هر چه تعداد لینک‌های خارجی از یک صفحه وب در صفحات مرجع بیشتر باشد، میزان اعتبار آن صفحه افزایش پیدا می‌کند.

عملکرد الگوریتم تپه در بررسی لینک‌ها

برای اعتبارسنجی صفحات وب، لازم است لینک‌سازی‌ها توسط سایت‌های مرجع مستقل ایجاد شده باشند و هیچ‌گونه ارتباط بین سایت‌های نقل قول کننده با صفحه لینک شده مجاز نمی‌باشد. به بیانی ساده‌تر اگر وبسایت X برای بالا بردن اعتبار خود سعی داشته باشد تا لینک‌های خارجی را از طریق سایت‌هایی متعلق به خود ایجاد نماید، هرگز موفق به دریافت امتیاز از الگوریتم تپه نمی شود. الگوریتم تپه با دقت فراوان هرگونه ارتباط مخفیانه بین وبسایت‌ها را تشخیص می‌دهد و سایت مذکور که اقدام به دور زدن الگوریتم می‌کند را جریمه می‌نماید.

برای کسب امتیاز بالا توسط الگوریتم تپه، بهترین راه تولید محتوای باکیفیت، منحصر به فرد و معتبر است. روند دریافت بک‌لینک از سایت‌های مرجع باید روندی طبیعی داشته باشند و براساس محتوای معتبر موجود در صفحات صورت گرفته شوند. بنابراین صاحبان سایت برای افزایش رتبه سایت خود به‌جای استفاده از روش‌های نادرست و سئو کلاه سیاه، بهتر است بر کیفیت محتوا موجود در صفحات وب تمرکز داشته باشند. (منبع ابزار وردپرس)

5. الگوریتم گوگل کافئین

Google Caffeine به‌روزرسانی بزرگی برای الگوریتم جستجوی Google بود که در سال 2010 راه‌اندازی شد. این الگوریتم برای بهبود سرعت و دقت نتایج جستجوی Google با ترکیب فناوری‌های جدید طراحی شده بود که به Google اجازه می‌داد سریع‌تر و کارآمدتر صفحات وب را خزیده، فهرست‌بندی و رتبه‌بندی کنه.

یکی از ویژگی های اصلی Google Caffeine توانایی آن در پردازش اطلاعات در زمان واقعی بود. این بدان معنیه که محتوای جدید یا به روز شده وب سایت می تونه تقریباً بلافاصله در نتایج جستجو نمایه بشه و نمایش داده بشه و تجربه جستجو را سریعتر و مرتبط تر برای کاربران کنه.

Google Caffeine همچنین تعدادی بهبود دیگر را در الگوریتم جستجوی Google معرفی کرد، از جمله فهرست بندی بهتر تصاویر و ویدیوها، پشتیبانی بهتر از فرمت های رسانه غنی، و درک جامع تر از عبارت های جستجو و هدف کاربر.

6. الگوریتم پاندا گوگل:

گوگل پاندا را به عنوان یک فیلتر در 24 فوریه 2011 منتشر کرد تا کیفیت محتوا را محدود کنه. بعداً، گوگل پاندا را در ژانویه 2016 به یک الگوریتم کامل تبدیل کرد. پاندا فاکتورهای فهرست شده را برای اختصاص امتیاز به صفحات وب فیلتر میکنه. گوگل از این امتیاز به عنوان یک فاکتور رتبه بندی برای وب سایت ها استفاده میکنه.

فاکتورهای الگوریتم گوگل پاندا :

  • پر کردن کلمه کلیدی
  • محتوای نازک  Thin content
  • سرقت ادبی
  • محتوای اسپم
  • محتوای تکراری
  • محتوای بی ارزش

به لطف پاندا، صفحات وب حاوی محتوایی با کمترین متن یا مرتبط، بعید است رتبه بندی بشن.با این حال، محتوای نازک تنها صفحاتی با تعداد کلمات کم نیستن. این تعریف همچنین شامل موارد زیر میشه: 

محتوای تولید شده خودکار : امروزه که بازار تولید محتوا با هوش مصنوعی داغه و قبلا هم با ابزارهای مختلف تولید محتوا انجام میشد که صاحب سایت در هزینه و وقت خود صرفه جویی کند اما با الگوریتم پاندا تمام این ابزارها و محتواهای بی کیفیت کنار زده شده و حتی نمره منفی به صفحات و سایت اختصاص داده میشود.

شاید قبل از الگوریتم گوگل پاندا سایت با هوش مصنوعی یا به صرف پر کردن صفحه از محتوا میتوانست در بالای نتایج SERP قرار بگیره اما الان دیگه همچین امکانی وجود نداره.

صفحات وابسته نازک : صفحات دارای پیوندهای وابسته به محصول با توضیحات و نظرات. معمولاً از بازرگان اصلی بدون محتوای اصلی تکثیر میشه.

محتوای چرخانده شده : این تاکتیک شامل برداشتن یک قطعه از محتوای آنلاینه و ویرایش آن به اندازه کافی (چه به صورت دستی یا با ابزار) برای عبور از آشکارسازهای سرقت ادبی هست.

انواع محتوای بالا ارزش افزوده ای ندارن. آنها برای دستکاری الگوریتم گوگل طراحی شدن. پاندا این صفحات را شناسایی میکنه و در صورت لزوم رتبه بندی را تنظیم میکنه.

محتوای تکراری

محتوای تکراری به محتوای یکسان یا بسیار مشابه در چندین صفحه اشاره داره. یا در یک وب سایت واحد (محتوای تکراری داخلی) یا در دامنه های مختلف (محتوای تکراری خارجی).

اگه شباهت ها حداقل و ناخواسته باشه، بعیده که سایت شما جریمه بشه. اما اگه به نظر می رسه که محتوای تکراری فریبنده هست و نتایج موتورهای جستجو را دستکاری میکنه، احتمالاً SERP ها را پایین میارید.

هنگامی که ابزار تمام صفحات سایت شما را می خزد، داشبوردی مانند زیر تولید میکنه:

اگه صفحاتی با محتوای تکراری دارید – یا صفحاتی با محتوایی که حداقل 85٪ مشابه هستن – ابزار آن را به عنوان خطا علامت گذاری میکنه . همچنین آدرس‌های اینترنتی آسیب‌دیده را به شما نشون  میده و مراحلی را برای رفع آنها به شما ارائه میده.

تجربه ی کاربر

صاحبان سایت تشویق میشن تا صفحات وب با کیفیت و با ارزش بالا را برای بهبود رتبه خود ایجاد کنن. گوگل به‌روزرسانی‌های متعددی از پاندا منتشر کرده تا تجربه محصول خود را بیشتر کنه. این به‌روزرسانی‌ها همچنین به مشکلاتی مانند سوء استفاده از دامنه منقضی شده به عنوان بخشی از تلاش‌های Google برای مبارزه با تاکتیک‌های دستکاری می‌پردازن.

Panda چگونه کیفیت محتوا را ارزیابی میکنه

پاندا برای تعیین کیفیت یک وب سایت، جنبه هایی مانند:

مفید بودن و منحصر به فرد بودن محتوا . آیا محتوا به آنچه کاربر به دنبال آن است پاسخ میده؟ آیا برای وب سایت اصلی است؟ یا محتوا نازک، ساختار ضعیف و غلط املایی داره یا از سایت دیگری سرقت شده ؟ 

کیفیت کلی تجربه کاربر . آیا خواندن اطلاعات موجود در صفحه آسونه یا بین تبلیغات بزرگ پنهان میشه؟ 

اعتبار و اعتماد وب سایت و نویسندگان آن . آیا منبع اطلاعات دقیقه؟ آیا نویسنده تجربه ای در این زمینه داره؟ آیا منابع ذکر شده قابل اعتماد هستن؟ 

با در نظر گرفتن این دستورالعمل ها، الگوریتم گوگل از مجموعه ای از قوانین، محاسبات و فاکتورهای رتبه بندی استفاده میکنه تا به هر سایت یک امتیاز کیفیت اختصاص بده. این به تصمیم گیری در مورد رتبه بندی سایت کمک میکنه.

گوگل هرگز سیگنال های رتبه بندی دقیق مورد استفاده در الگوریتم را فاش نمیکنه. این باعث میشه که وب سایت ها از بازی کردن سیستم جلوگیری کنن.

چه چیزی باعث جریمه پاندا گوگل میشه؟

پاندا وب سایت هایی را که محتوای با کیفیت پایین در SERP تولید می کنن جریمه میکنه.

عوامل اصلی که پاندا برای انجام این کار استفاده میکنه شامل محتوای تکراری، نازک یا بی فایدس. 

Google Panda همچنین ممکنه به دلیل داشتن نسبت آگهی به محتوا بالا، رتبه بندی را کاهش بده. یا به دلیل عدم درج سیگنال های EEAT کافی در کپی شما. 

محتوای با کیفیت پایین

پاندا بر اساس این ایده بود که محتوای با کیفیت پایین ارزشی برای کاربران ایجاد نمیکنه. بنابراین، نباید در بالای SERP ها باشه.

اما پاندا چه چیزی را بی کیفیت می دونه؟

تاکتیک هایی مانند پر کردن کلمات کلیدی (استفاده بیش از حد از کلمات کلیدی برای دستکاری الگوریتم) بر خوانایی تأثیر میذاره.

این الگوریتم احتمالاً تنها بر اساس فقدان خوانایی آن، از رتبه بالای این محتوا در SERP ها جلوگیری میکنه.. برای اینکه محتوای شما امروز رتبه بالایی داشته باشه، باید از تاکتیک هایی مانند این اجتناب کنید.. 

کمبود EEAT 

پاندا در ابتدا دیکته کرد که وب سایت ها باید دارای علائم تخصص، اقتدار، و اعتماد (EAT) باشن. گوگل به سایت هایی که این معیارها را دارند با رتبه های بالاتر پاداش میده.

مزایای گوگل پاندا چیست؟

 Google Panda  با بهبود کیفیت نتایج موتورهای جستجو برای کاربران وب مفیده. به سایت ها با محتوای باکیفیت و تجربه کاربری مثبت پاداش میده. تمرکز بر اینه که دقیقاً آنچه را که کاربران می خوان ارائه بده.

وب‌ سایت‌هایی که محتوای با کیفیت پایین دارن، تجربه کاربری ضعیفی ارائه میدن و مرتبط نیستن، در نتایج جستجو رتبه پایین‌تری کسب میکنن. 

تفاوت بین Google Panda و Google Penguin چیست؟

فاکتورهای رتبه‌بندی پاندا محتوای کم‌کیفیت را هدف قرار میدن، در حالی که Penguin بر روی هرزنامه یا شیوه‌های ایجاد لینک دستکاری تمرکز می‌کنه.  پاندا جریمه هایی را در سراسر سایت اعمال کرد، به این معنی که تمام صفحات یک سایت را تحت تاثیر قرار داد. 

پنالتی های پنگوئن گوگل مختص صفحه هستن. آنها در صفحات جداگانه اعمال میشن و از شما می خوان که نمایه پیوند خود را قبل از برداشتن آنها درست کنید. 

آیا شمارش کلمات برای پاندا فاکتوری مهمه؟

تعداد کلمات برای پاندا عاملی نبود و هنوز حداقل تعداد کلمات تعیین شده ای که صفحات شما باید امروز داشته باشن وجود نداره. در عوض، گوگل وب‌سایت‌ها را تشویق میکنه تا از کلمات مورد نیاز برای ارزش‌گذاری خواننده استفاده کنند. 

آیا عوامل خارجی مانند بک لینک ها می تونن بر جریمه های الگوریتم پاندا گوگل تأثیر بذارن؟

ایجاد یک پروفایل بک لینک قوی تر به عنوان یک تمرین عمومی سئو ضروریه.  با این حال، پاندا مستقیماً با بک لینک ها سروکار نداشت. این پنگوئن گوگل اسهستت که مسئول این عوامل خارجیه. 

هر چند وقت یکبار باید محتوای وب سایت خود را برای مطابقت با الگوریتم پاندا گوگل به روز کنم؟

گوگل دائما در حال تغییره و روندهای آن نیز تغییر میکنه تا رتبه بندی محتوای با کیفیت بالا را حفظ کنه. با این حال، وب سایت خود را هر چند وقت یکبار که لازمه به روز کنید تا از رقبای خود جلوتر بمانید. هدف پاندا  پاداش دادن به وب سایت ها با محتوای ارزشمند و منحصر به فرده.

7. فرشنس  Google freshness algorithm

این اصطلاح در سال 2011 با Google Freshness Update در مرحله SEO ظاهر شد. به روز رسانی الگوریتم موتور جستجو، زمان انتشار را به عنوان یک عامل رتبه بندی، همراه با تقسیم پرس و جوهای جستجو به چهار نوع، با توجه به ارتباط زمان انتشار برای عبارت درخواست، معرفی کرد:

  • رویدادهای اخیر – معمولاً سؤالات مربوط به اخبار که با موضوعات یا رویدادهای جاری و پرطرفدار مرتبط هستن.
  • رویدادهای تکرار شونده منظم – رویدادهای سالانه یا به طور منظم – نمرات ورزشی، برنامه های تلویزیونی، انتخابات، گزارش های سالانه.
  • به روز رسانی های مکرر – پرس و جوهایی که به طور منظم به روز میشن اما به رویدادها یا موضوعات پرطرفدار مرتبط نیستند. ممکنه با سایت های بررسی یا صفحات محصول مرتبط باشه.
  • ضریب تازگی، ارتباط صفحات نمایه شده را برای جستارهای وارد شده (بسته به نوع جستجو) بر اساس تاریخ انتشار و به روز رسانی محتوا تعیین می کند.

گوگل اعلام می کنه که از چندین عامل برای تعیین تاریخ انتشار مقاله استفاده می کنه. علاوه بر داده‌های ساختاری، موتورهای جستجو از منابع داده جایگزین، هرچند نامشخص، برای حذف خطاها استفاده می‌کنن.

8.الگوریتم گوگل ونیز


منبع این بخش از الگوریتمهای گوگل مدیر وب میباشد. الگوریتم ونیز یکی از قدیمی‌ترین الگوریتم‌های گوگل است که بر مبنای سئو محلی بنا شده است. به این معنا که گوگل هنگام جست‌و‌جوی برخی از کلیدواژه‌ها، موقعیت جغرافیایی آن‌ها را نیز در نظر گرفته و نتایج جست و جو را به آن‌ها نشان می‌دهد که نزدیک محل سکونت آن‌ها هستند. این الگوریتم توانست میزان رضایت کاربران از موتور جست و جو را تا حد بسیار زیادی بالا برده و آن‌ها را در زمان کوتاه‌تری به چیزی که دقیقا نیاز دارند، برساند.

نحوه شکل گیری الگوریتم ونیز

گوگل همواره به دنبال آن است که عملکرد خود را بهبود بخشیده و به نظرات کاربران توجه کرده و آن‌ها را تا حد امکان اعمال کند. نحوه شکل گیری الگوریتم ونیز نیز بر همین اساس و برای بهبود تجربه کاربری است.

الگوریتم ونیز

قبل از تولد الگوریتم ونیز، اگر کاربران یک کلمه مانند باشگاه ورزشی، رستوران یا سالن زیبایی را جست و جو می‌کردند، نتایجی به آنها نمایش داده می‌شد که ممکن بود از موقعیت مکانی آنها فاصله زیادی داشته باشد، از این رو نتایج جست و جو چندان برای کاربران رضایت بخش و کمک کننده نبود. از طرف دیگر گاهی حتی اضافه کردن شهر نیز کمک چندانی به نتایج جست و جو نمی‌کرد. برای مثال جست و جوی کلمه رستوران در شیراز، باز هم نتایج درست و قابل توجهی را به کاربران نشان نمی‌داد، زیرا گوگل بر روی سئوی محلی خود چندان کار نکرده بود. از این رو گوگل برای بهبود تجربه کاربران، کار بر روی سئو محلی خود را آغاز کرد.

گوگل برای این مشکل در ابتدا سرویس گوگل مپ را ارائه کرده و به گسترش آن پرداخت. پس از راه اندازی گوگل مپ، با جست و جوی کلمات کلیدی مکان محوری مانند رستوران، شهربازی، بیمارستان و غیره، موقعیت مکانی آن‌ها در سمت چپ به کاربران نمایش داده می‌شد. با اضافه شدن گوگل مپ به SERP میزان ترافیک جست و جو برای خدمات و محصولات افزایش چشمگیری پیدا کرد. تنها بعد از دوره کوتاهی از اضافه شدن گوگل مپ، کاربران می‌توانستند موقعیت جغرافیایی خود را به صورت دستی انتخاب کرده تا نتایج جست و جو بر اساس آن به آن‌ها نمایش داده شود.

الگوریتم ونیز نسخه پیشرفته تری بود که در سال 2012 برای بهبود تجربه کاربران و سئو محلی رونمایی شد. این الگوریتم بر اساس دیتاهایی مانند IP کاربران، GPS، گوگل مپ و جست و جوهای مکان محور قبلی آن‌ها، موقعیت جغرافیایی او را تشخیص می‌دهد. سپس این اطلاعات را ذخیره می‌کند تا در جست و جوهای بعدی نتایج جست و جوی کاربران را براساس آن‌ها نشان دهد.

الگوریتم ونیز

الگوریتم ونیز و اسپم‌ها

با معرفی الگوریتم Venice سئوکاران کلاه سیاه نیز دست به کار اسپم‌های مختلف شدند. بسیاری از سئوکاران و صاحبان سایت‌ها زمانی که متوجه شدند گوگل به درج شهر و موقعیت جغرافیایی در سایت واکنش مثبت نشان می‌دهد، سایت‌های خود را با انبوهی از نام شهر، استان و موقعیت جغرافیایی خود پر می‎ کردند. این کار باعث می‌شد در سئوی محلی جایگاه بالایی پیدا کرده و در نتایج صدر جست و جو نمایش داده شوند. بعد از مدتی گوگل متوجه این مساله شد و با ارائه راهکارهای مختلفی مانند توسعه گوگل مپ، پیچیده کردن مراحل اعتبار سنجی و استفاده از سرویس Google My Business جلوی سو استفاده کنندگان از سئوی محلی را گرفت. در حال حاضر صاحبان کسب و کار و خدمات مختلف باید آدرس کسب و کار خود را نیز در گوگل ثبت کنند.

9. الگوریتم دزد دریایی DMCA

بازار دزدی دریایی سال‌هاست که در حال افزایش است و با بسیاری از وب‌سایت‌هایی که موسیقی، ویدیو، نرم‌افزار و بازی‌های ویدیویی را به‌طور غیرقانونی به اشتراک می‌گذارند،  دردسر واقعی برای سینما بود . مشکل اینه که گوگل هیچ راهی نداره که بدونه آیا این صفحات حقوق صحیحی برای انجام این کار دارن یا خیر.

برای مبارزه با این موضوع، گوگل در سال 2012 الگوریتم pirate  را معرفی کرد که یک به‌روزرسانی مبتنی بر سایت‌هایی بود که اعلامیه های حذف حق نسخه برداری معتبر دریافت می‌کردد و هدف آن کمک به کاربران خود برای یافتن محتوا از طریق منابع قانونی‌تر بود. در اینجا نمونه ای از آنچه گوگل برای نشان دادن کاربران در SERP ها آزمایش کرده است آورده شده است:

الگوریتم دزد دریایی یا  DMCA/Pirate

گوگل انواع مختلفی از الگوریتم ها را برای کمک به هدف قرار دادن جنبه های مختلف وب داره. این کمک می کنه تا اطمینان حاصل بشه که نتایجی که ارائه میده بهترین نتایج ممکنه یکی از این الگوریتم‌ها Pirate یا همون دزد دریایی هست و بسیار شبیه به پاندا (که الگوریتمی است که محتوا را هدف قرار میده) و پنگوئن (که الگوریتمی است که لینک‌ها را هدف قرار میده) با این حال، دزدان دریایی سایت‌هایی را هدف قرار داده و سایت‌هایی را که گوگل تشخیص میده مستقیم هستن، هدف قرارمیده.

چه کسانی تحت تاثیر این به روز رسانی الگوریتم قرار گرفتن؟

الگوریتم دزدان دریایی وب‌سایت‌هایی را در SERP خود که اخطارهای حذف حق نسخه‌برداری معتبر دریافت می‌کنن به‌ویژه وب‌سایت‌های تورنتی که به‌طور غیرقانونی مطالب را بدون رضایت معتبر مالک به اشتراک میذارن.

10. EMD (Exact Match Domain) 

11. الگوریتم پنگوئن گوگل:

به عنوان یکی دیگر از به‌روزرسانی‌های مهم الگوریتم، گوگل پنگوئن را در 24 آوریل 2012 منتشر کرد. پنگوئن شیوه‌های ایجاد پیوند هرزنامه را هدف قرار میده. وب سایت هایی را که از تاکتیک های دستکاری برای به دست آوردن بک لینک استفاده می کنن جریمه میکنه و ایجاد پیوند ارگانیک را تشویق میکنه. گوگل قصد داشت از طریق به‌روزرسانی الگوریتم پنگوئن، سایت‌هایی را که دارای پیوندهای هرزنامه و نامربوط هستن، رتبه بندی کنه، که به طور خاص هرزنامه‌های لینک را هدف قرار می‌داد. تمرکز اصلی آن بر عوامل زیر بود:

لینک های اسپم

بک لینک های بی ربط

متن های لنگر بهینه سازی بی مورد

بک لینک از سایت هایی که صرفا برای لینک سازی طراحی شدن

در سال 2016، گوگل پنگوئن را در الگوریتم های رتبه بندی اصلی خود گنجاند تا به اون اجازه بده در زمان واقعی کار کنه. این کارایی الگوریتم پنگوئن را برای سرعت بخشیدن به جریمه ها و فرآیندهای بازیابی افزایش میده. تلاش‌های مداوم Google برای خنثی‌سازی پیوندهای هرزنامه شامل به‌روزرسانی‌های منظم هرزنامه لینکه که سیستم‌های مبتنی بر هوش مصنوعی را برای شناسایی و مقابله با اعمال هرزنامه پیوند معرفی می‌کنه.

12. Page Layout یا الگوریتم صفحه آرایی گوگل

الگوریتم صفحه‌آرایی بالای صفحه گوگل یک فاکتور رتبه‌بندی جستجوی گوگل هست که گوگل در سال 2012 معرفی کرد. گوگل گفت که تغییر کرده زیرا می‌خواد «نتایج جستجوی مرتبط‌تری ارائه کنه» و «ارتباط آن را بهبود بخشد». به عبارت دیگه، گوگل می خواد کار بهتری را انجام بده و آنچه را که به دنبال آن هستید در چند صفحه اول جستجوی گوگل به شما نشون بده. الگوریتم‌های گوگل تکامل یافتن، اما حتی امروز – با همه این تغییرات – هنوز سردرگمی در مورد اینکه چگونه گوگل تعیین می‌کنه چه کسی در بالاترین رتبه برای اکثر پرسش‌ها قرار می‌گیرد، وجود داره.

الگوریتم صفحه‌آرایی برای شناسایی وب‌سایت‌هایی با مقادیر بیش از حد تبلیغات ثابت در بالای صفحه به‌روزرسانی شد. این تبلیغات افراد را وادار می کنه تا صفحه را به پایین اسکرول کنن تا اطلاعات را مشاهده کنن.

13. الگوریتم گورخر گوگل

الگوریتم گورخر گوگل یکی از الگوریتم های پرکاربرد گوگل هست که برای نظارت بر تجارت الکترونیک و فروشگاه های آنلاین طراحی شده. این الگوریتم در مارس 2013 توسط گوگل معرفی شد.

قبل از ظهور الگوریتم گورخر گوگل، وب سایت های تجارت الکترونیک می تواستن موتور جستجوی گوگل را با استفاده از تکنیک های سئوی غیر استانداره و کلاه سیاه دستکاری کنن تا به رتبه های بالاتری دست یابند. این امر باعث نارضایتی کاربران شد.

فروشگاه های آنلاین با کیفیت پایین و حتی گاهی اوقات وب سایت های تقلبی تونستن رتبه های بالایی را در گوگل حفظ کنن و در نتیجه نارضایتی کاربران را افزایش دادن.

با افزایش علاقه جهانی به خرید آنلاین، گوگل نیاز به ایجاد الگوریتمی برای مبارزه با چنین وب سایت هایی پیدا کرد. الگوریتم گورخر گوگل زمانی توسعه یافت که گوگل تصمیم گرفت تا علیه سایت های تجارت الکترونیکی با کیفیت پایین و جعلی اقدام کنه و آنها را جریمه کنه و رتبه سایت های با کیفیت بالا را بالا ببره.

هدف الگوریتم گورخر گوگل چیست؟

همانطور که اشاره کردم، ماموریت الگوریتم گورخر گوگل پاکسازی جامعه تجارت الکترونیک، تقویت فروشگاه های آنلاین و در نهایت شناسایی خرده فروشان با کیفیت پایین و حذف آنها از نتایج جستجوی گوگل است.

Google Zebra برای بسیاری از صاحبان وب سایت مطلوب نیست زیرا فروشگاه های با کیفیت پایین را حذف می کنه و فروشگاه های درجه یک را در نتایج SERP ارتقا میده.

هدف گوگل از الگوریتم Zebra اینه که وب سایت ها و فروشگاه های با کیفیت بالا را در نتایج جستجوی بهتر به نمایش بذاره و رتبه های برتر را به سایت هایی اختصاص بده که رضایت مشتری و تجربه کاربر را در اولویت قرار میدن.

توجه به این نکته ضروری است که 70 درصد فروشگاه های آنلاین صرفاً بر اساس دیدگاه های سئو و کلمات کلیدی وب سایت راه اندازی میشن. با گذشت زمان، گوگل برخی از آنها را به عنوان هرزنامه می شناسه. گوگل سایت هایی را که صرفا بر روی سئو و کلمات کلیدی تمرکز می کنن را بی اهمیت می دونه و سعی می کنه آنها را در رتبه پایین تری قرار بدده.

این رویکرد مورد استقبال کاربران قرار می گیره زیرا در طول جستجوی خود سایت هایی با کیفیت بالاتر و قابل اعتمادتر ارائه میدن. در نتیجه، هدف الگوریتم Zebra ارائه یک پلت فرم خرید امن و راحت برای کاربران گوگل است. همه چیز باید در جهت رضایت کاربر باشه.

14. الگوریتم مرغ مگس خوار گوگل:

مرغ مگس خوار بر بهبود درک سوالات جستجوی کاربر متمرکزه. گوگل را قادر می سازه تا با تفسیر زمینه و هدف پشت پرسش ها، نتایج مرتبط تری ارائه بده.

کارشناسان و مخاطبان بازاریابی دیجیتال تأثیر انتشار آن را احساس کردن. تقریباً 90٪ از نتایج جستجو را تحت تأثیر قرار داد. به روز رسانی مرغ مگس خوار به گوگل این امکان را میده که به جای نگاه کردن به کلمات کلیدی برای استخراج بهترین نتایج، هدف جستجو را دنبال کنه.

الگوریتم مرغ مگس‌خوار (Hummingbird) چیست؟

 در ۲۶ سپتامبر ۲۰۱۳ اضافه‌شدن مگس‌خوار  به باغ‌و‌حش گوگل (الگوریتم‌های مهمش) اعلام شد. الگوریتم مگس‌خوار حدود یک ماه قبل از این تاریخ کار خودش را شروع کرده بود. الگوریتم مرغ مگس خوار با جریمه‌کردن وب‌سایت‌ها کاری نداره . برعکس پاندا که در خط مقدم مبارزه گوگل با محتوای بی کیفیت  قرار داره و در جابه‌جاکردن جایگاه وب‌سایت بسیار  بسیار تاثیرگذاره. پس مگس‌خوار با جایگاه و رتبه‌ی وب‌سایت‌ها  در گوگل هم مستقیما کاری نداره و بر آن تاثیر نمیذاره.

مرغ مگس خوار تغییر اساسی در الگوریتم هسته‌ی گوگل بود تا تلاش و تعهد او را برای فهمیدن هرچه بیشتر و بهتر مقصود کاربر از جست‌وجو نشون بده.  طبیعتا وقتی گوگل مقصود و هدف اصلی کاربر از سرچ را بهتر بفهمه میتونه  مرتبط‌ترین، کامل‌ترین و بهترین پاسخ‌‌ها را دراختیار او بذاره. 

الگوریتم مرغ مگس خوار و تاثیر آن بر سئوی سایت 

همان‌طور که قبلا هم اشاره شد، این الگوریتم مستقیما تاثیری بر سئوی سایت شما نمیذاره. اگه زمانی‌ هم رتبه از دست دادید یا جایگاهتون تغییر فاحشی کرد، به احتمال خیلی خیلی زیاد کار مگس‌خوار نیست. اول الگوریتم‌های دیگه رو چک کنید. نکته اینجاست که الگوریتم مگس‌خوار بیش‌تر از اینکه تهدید باشه فرصته برای سئوی سایت شما

 چرا فرصته؟ به دو دلیل: اول، چون گوگل بیش از پیش به شما میگه وب‌سایت و محتواها چه ویژگی‌هایی باید داشته باشن تا نظر مگس‌خوار را جلب کنند. مهم‌ترین ویژگی نزدیک‌شدن گوگل به زبان طبیعی و انعطاف‌پذیر و پویای آدم‌هاست و فاصله‌گرفتن از کلیدواژه‌های ازپیش‌‌تعیین‌شده و خشک. یعنی نزدیک‌شدن به اینکه وقتی می کنید«کافه‌های انقلاب»، او می‌فهمه منظورش بهترین‌ کافه‌های میدان انقلاب و آن دوروبرهاست. و دوم، شما می‌دونید باید شروع کنید و وب‌سایت را برای نوع دیگری از جست‌وجو‌ها (Conversational Search) هم بهینه کنید. 

پس از آپدیت مرغ مگس خوار، گوگل شروع به جستجوی مترادف ها برای دنبال کردن هدف جستجو و استخراج نتایج مرتبط با موضوع کرد. گوگل را قادر می‌سازه تا بررسی دیگری بر روی کیفیت و ارتباط محتوا انجام بده که کیفیتی را به نتایج در SERP اضافه میکنه و به طور قابل‌توجهی بر رتبه‌بندی جستجو و دیده شدن وب‌سایت تأثیر میذاره.

15. ضد اسپم و فیشینگ Payday Loan

این بخش وام گرفته از سایت سئو ایران هست : در سال 2013، گوگل از الگوریتمی به نام Payday Loan رونمایی کرد. وظیفه این الگوریتم گوگل این است که با سایت‌های دارای هرزنامه برخورد کند، سایت‌هایی که کلمات کلیدی آن‌ها در زمینه اسپم بسیار رایج است. همانطور که در بالا ذکر شد، این الگوریتم شامل سایتهای اسپم کلمات و عبارات ناپسند و غیره است. اساس این الگوریتم برخورد با سایتهایی است که از کلمات کلیدی مکرر به عنوان هرزنامه استفاده می‌کنند.

الگوریتم Payday Loan چیست؟

به طور کلی، هر پیامی که بدون اجازه و رضایت قبلی به کاربر ارسال شود، هرزنامه نامیده می‌شود. مهم نیست که پیام در مورد چیست (تبلیغات، اطلاع‌رسانی، درخواست عضویت و غیره). الگوریتم Payday Loan گوگل یا الگوریتم ضد هرزنامه مسئول نظارت بر هرزنامه‌ها است.

الگوریتم Payday Loan چه سایت‌هایی را هدف قرار داد؟

مت کاتز، سرپرست تیم وب اسپم گوگل، می‌گوید Payday Loan یکی از اصلی‌ترین و با اهمیت‌ترین به روزرسانی‌های گوگل در مبارزه با محتوای اسپم می‌باشد. هدف اصلی Payday Loan شناسایی و حذف وب سایت‌هایی است که وام‌های پیشرفته، وام‌های پردرآمد، کازینوها، پورنوگرافی و هرزنامه‌های دیگر را می‌فروشند. مت کاتز همچنین گفت که سایر منابع قدرتمند Payday Loan شامل سایت‌هایی مانند بازار سیاه داروخانه‌ها و وام‌های مسکن و بیمه است که با تعهدات واهی به بازار کلاهبرداری آنلاین دامن زده است.

مت کاتز، رئیس الگوریتم‌های تحقیق در مورد هرزنامه‌ها در گوگل نیز گفت که این الگوریتم فقط برای کاربران آمریکایی نیست، بلکه شامل تمام جستجوهای جهانی گوگل است. جالب است بدانید که این الگوریتم ۰.۳ درصد از نتایج جستجو شده در منطقه ایالات متحده را تشکیل می‌دهد، در حالی که در ترکیه حدود ۴ درصد است. گفته می‌شود که سایت‌های اسپم در بین سایت‌های ترکیه بسیار رایج است.

الگوریتم Payday Loan گوگل دو مورد را تحت تأثیر قرار داد:

  • نوشته‌ها
  • سایت‌های اسپم

به طور خاص، مت کاتز اظهار داشت که  Payday Loan 2.0 سایت‌های اسپم را هدف قرار می‌دهد و نسخه ۳.۰ بر درخواست‌های هرزنامه تمرکز می‌کند. این به روزرسانی‌ها در سال ۲۰۱۴ با فاصله ۱ تا ۲ ماه منتشر شد. علاوه بر این، نسخه سوم محافظت بیشتری در برابر حملات منفی SEO دارد. سایت‌های جعلی نیز در این به روزرسانی گنجانده شده است. با این حال، کاتز این را به عنوان یک عارضه جانبی دیده است و نه هدف اصلی به روز رسانی.

16. الگوریتم کبوتر گوگل:

گوگل به‌روزرسانی الگوریتم کبوتر را به‌صورت دوره‌ای برای مناطق مختلف جهان منتشر کرد. تمرکز اصلی الگوریتم کبوتر این بود که الگوریتم محلی Google را با الگوریتم اصلی مرتبط کنه. گوگل را قادر می‌سازد تا برای رتبه‌بندی یک سایت در نتایج محلی و غیر محلی، به همان عوامل سئو متکی باشه. تمرکز اصلی به‌روزرسانی Google Pigeon روی عامل ثبت‌شده بود،

در سئو صفحه

سئو خارج از صفحه

فاصله

محل

ثبات NAP

فهرست های محلی

راه اندازی GMB.

بر بهبود نتایج جستجوی محلی تمرکز داره. هدف آن ارائه نتایج دقیق‌تر و مرتبط‌تر برای جستجوهای مبتنی بر مکانه که به نفع مشاغل با حضور محلیه.

هدف Google Pigeon  و الگوریتم های دیگری که در سال های اخیر ظاهر شدن، اعطای اعتبار مناسب به سایت هایی هست که نه تنها خدمات و محصولات با کیفیتی را در سطح محلی ارائه میدن، بلکه از نظر سئو به درستی عمل کردن. این احساس که آنها بهترین تکنیک‌های نمایه سازی و موقعیت یابی سئو کلاه سفید را در سایت و خارج از سایت ، بدون جستجوی میانبرهایی با هدف دستیابی به نتایج معتبر با تلاش کمتر یا با رفتار نادرست نسبت به افرادی که صادقانه عمل میکنن، به کار بردن تثبیت موقعیت. همه اینها به این معنیه که حتی از نظر جستجوی محلی، گوگل قصد داره به فاکتورهای مختلف سئو و همچنین بک لینک ها و اعتبار دامنه اهمیت بیشتری بده.

برگردیم به موضوع جستجو از طریق دستگاه های تلفن همراه، گویی گوگل با الگوریتم کبوتر خود را با همه آن دسته از کاربرانی که حالا وقتی خود را در خیابان می بینن و به دنبال اطلاعات می گردن،  از تلفن همراه خود استفاده کنن. به همین دلیله که هدف این الگوریتم اینه که جستجوهای محلی را که از طریق دستگاه های تلفن همراه انجام میشه، دقیق تر کنه. در واقع، به نظر می‌رسه کبوتر آنقدر دقیقه که می‌تونه تفاوت‌های بین محله‌ها یا مناطق مختلف شهر را که اغلب توسط شهروندان به نام‌های مختلف خوانده میشه، درک کنه.

ظاهراً Google Pigeon  همه را راضی میکنه و می‌تونه نتایج را هم از طریق نام‌های رسمی و هم از طریق نام‌های به اصطلاح محبوب به دست بیاره. حتی از طریق دستگاه های تلفن همراه، می توان نتایج مرتبط را با هر عبارت را پیدا کرد .

به نظر می‌رسد Google Pigeon به همه آن کسب‌وکارهای محلی اهمیت زیادی داده که علاوه بر کار برای قرار دادن کلمات کلیدی بومی‌شده، پروفایل‌های اجتماعی مختلفی ایجاد کردن ، مانند پروفایل‌های Google Plus که ارتباط بسیار قوی با نقشه‌ها و هر چیزی که باید انجام بشه. با موقعیت جغرافیایی انجام بدین .

Google Knowledge Graph 

گراف دانش چیست؟ پایگاه‌داده‌ای عظیم از اطلاعات درباره‌ی آدم‌ها، مکان‌ها و چیزها. مثلا وقتی کسی سرچ میکنه«برج ایفل چند متر است؟» یا «رئیس‌جمهور آمریکا کیست؟» یا «فاصله‌ی زمین تا ماه چه‌قدره؟»، گوگل پاسخ را از گراف دانش می‌ده. فقط به این نکته دقت کنید که در گراف دانش واقعیت‌ها ثبت و ضبط میشن.

چون مگس‌خوار به این پایگاه عظیم دسترسی داره،‌ وقتی الان سرچ می‌کنید قرص مسکن، نام انواع قرص‌های آرام‌بخش یا ضددرد یا حتی وب‌سایت‌های فروش این قرص‌ها به شما نمایش داده نمی‌شود. برعکس، مگس‌خوار با استفاده از گراف دانش SERP را از وب‌سایت‌ها و محتواهایی که به شما اطلاعات قابل‌اطمینان و معتبر درباره‌ی قرص‌های مسکن و عوارض و موارد استفاده میده.

17. الگوریتم Google Mobile Friendly:

این الگوریتم وب‌سایت‌های سازگار با موبایل را در نتایج جستجوی تلفن همراه اولویت‌بندی میکنه که منعکس‌کننده افزایش استفاده از دستگاه‌های تلفن همراه برای جستجوهای آنلاینه. ر 21 آوریل 2015، گوگل جدیدترین به‌روزرسانی الگوریتم تلفن همراه خود را منتشر کرد که بر روی افزایش نتایج جستجوی گوشی‌های هوشمند به وب‌سایت‌های سازگار با موبایل متمرکز بود. کارشناسان جستجو و رسانه‌ها نام مستعار به‌روزرسانی جدید را «Mobilegeddon» گذاشته‌اند.

وب‌سایت‌های سازگار با موبایل پس از این به‌روزرسانی الگوریتم شروع به رتبه‌بندی برای جستجوهای تلفن همراه Google کردن. با این حال، بر جستجوهای دسکتاپ تأثیر نمیذاره.

بر خلاف سایر به روز رسانی های الگوریتم گوگل، مانند پاندا، پنگوئن و مرغ مگس خواراین غول موتور جستجو قبل از این به روز رسانی بزرگ توجه زیادی جلب کرده. گوگل برای اولین بار برنامه های خود را برای به روز رسانی الگوریتم موبایل در دسامبر 2014 اعلام کرد. گوگل به خبرگزاری ها گفت “آنها در حال آزمایش یک الگوریتم جدید رتبه بندی سازگار با موبایل هستن” و تاریخ انتشار را در فوریه 2015 به طور رسمی اعلام کرد.

در مورد تأثیر آن، الگوریتم جدید سازگار با موبایل گوگل تنها بر جستجوهای دستگاه های تلفن همراه تأثیر میذاره و به صفحات سازگار با موبایل کمک میکنه و صفحات غیر موبایل دوستانه را کاهش میده. الگوریتم موبایل دوستانه فقط بر رتبه بندی موبایل تاثیر میذاره. در رتبه بندی دسکتاپ و تبلت تاثیری نخواهد داشت.

چگونه متوجه می شوید که وب سایت شما برای موبایل مناسبه؟

در حال حاضر چند راه برای آزمایش اینکه آیا سایت شما قبلاً توسط گوگل به عنوان وب سایت سازگار با موبایل ایندکس شده است یا خیر وجود داره.

استفاده کنید ابزار تست موبایل دوستانه گوگل.

گزارش های قابلیت استفاده از تلفن همراه خود را در داخل بررسی کنید گوگل وبمستر تولز.

تاثیر Mobilegeddon بر نتایج جستجوی موبایل

میزان تأثیر به‌روزرسانی Mobilegeddon هنوز مشخص نیست. با این حال، گفته شده که اهمیت بیشتری نسبت به به روز رسانی الگوریتم های پاندا و پنگوئن خواهد داشت. این به طور بالقوه به این معنی است که بیش از 11٪ از نتایج جستجو تحت تأثیر به روز رسانی الگوریتم قرار می گیرن.

18. الگوریتم رنک برین گوگل:

به روز رسانی الگوریتم RankBrain گوگل در 26 اکتبر 2015 راه اندازی شد.  RankBrainبرای تقویت بیشتر الگوریتم مرغ مگس خوار طراحی شده. به همین دلیل به عنوان بخشی از الگوریتم مرغ مگس خوار شناخته میشه.

الگوریتم RankBrain از یک سیستم یادگیری ماشینی برای ارزیابی کامل محتوای صفحه وب استفاده میکنه. به ارتباط یک صفحه وب با عبارت‌های جستجو، کیفیت محتوا و سایر معیارهای رتبه‌بندی نگاه می‌کنه. گوگل RankBrain را یکی از موثرترین به روز رسانی های الگوریتم خود می دونه.

یک الگوریتم هوش مصنوعی که به گوگل کمک میکنه تا معنای پرس و جوهای جستجو را درک کنه. از تعاملات کاربر می آموزه تا نتایج جستجوی بهتری ارائه بده.

19.الگوریتم موش کور Possum سپتامبر 2016

الگوریتم Google Possum

 Google Possum نام مستعار یکی از الگوریتم هایه  که گوگل در سال 2016 منتشر کرد. این الگوریتم برخلاف سایر الگوریتم ها هستش زیرا صفحات وب را ایندکس و رتبه بندی نمی کنه. در عوض، از طریق Google Maps وLocal Finder مس خزد تا هرزنامه را شناسایی و حذف کنه.

این الگوریتم تنها یکی از چندین ربات مورد استفاده گوگل هست تا نتایج جستجوی خود را تا حد امکان برای کاربران خود قابل اعتماد نگه داره. برای بازاریابان سئو، این الگوریتم مفید در نظر گرفته میمیشه، زیرا تکنیک‌های بازاریابی پنهانی را مشروعیت می‌بخشه و از تلاش‌های بازاریابی آن‌ها در برابر هرزنامه، اختلال و تداخل محافظت می‌کنن.

به‌روزرسانی Google Possum در 1 سپتامبر 2016 منتشر شد. تمرکز اصلی به‌روزرسانی Possum  روی بهبود نتایج جستجوی محلی بود. گوگل را قادر می سازه تا مشاغل نزدیک به مکان جستجوگر را برای SERP ها اولویت بندی کنه. موقعیت کسب و کار و فاصله از جستجوگر دیجیتال، مهمترین فاکتورها در مشاهده SERP ها باقی مانده. به‌روزرسانی Google Possum به کسب‌وکارهای محلی رونق باورنکردنی میده.

20. گوگل فرد Fred Google

به‌روزرسانی الگوریتم Fred Google در ۸ مارس ۲۰۱۷ منتشر شد. تمرکز اصلی آن محدود کردن دید وب‌سایت، نقض دستورالعمل‌های وب‌مستر Google بود. اکثر سایت های وبلاگ نویسی که صرفا برای کسب درآمد طراحی شدن تحت تأثیر به روز رسانی الگوریتم Ferd Google قرار گرفتن. به‌روزرسانی فرد بر عوامل ثبت‌شده تأکید می‌کنه.

  • محتوای نازک
  • محتوای با کیفیت پایین
  • وابسته به محتوای سنگین
  • تبلیغات محتوای غنی

گوگل علاوه بر هدف قرار دادن محتوای با کیفیت پایین، سیاست هایی را برای مقابله با سوء استفاده از شهرت سایت ارائه کرده که با استراتژی های دستکاری مانند سئوی انگل مبارزه میکنه.

پس از آپدیت  Fred، انتشار یک صفحه وب پر از لینک های وابسته و فریب دادن گوگل غیرممکنه. به روز رسانی Fred به گوگل اجازه میده تا صفحات وب با محتوای کم کیفیت را جستجو کند و دید آنها را محدود کنه.

21. الگوریتم Google Medic:

گوگل مدیک چیست؟

به‌روزرسانی Google Medic یک به‌روزرسانی الگوریتم Google در اواخر سال 2018 بود. در حالی که این به‌روزرسانی صنایع متعددی را تحت تأثیر قرار داد، بیشتر صفحات وبی که تحت تأثیر قرار گرفتن، صفحات «پول، زندگی شما (YMYL) بودن.

وب سایت های YMYL چیست؟

صفحاتی که به طور بالقوه می تونن بر سلامتی، شادی یا ثروت کاربران در آینده تأثیر بذارن، به عنوان صفحات «پول شما، زندگی شما» طبقه بندی میشن و بنابراین توسط خزنده های جستجوی گوگل مورد بررسی دقیق تری قرار می گیرن. موارد زیر صفحات YMYL در نظر گرفته میشن:

صفحات خرید یا تراکنش مالی

صفحات اطلاعات مالی

صفحات اطلاعات پزشکی

صفحات اطلاعات حقوقی

مقالات خبری یا صفحات اطلاعات عمومی/رسمی برای داشتن یک شهروند آگاه مهم هستن

دیگر هدف Medic بهبود کیفیت سلامت و نتایج جستجوی مرتبط با پزشکیه. این به ویژه برای وب سایت های سلامت و تندرستی بسیار مهمه.

هدف به‌روزرسانی Medic تأکید و بهبود تخصص، اعتبار و قابلیت اعتماد (EAT) صفحاتی بود که قدرت تأثیرگذاری بر رفاه و شادی افراد را دارن. گوگل صفحاتی را کهEAT  ندارن یا کم دارن مجازات میکنه و وب سایت هایی که دارای EAT بالایی هستن پاداش میده.

22. الگوریتم Google BERT:

BERT  یکی از موثرترین ساخته شده توسط گوگل تا به امروزه. گوگل به‌روزرسانی BERT را در 25 اکتبر 2019 برای بهبود تجربه محصول راه‌اندازی کرد. این به Google اجازه میده تا از مدل های یادگیری عمیق برای پردازش زبان طبیعی (NLP) برای یافتن هدف جستجوهای جستجو استفاده کن. BERT به Google در استخراج مرتبط‌ ترین داده‌ها از طریق NLP کمک میکنه تا تجربه کاربری مثبتی را ارائه بده.

BERT  بر نوشتن محتوای با کیفیت با لحن جذاب، اطلاعات دقیق و ساختار مناسب تأکید داره. محتوای با کیفیت خوب ساختار یافته، کلیدی برای دیده شدن پس از به‌روزرسانی BERT است. این یکی از آن الگوریتم‌ها – Google BERT – هست که به موتور جستجو کمک میکنه بفهمه مردم چه چیزی می‌خوان و پاسخ‌هایی را که می‌خوان بیاره.

درسته ربات‌ها انسان  نیستن، اما فناوری آنقدر پیشرفت کرده که می‌تونن زبان انسان از جمله عامیانه، خطاها، مترادف‌ها و عبارات زبانی موجود در گفتار ما را درک کنن و ما حتی متوجه آن نمیشیم. این الگوریتم جستجوی جدید توسط گوگل برای درک بهتر اهداف و محتوای جستجوی کاربران در صفحات وب ایجاد شده. 

BERT  مخفف  Representations Encoder Bidirectional from BERT چیست؟

Google BERT  الگوریتمی است که درک موتور جستجو از زبان انسان را افزایش میده.

این در دنیای جستجوها ضروریه، زیرا افراد به طور خودجوش خود را در عبارات جستجو و محتویات صفحه بیان می کنن و Google برای ایجاد تطابق صحیح بین یکی و دیگری تلاش میکنه.

گوگل قبلاً مدل هایی را برای درک زبان انسان اتخاذ کرده بود، اما این به روز رسانی به عنوان یکی از مهم ترین جهش ها در تاریخ موتورهای جستجو اعلام شد .

 (بازنمودهای رمزگذار دوطرفه از ترانسفورماتورها) درک زمینه را در جستارهای جستجو افزایش میده و منجر به نتایج جستجوی دقیق تر و طبیعی تر میشه.

24. الگوریتم Google EAT:

EAT  مخفف Expertise، Authority و Trustworthiness هست و نشون گر کیفیت محتوای یک صفحه هستش. در اینجا چیزی که گوگل به عنوان محتوایی هایی که EAT بالایی داره طبقه بندی میکنه:

توصیه های پزشکی High EAT  باید توسط افراد یا سازمان هایی با تخصص یا اعتبار پزشکی مناسب نوشته یا تولید بشه.

مقالات خبری High EAT  باید با حرفه ای بودن روزنامه نگاری تولید بشن که به کاربران کمک میکنه تا درک بهتری از رویدادها داشته باشند

صفحات اطلاعات EAT بالا در مورد موضوعات علمی  باید توسط متخصصان علمی تولید شوند و یک اجماع علمی تثبیت شده در مورد مسائل را نشون  بدن.

مشاوره مالی EAT High EAT، مشاوره حقوقی، مشاوره مالیاتی و غیره  باید از منابع قابل اعتماد تهیه شده و به طور مرتب نگهداری و به روز بشن.

صفحات مشاوره EAT بالا در مورد موضوعاتی مانند بازسازی خانه  نیز باید از منابع “متخصص” یا با تجربه که کاربران می تونن به آنها اعتماد کنن ارائه بشن.

صفحات EAT بالا در مورد سرگرمی ها،  مانند عکاسی یا یادگیری نواختن گیتار، نیز نیاز به تخصص دارن.

تنها راه حل واقعی این است که محتوای خود را درست کنید و EAT خود را بهبود بخشید. می‌تونید این کار را با پیروی از دستورالعمل هلی کیفیت جستجو  Google انجام بدین  :

اصول اساسی

صفحات را در درجه اول برای کاربران بسازید، نه برای موتورهای جستجو

کاربران خود را فریب ندهید

از ترفندهایی که برای بهبود رتبه موتورهای جستجو در نظر گرفته شده خودداری کنید. یک قانون سرانگشتی خوب اینه که آیا احساس راحتی می کنید که چه کاری را برای کارمند Google  انجام دادید توضیح بدین. تست مفید دیگر اینه که بپرسید: «آیا این به کاربران من کمک میکنه؟ اگه موتورهای جستجو وجود نداشتن آیا این کار را انجام می دادم؟

به این فکر کنید که چه چیزی وب سایت شما را منحصر به فرد، ارزشمند یا جذاب میکنه. وب سایت خود را از سایرین در حوزه کاری خود متمایز کنید.

رهنمودهای خاص

 از تکنیک های زیر اجتناب کنید :

  • محتوای تولید شده به صورت خودکار
  • شرکت در طرح های پیوند
  • ایجاد صفحات با محتوای کم یا بدون محتوای اصلی
  • پنهان کاری
  • تغییر مسیرهای یواشکی
  • متن یا لینک های مخفی
  • صفحات درگاه
  • محتوای خراشیده شده
  • شرکت در برنامه های وابسته بدون افزودن ارزش کافی
  • بارگذاری صفحات با کلمات کلیدی نامربوط
  • ایجاد صفحاتی با رفتارهای مخرب مانند فیشینگ یا نصب ویروس ها، تروجان ها یا سایر بدافزارها
  • سوء استفاده از نشونه گذاری  rich snippets
  • ارسال پرسش‌های خودکار به  Google

 از روش های خوب مانند این پیروی کنید :

  • نظارت بر سایت خود برای هک کردن و حذف محتوای هک شده به محض ظاهر شدن
  • جلوگیری و حذف هرزنامه های تولید شده توسط کاربر در سایت
  •  (تخصص، اقتدار، اعتماد) اعتبار و قابل اعتماد بودن محتوا و سازندگان آن را ارزیابی میکنه. به ویژه برای موضوعات YMYL (پول یا زندگی شما) مهمه.

این الگوریتم ها برای تعیین رتبه بندی صفحات وب در نتایج جستجو به صورت پشت سر هم کار می کنن. درک نقش آنها و تطبیق محتوای وب سایت شما و استراتژی های سئو بر این اساس برای دستیابی به دید بهتر در صفحات نتایج موتور جستجوی گوگل (SERP) بسیار مهمه. به خاطر داشته باشید که گوگل به طور مکرر الگوریتم های خود را به روز میکنه .

به روز رسانی الگوریتم هسته گسترده – 9 مارس 2018

گوگل در 9 مارس 2018، به‌روزرسانی الگوریتم هسته گسترده را منتشر کرد. گوگل قصد داشت از طریق این به روز رسانی الگوریتم، بهترین سایت های دارای محتوای بارگذاری شده با بهترین و با کیفیت را برای SERP استخراج کنه.  این به‌روزرسانی برای سایت‌های باکیفیتی که Google قبلاً نادیده گرفته بود، قابل مشاهده هست. به‌روزرسانی هسته‌ای اخیر مارس 2024 همچنین ماهیت پیچیده و چندوجهی این به‌روزرسانی‌ها را برجسته میکنه که بر روی دید و عملکرد جستجو تأثیر میذاره.

الگوریتم هسته گسترده بر نوشتن محتوای با کیفیت، دریافت بک لینک های با کیفیت از سایت های مرتبط با مقامات بالاتر و ارسال سیگنال های اجتماعی برای برجسته شدن در SERP های برتر در برابر جستارهای جستجوی مرتبط تاکید داره. به‌روزرسانی اصلی اکتبر 2023 بر اهمیت تطبیق استراتژی‌ها برای همسویی با استاندارههای در حال تکامل  Google، به‌ویژه با همپوشانی با به‌روزرسانی تشخیص هرزنامه تأکید می‌کنه.

25- الگوریتم تطبیق عصبی چیست؟

Neural Matching یک موتور بازیابی پیچیده س  که از فناوری هوش مصنوعی برای اتصال بهتر کلمات به مفاهیم استفاده می کنه. همانطور که گوگل تایید کرد، از آن برای تجزیه و تحلیل الگوها با استفاده از بردارها استفاده میشه و در درجه اول برای تجزیه و تحلیل تصویر ایجاد شده ، اما از سال 2018 در مناطق مختلف دیگر اعمال شده.

تصور کنید در حال جستجوی اطلاعات در اینترنت هستید، و می‌خواید چیزی را پیدا کنید، حتی اگر برای توصیف آنچه به دنبال آن هستید به کمک نیاز داشته باشید، یا از کلماتی متفاوت از آنچه در یک صفحه وب است استفاده می‌کنید. اینجاست که چیزی به نام «تطابق عصبی» به کار میاد.

این سیستم یادگیری ماشینی مانند یک مکانیسم هوشمنده که به موتورهای جستجو مانند گوگل کمک می کنه منظور شما را درک کنن. به جای اینکه فقط به کلمات خاص توجه کنه، به کل پرس و جو نگاه می کنه. سعی می کنه ایده ها یا مفاهیم بزرگی را که در کلمات شما پنهان شده کشف و سپس صفحاتی را پیدا کند که با آن مفاهیم مطابقت دارن. بنابراین، مانند اینه که با یک دوست کاملاً فهمیده صحبت کنید که می تونه ایده های اصلی آنچه شما میگید رو درک کنه.

الگوریتم تطبیق عصبی گوگل از چیزی به نام شبکه های عصبی استفاده می کنده این مانند مغزهای دیجیتالیه که از نحوه عملکرد مغز ما الهام گرفته شده. این مغزهای دیجیتال در پردازش و درک حجم عظیمی از اطلاعات عالی هستن.

اکنون، به جای جستجوی کلمات کلیدی خاص، این فناوری یادگیری ماشینی بر کشف آنچه شما به دنبال آن هستید تمرکز می کند.

اساساً، آن:

درک پرس و جوها با در نظر گرفتن زمینه،

پیدا کردن مترادف (کلماتی که معنی یکسان دارن)

با استفاده از هوش مصنوعی، ارتباطات پنهان بین کلمات را شناسایی می کنهد 

به این ترتیب، می تونه نتایج جستجوی مرتبط تری به شما بده. در نتیجه، تجربه جستجوی آنلاین شما را بسیار روانتر و دقیق تر می کند.

26- الگوریتم Google Suggest

Google Suggest الگوریتمی هست که در ابتدا توسط گوگل برای یافتن بهترین عبارات منطبق با کلمه کلیدی اصلی توسعه یافته.

در جستجوی Google، این تابع پیشنهاداتی را برای کاربران در حالی که درخواست خود را در فرم جستجو تایپ می کنن ارائه میده. یا کلمه کلیدی وارد شده را تکمیل می کنه یا اضافه کردن حروف و کلمات بیشتر به درخواست اصلی، اصطلاحات اضافی را اضافه می کنه.

الگوریتم پیش بینی های جستجو را بر اساس عوامل زیر ایجاد می کنه:

  • کلمات کلیدی که در فرم جستجو وارد می کنید
  • سابقه جستجوی شما با کلمات کلیدی مرتبط
  • محبوبیت پیشنهادات، به احتمال زیاد بر اساس Google Trends
  • منطقه و زبان شما

وقتی کلمه کلیدی اصلی را در فرم جستجو در KWFinder وارد می‌کنید، آن را می‌گیریم و از الگوریتم پیشنهاد Google برای ایجاد ایده‌های کلیدی جدید بسته به مکان و زبان انتخاب شده استفاده می‌کنیم.

به خاطر داشته باشید که ایده ها توسط کلمه کلیدی اصلی تعیین می شوند. بنابراین، ممکنه در مقایسه با کلیدواژه‌های مرتبط منبع اصلی کلمه کلیدی، کلمات کلیدی کمتری با حجم جستجوی کمتر مشاهده کنید. از سوی دیگر، آنها تمایل دارن به سئو پایینی برسن، بنابراین رتبه بندی برای آنها آسون تره.

27. الگوریتم MUM گوگل

MUM مخفف Multitask Unified Model هست. با استفاده از یک الگوریتم مبتنی بر هوش مصنوعی، این مدل Google MUM بینش عمیق و دقیقی را در عرض چند ثانیه برای هر درخواست پیچیده در سراسر وب ارائه می‌کنه. این به کاربران کمک می کنه تا نیاز به جستجوهای متعدد را برای مقایسه و به دست آوردن بینش عمیق برای جستجوهای خود حذف کنن. برای از بین بردن سوگیری های ماشینی و تولید نتایج بصری، گوگل از عوامل زیر پیروی می کنه.

دستورالعمل‌های ارزیابی کیفیت جستجو، که توسط ارزیاب‌های انسانی برای کمک به Google در یافتن میزان مرتبط بودن اطلاعات برای کاربران دنبال شده. و همان فرآیند اعمال شده در به‌روزرسانی BERT 2019 گوگل را انجام بدین.

علاوه بر این، برای تأیید کارایی نتایج جستجو، گوگل وظیفه یادگیری از تحقیقات اخیر خود را در مورد «چگونه ردپای کربن سیستم‌های آموزشی شبکه عصبی بزرگ را کاهش بدیم» را بر عهده خواهد گرفت.

الگوریتم Google MUM چگونه کار می کنه؟

با کمک هوش مصنوعی یا درک زبان طبیعی، این مدل Google MUM برای پاسخگویی به پرسش‌های جستجوی پیچیده با داده‌های چندوجهی کار می‌کنه.

MUM اطلاعات را در انواع رسانه های مختلف پردازش می کنه. این MUM علاوه بر متن، تصاویر، فایل‌های صوتی و ویدیویی را نیز برای پاسخ به سؤالات جستجوی پیچیده درک می‌کنه. این به Google کمک می کنه تا نتایج دقیقی را برای نیازهای کاربر ارائه بده.

https://loganix.com/what-is-google-dance

https://www.webfx.com/seo/glossary/what-is-a-google-algorithm

https://www.semrush.com/blog/google-panda

https://www.pageonepower.com/search-glossary/penguin-algorithm

https://amanjacademy.com/google-hummigbird-algorithm

https://moz.com/learn/seo/google-rankbrain

https://response.agency/blog/2015/04/what-is-mobilegeddon/.

https://www.linkedin.com/pulse/what-different-types-google-algorithms-how-do-impact-search-ed-win-q6t7c

https://www.bluecorona.com/faq/what-is-google-medic

.https://rockcontent.com/blog/google-bert/

https://moz.com/learn/seo/google-eat

https://edit.co.uk/blog/google-pirate-algorithm

https://www.whitepress.com/en/knowledge-base/1665/publication-date-update-exploring-freshness-algorithm-with-an-seo-experiment

https://mangools.com/kwfinder/features/google-suggest

https://seonorth.ca/algorithms/page-layout

https://ahrefs.com/seo/glossary/google-caffeine

https://edit.co.uk/blog/google-pirate-algorithm

https://mangools.com/blog/google-sandbox

	
دیدگاه کاربران
  • Crystal 19 سپتامبر 2024

    Your ability to explain complex topics in an accessible way is truly
    impressive. Thank you for that.

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *