کلیات الگوریتمهای گوگل
یکی از غولهای تکنولوژِی دنیا بدون شک همین موتور جست و جو گر گوگل هست چیزی که تونسته اونو به این جایگاه عظیم و بالا برسونه و در مقابل رقیب قدرتمندی مثل یاهو پیروز کنه و به این موقعیت برسونه که اول موتور جست و جوگر باشه همین آپدیت همیشگی و به روز نگه داشتن خودش هست. این آپدیت نگه داشتن میسر نیست مگر با استفاده از مکانیزمهای اتوماتیک و تکنولوژیهای روز که گوگل این مکانیزمهای اتوماتیک و تکنولوژی رو در قالب الگوریتم های گوگل در دستور کار قرار داده است.
گوگل روزانه بیش از 4 میلیارد جستجو را انجام میده و به پر استفاده ترین وب سایت جهان و برجسته ترین موتور جستجو از نظر حجم جستجو تبدیل میکنه. گوگل سالانه هزاران به روز رسانی الگوریتم را برای بهبود تجربه کاربری، برای مخاطبان در حال رشد خود و ماندن در صدر سایتهای جهان اعلام کرد.الگوریتمهایی که همیشه آپدیت میشن و برای بهبود عملکرد موتور جست و جو به تعداد آنها از زمان اولین الگوریتم تا حالا اضافه شده است.
برای فراگیری بازاریابی آنلاین حتما روی عبارت “دیجیتال مارکتینگ حرفه ای” کلیک کنید.
در بین این الگورتمها قطعا هستند اونهایی که اهمیت بالاتری دارند اما این نباید به منزله بی اهمیت بودن بقیه باشه. اصلا با این تفکر که کدام مهمتر و کدام کم اهمیت تر هست این محتوای عالی رو نخونید. همه مهم هستند و همه باید جدی گرفته بشوند.اما برخی موارد هم هستن که شاید برای کسب و کار شما زیاد مهم نباشه چون نحوه عملکرد اون الگوریتم گوگل محدود به مکان یا زمان خاصی هست.
مثلا الگوریتم کبوتر که مربوط به سرچ محلی هست برای سایتی که بیس اطلاعات عمومی داره اندازه یک فروشگاه و یک سایت خدماتی که در لوکیشن خاصی قرار داره اهمیت نداره. این یک نمونه کوچیک که باید کارایی همه را بشناسیم. بریم برای بررسی کامل که در پایان این محتوا باید کامل تمام الگوریتم های گوگل را بصورت دقیق شناخته باشید.
بیایید ابتدا ببینیم که الگوریتم ها به طور کلی چی هستند؟ مفهوم الگوریتم دقیقا چیست ؟ تعریف استاندارد اینه: مجموعه ای از قوانین برای حل یک مسئله در تعداد محدودی از مراحل.
الگوریتم های گوگل چیست؟
الگوریتم های گوگل مجموعه قوانینی هستن که گوگل برای رتبه بندی وب سایت ها در نتایج جستجو استفاده میکنه. سیستم پیچیده گوگل داده ها را از صفحات بازیابی میکنه و به دنبال درک آنچه جستجوگران به دنبال آن هستن و رتبه بندی صفحات بر اساس ارتباط و کیفیت و کارائی محتواهای ارائه شده.
اما چگونه گوگل تصمیم گرفت که کدام نتایج را به شما نشون بده و به چه ترتیبی؟
گوگل الگوریتم و ساز و کار بسیار پیچیده ای برای ارائه نتایج جستجو داره و تغییرات نسبتاً زیادی در طی زمان هم داره. و اگرچه این شرکت الگوریتم دقیقی رو عمومی نمیکنه، سئو مثبت در این پست عالی الگوریتمهای گوگل را آورده و همچنین چند عنصر وجود داره که می دونیم به طور واقعی و ملموس بر توانایی صفحه برای نمایش در نتایج برای کلمات کلیدی خاص تأثیر دارند:
- وجود کلمات کلیدی اصلی در عنوان اصلی
- تگ های هدر و توضیحات متا
- تعداد پیوندهای ارگانیک و طبیعی به صفحه ( بک لینک )
- رسپانسیو بودن سایت و عملکرد آن در موبایل و دستگاه های کوچکتر از سایز دسکتاپ
- کاربردی و اصولی بودن محتوا
- محتواهای یونیک و ارزشمند
- …
البته، اینها تنها برخی از ویژگی هایی که الگوریتم گوگل هنگام تعیین نحوه ارائه و رتبه بندی صفحات بررسی میکنه. احتمالاً ده ها، نه صدها مورد دیگه وجود داره. مواری که قبلا دویست مورد تاثیر گذار در سئو خوانده میشدند و حالا و با آپدیتهای اخیر این تعداد خیلی از این عدد فراتر هم رفته.
و اما گوگل چگونه تعیین میکنه که کدام صفحات رتبه بالاتر بگیرند؟
همانطور که الگوریتم گوگل یک صفحه وب را میخزد و “خوانده” میکنه، یک مقدار عددی از پیش تعیین شده را برای هر صفت و عنوانی که امتیاز برای صفحه محسوب میشود را که در صفحه جستجو میکند، تجویز میکنه. سپس آن مقدار عددی به نتیجه نهایی اضافه میشه. بنابراین، صفحه وب که مطلوب ترین امتیاز و صفات را داره به بالای رتبه بندی صفحه ارتقا می یابه زیرا الگوریتم به اون اهمیت بیشتری میده.
به زبان ساده هرچه بیشتر المانهای سئو در یک صفحه رعایت بشه امتیاز بیشتری به صفحه تعلق میگیره و نهایت در نمره پایانی اثر بیشتری گذاشته و با مقایسه نسبت به رقبایی که در همان کلمات محتوا دارن رتبه بندیها انجام میشوند.
این محاسبات توسط پلتفرم گوگل بسیار سریع انجام میشه و رتبه بندی ممکنه در نوسان باشه زیرا توسعه دهندگان وب ویژگی هایی را که در رتبه بندی صفحات در یک وب سایت یا در یک صفحه نقش دارن، دستکاری می کنن.
بنابراین، رتبهبندیهایی که توسط الگوریتمهای گوگل تخصیص داده میشن سیال هستن. صفحه ای که برای یک کلمه کلیدی در رتبه سوم قرار می گیره، ممکنه با تغییر محتوای آن و سایر صفحات در نتایج، به رتبه اول صعود یا دهم سقوط کنه. معمولاً مشاغلی که بهینه سازی موتور جستجو یا SEO را در سایت خود بهتر انجام میدن، رتبه های برتر را در اختیار دارن .
سئو مثبت میتواند این تضمین را به مخاطبین و کارفرمایان خود بدهد که بصورت تضمینی میتواند رتبه های برتر گوگل را برای شما بدست آورد فقط کافیست به تیم ما اعتماد کنید.
الگوریتم گوگل برای سئو چیست؟
همانطور که قبلا ذکر شد، الگوریتم گوگل تا حدی از کلمات کلیدی برای تعیین رتبه بندی صفحات استفاده میکنه. بهترین راه برای رتبه بندی برای کلمات کلیدی خاص، انجام سئو هست. سئو در اصل راهیه که به گوگل بگید یک وب سایت یا صفحه وب در مورد یک موضوع خاصه.
سالها پیش، برای بسیاری از سایتها عادی بود که در محتوای خودشون زیاد از کلمه کلیدی استفاده کنن. در اصل، آنها تصور می کردن که الگوریتم گوگل فکر میکنه که هر چه تعداد کلمات کلیدی بیشتری نوشته بشه، صفحه باید اهمیت بیشتری داشته باشه.
هنگامی که گوگل متوجه این موضوع شد، الگوریتم خودشو تغییر داد تا سایت هایی را که صفحات خود را با کلمات کلیدی پر می کنن و همچنین بسیاری از روش های سئو کلاه سیاه استفاده می کردن رو جریمه کنه. به همین دلیل، باید از هر گونه تاکتیکی که با هدف پیشی گرفتن از موتورهای جستجو انجام میشه، اجتناب کنید. اگرچه ممکنه فورا متوجه نشن، اما گوگل در نهایت آنچه را که میخواهید انجام بدهید که قوانین و الگوریتمها را دور بزنید را متوجه میشود و در نهایت رتبه شما آسیب خواهد دید یا اگر از روشهای غیر مجاز یا همون سئو کلاه سیاه زیاد استفاده کرده باشید کلا از نتایج حذف خواهید شد.
اما آنچه که مهمه و بعنوان الگوریتم گوگل برای سئو سئوال میشه اینه که الگوریتمها در یکی یا دوتا الگوریتم گوگل خلاصه نمیشوند و نخواهند شد و برای هر المان و ویژگی الگوریتم مربوطه عمل خواهد کرد پس برای همین سئو هم باید مجموعه ای از روشها و تکنیکهایی باشه که در جهت و هم سو با قوانین همین الگوریتمهای گوگل باشد.
اگر به مباحث سئو علاقه مند هستید و مایلید که بصورت رایگان سئوی اصولی را یاد بگیرید حتما محتوای “آموزش سئوی حرفه ای “ مارا کامل مطالعه بفرمایید.
آینده الگوریتم گوگل چیست؟
گوگل به ندرت نشونه ای از تغییرات در الگوریتم های خود ارائه میده، مگر اینکه این تغییرات عمده باشن. تغییرات کوچکتر در داخل ایجاد میشه و معمولاً جز به صورت امواج کوچکتر احساس نمیشه. این امری حیاتی است که با اعلامیه های الگوریتم گوگل همراه باشید، اما به همان اندازه مهمه که الگوریتم ها رو گول نزنید یا سعی نکنید دورش بزنید.
در عوض، ضروریه که به سادگی قدرت الگوریتم گوگل را بپذیرید و سعی کنید بهترین وب سایت ممکن را تولید کنید. در نتیجه، بازدیدکنندگان از آنچه می بینند خرسند خواهند شد، که همیشه یک سیگنال رتبه بندی مثبته.
انواع مختلف الگوریتم های گوگل چیست و چگونه بر نتایج جستجو تاثیر میذارن؟
خوب تا اینجا باید با الگوریتمهای گوگل آشنایتی پیدا کرده باشید و از این به بعد بهتره که مورد معرفی و بررسی قرار بگیرند. گوگل از الگوریتم های مختلفی برای اصلاح و بهبود نتایج جستجوی خود استفاده میکنه. در اینجا سعی شده تمام الگوریتمهای گوگل آورده بشه که یک محتوای ارزشمند، مرجع و قابل اتکا برای شما تهیه کرده باشیم. این جدول را در خاطر داشته باشید که بعد از آن همه را بررسی خواهیم کرد.
ردیف | الگوریتم گوگل | سال ایجاد |
---|---|---|
1 | پیج رنک PageRank | 1998 |
2 | رقص گوگل Google Dance | 2004 |
3 | جعبه شن Google Sandbox | 2004 |
4 | تپه Hilltop Algorithm | 2004 |
5 | کافئین Caffeine | 2010 |
6 | پاندا Panda | 2011 |
7 | فرشنس(تازه گی) Freshness | 2011 |
8 | ونیز Venice | 2012 |
9 | دزد دریایی Pirate | 2012 |
10 | EMD (Exact Match Domain) | 2012 |
11 | پنگوئن Penguin | 2012 |
12 | پیج لی اوت Page Layout | 2012 |
13 | گور خر Zebra | 2013 |
14 | مرغ مگس خوار Hummingbird | 2013 |
15 | ضد اسپم و فیشینگ Payday Loan | 2013 |
16 | کبوتر Pigeon | 2014 |
17 | موبایل فرندلی Mobilegeddon | 2015 |
18 | رنک برین Rank Brain | 2015 |
19 | موش کور Possum | 2016 |
20 | فرد Fred | 2017 |
21 | مدیک یا طبی Medic | 2018 |
22 | برت BERT | 2018 |
23 | موبایل فرست ایندکس Mobile First Index | 2019 |
24 | سند راهنمای ارزیابهای جستجوی گوگل E-E-A-T | 2019 |
25 | چند وجهی (MUM (Multitasking United Model | 2021 |
26 | محصولات دست اول Product Reviews | 2021 |
27 | محتوای مفید Helpful Content | 2022 |
1. الگوریتم پیج رنک گوگل:
این یکی از اولین الگوریتم های گوگل بود که برای رتبه بندی صفحات وب بر اساس تعداد و کیفیت لینک هایی که به آنها اشاره می کنن طراحی شده بود.گوگل برای اینکه در ابتدای کار خود و در رقابت با موتور قدرتمندی چون یاهو بتونه رقابت کنه از این الگوریتم استفاده کرد.
نحوه کار به این شکل بود که نمره ای به هر سایتی اختصاص داده میشد و بر اساس اون رتبه بندی صفحات انجام میشد. مدیران سایتها قادر بودند که پیج رنک سایت خودشون رو مشاهده کنند اما گوگل تصمیم گرفت که از دسترس کاربران خارج کنه و شاید استفاده نکنه.
اما با توجه به تحقیقاتی که انجام شده گوگل هنوز در هسته خود این الگوریتم رو داره اما دیگه عمومی نیست. این الگوریتم هم المانهای مختلفی داشت که اون المانها هر کدوم در الگوریتمهای بعدی بصورت خیلی قویتر و حرفه ای تر موجود هستند. دلیل عنوان کردن الگوریتم گوگل پیج رنک این بود که آشنایی ابتدایی با یکی از اولین الگوریتمهای گوگل داشته باشید.
2. رقص گوگل
تصور کنید که یک پست وبلاگی به قدری مفید و غنی از کلمات کلیدی بسازید که عملاً از گوگل التماس کنید که آن را با رتبه های برتر پر کنه. گوگل میگه: «مستقیم با شما به بالا». شما انتشار را فشار دهید، منتظر بمانید و سپس شاهد آشکار شدن عجیب ترین ناهنجاری باشید. صفحه وب شما که به تازگی ایجاد شده ، سفری عجیب را آغاز می کنه یک روز به اوج می رسه و روزی دیگر به اعماق صفحات نتایج موتورهای جستجو سقوط می کنه.
با عقل جور در نمی آید. چگونه این پدیده را توضیح دهیم؟ دو کلمه: رقص گوگل. اجازه بده
در اوایل دهه 2000، زمانی که گوگل بهروزرسانیهای الگوریتم را عرضه میکرد یا خواه ناخواه در الگوریتمهای موجود خود تغییرات اساسی ایجاد میکرد، باعث نوسانات SERP (نوسانات سریع در رتبهبندی) شد. در نتیجه، نام “رقص” گرفت.
امروزه، از آنجایی که گوگل بهروزرسانیهای افزایشی را اجرا میکنه که ظاهراً نوسانات قبلی را ایجاد نمیکنن، رقص SERPها باید کمرنگ میشد. با این حال، اعداد دروغ نمی گویند. نوسانات SERP هنوز بسیار زنده و خوب است. برای دیدن این بازی فقط باید به سال گذشته، 2023 نگاه کنید.
سال 2023 عمدتاً توسط بهروزرسانی محتوای مفید و بهروزرسانی نظرات تعریف شد. هر دو پیامدهای بزرگی برای بسیاری از جایگاهها داشتن (و همچنان دارند)، اما شاید هیچ جایگاهی به اندازه وبسایتهای وابسته آسیب ندیده باشه. سال 2023 واقعا سال وحشتناکی برای سایت های وابسته بود.
وبگاههای وابسته: یک درگاه وب که علاوه بر CMS خود، اطلاعات بقیهٔ ارائه دهندگان خدمات را به ازای دریافت مبلغی در اختیار کاربران قرار میدهند. معمولاً سه ارتباط اصلی قابل تصور است. موسسات وابسته مانند cj.com، دفترهای تبلیغاتی همچون ebay.com و مصرفکنندگان مثل یاهو.(ویکی پدیا)
از طرفی یک تعریف دیگری برای الگوریتم گوگل دنس یا رقص گوگل هم متصور هستند که خود گوگل عمدا این کار را انجام میده که رتبه های مختلف و جایگاه های مختلفی در نتایج سرپ(SERP) به صفحات مختلف میده تا عملکرد آنها رو ببینه و هر کدام در نتایج بالاتر عملکرد بهتری داشتند وضعیت استیبلی و ماندگاری به آن صفحه در نتیجه بالا داده بشود.
الگوریتم گوگل دنس کی فعال است؟
گوگل دنس یا رقص گوگل بر اساس تجربه در اوایل انتشار یک صفحه و یا یک سایت بسیار فعال هست و تغییر در رتبه ها در دو روز متوالی هم بسیار زیاد هست. این پروسه ممکنه از چند روز تا حتی یکی دوماه طول بکشه و بعد از بررسیهای مختلف وضعیت ثبات به صفحه و سایت داده بشود . اگه موفق به کسب رتبه خوب و بالا شدید و عملکرد خوبی از خودتون نمایش دادید احتمالا در همان رتبه ها خواهید ماند. و اینم بسته به رفتار کار در مواجهه با سایت و صفحات شما در نتایج و بعد از کلیک کردن هست.
3. اگوریتم گوگل سند باکس Google Sandbox
اصطلاح Google Sandbox به مجموعهای از الگوریتمهای ادعایی اشاره میکنه که وبسایتهای تازه ایجاد شده را از رتبهبندی خوب در SERPهای Google برای یک دوره زمانی خاص، صرف نظر از اینکه محتوا و صفحات وب آنها با کیفیت بالا و بهینهسازی شده هستند، محدود میکنه. در واقع در زمان سند باکس سرف نظر از هر مطلب و محتوا و کیفیت گوگل فقط اجازه به فعالیت در قعر نتایج را به شما میده.
مفهوم Google Sandbox در سال 2004 رایج شد و از آن زمان برای بسیاری از وب سایت هایی که نیاز به رتبه بندی در جستجوی Google ASAP داشتد، نگران کننده شد.
ایده پشت این مفهوم اینه که هر وبسایت جدید تحت یک «دوره آزمایشی» قرار میگیره که در طی آن اجازه رتبهبندی خوبی نداره. دوره Sandbox ممکنه از چند هفته تا چند ماه طول بکشه (مهم نیست چقدر برای بهینه سازی صفحات خود تلاش می کنید): پس از اتمام این دوره، رتبه سایت باید بهبود یابد.
به دلیل نگرانی هایی مانند این، طبیعی است که ممکن است در مورد وب سایت خود و اینکه آیا ممکن است تحت تأثیر Google Sandbox قرار گیرد یا خیر، نگران باشید. بیایید اکنون نگاهی گذرا به پیامدهای بالقوه SEO Google Sandbox (در تئوری) بیندازیم.
چرا Google Sandbox اینقدر نگران کننده است؟
دلیل اصلی نگرانی بسیاری از صاحبان وب سایت و سئوکاران در مورد دوره Sandbox صرفاً به این دلیل است که ممکنه از همان ابتدا (و برای مدتی طولانی) از رسیدن به اهداف تجاری و سئوی خود جلوگیری کنه.
به طور کلی، دو دسته وبسایت وجود داره که میتواند تحت تأثیر Google Sandbox قرار بگیره.
وبسایتهای جدید: هر وبسایت تازه ایجاد شده باید Google Sandbox را برای مدت زمان مشخصی تجربه کنه.
وب سایت های غیر فعال : برخی افراد ادعا میکنندکه Google Sandbox ممکنه حتی بر وبسایتهای قدیمی که برای مدتی طولانی چیزی جدید منتشر نکردن(اما سپس شروع به ایجاد محتوای جدید کردن) تأثیر بذاره.
4. تپه Hilltop Algorithm
الگوریتم تپه یا hilltop چیست
الگوریتم تپه گوگل یا هیلتاپ توسط Krishna Bharat در دانشگاه تورنتو توسعه پیدا کرد. هیلتاپ یکی از مهمترین الگوریتمهای ارائه شده توسط کمپانی گوگل است که در سال 2003 به دنیای وب معرفی شد. این الگوریتم، از همان ابتدا روی نحوه عملکرد سئو سایتها تاثیر بسیاری گذاشت و بعد از گذشت مدت زمانی طولانی همچنان به عنوان یک الگوریتم مهم گوگل روی امتیازدهی و رتبهبندی سایتها تاثیر گذار میباشد
تاثیر الگوریتم تپه گوگل بر سئو سایت
هدف از ارائه الگوریتم تپه، بررسی اعتبار صفحات وب بر اساس محتوا و اطلاعات داخل آنها و همچنین لینکهای خارجی سایتها میباشد. در واقع این الگوریتم با ارزیابی کیفیت محتواهای صفحات وب و صحت و واقعی بودن لینکها، اعتبار یا عدم اعتبار وبسایتها را تعیین میکند و به رتبهبندی آنها میپردازد.
سازندگان الگوریتم تپه معتقد هستند که نقل قول از محتوا یک صفحه وب در وبسایتهای مرجع نشاندهنده اعتبار آن صفحهمیباشد. به اعتقاد توسعه دهنده الگوریتم تپه یا هیلتاپ، هر چه تعداد لینکهای خارجی از یک صفحه وب در صفحات مرجع بیشتر باشد، میزان اعتبار آن صفحه افزایش پیدا میکند.
عملکرد الگوریتم تپه در بررسی لینکها
برای اعتبارسنجی صفحات وب، لازم است لینکسازیها توسط سایتهای مرجع مستقل ایجاد شده باشند و هیچگونه ارتباط بین سایتهای نقل قول کننده با صفحه لینک شده مجاز نمیباشد. به بیانی سادهتر اگر وبسایت X برای بالا بردن اعتبار خود سعی داشته باشد تا لینکهای خارجی را از طریق سایتهایی متعلق به خود ایجاد نماید، هرگز موفق به دریافت امتیاز از الگوریتم تپه نمی شود. الگوریتم تپه با دقت فراوان هرگونه ارتباط مخفیانه بین وبسایتها را تشخیص میدهد و سایت مذکور که اقدام به دور زدن الگوریتم میکند را جریمه مینماید.
برای کسب امتیاز بالا توسط الگوریتم تپه، بهترین راه تولید محتوای باکیفیت، منحصر به فرد و معتبر است. روند دریافت بکلینک از سایتهای مرجع باید روندی طبیعی داشته باشند و براساس محتوای معتبر موجود در صفحات صورت گرفته شوند. بنابراین صاحبان سایت برای افزایش رتبه سایت خود بهجای استفاده از روشهای نادرست و سئو کلاه سیاه، بهتر است بر کیفیت محتوا موجود در صفحات وب تمرکز داشته باشند. (منبع ابزار وردپرس)
5. الگوریتم گوگل کافئین
Google Caffeine بهروزرسانی بزرگی برای الگوریتم جستجوی Google بود که در سال 2010 راهاندازی شد. این الگوریتم برای بهبود سرعت و دقت نتایج جستجوی Google با ترکیب فناوریهای جدید طراحی شده بود که به Google اجازه میداد سریعتر و کارآمدتر صفحات وب را خزیده، فهرستبندی و رتبهبندی کنه.
یکی از ویژگی های اصلی Google Caffeine توانایی آن در پردازش اطلاعات در زمان واقعی بود. این بدان معنیه که محتوای جدید یا به روز شده وب سایت می تونه تقریباً بلافاصله در نتایج جستجو نمایه بشه و نمایش داده بشه و تجربه جستجو را سریعتر و مرتبط تر برای کاربران کنه.
Google Caffeine همچنین تعدادی بهبود دیگر را در الگوریتم جستجوی Google معرفی کرد، از جمله فهرست بندی بهتر تصاویر و ویدیوها، پشتیبانی بهتر از فرمت های رسانه غنی، و درک جامع تر از عبارت های جستجو و هدف کاربر.
6. الگوریتم پاندا گوگل:
گوگل پاندا را به عنوان یک فیلتر در 24 فوریه 2011 منتشر کرد تا کیفیت محتوا را محدود کنه. بعداً، گوگل پاندا را در ژانویه 2016 به یک الگوریتم کامل تبدیل کرد. پاندا فاکتورهای فهرست شده را برای اختصاص امتیاز به صفحات وب فیلتر میکنه. گوگل از این امتیاز به عنوان یک فاکتور رتبه بندی برای وب سایت ها استفاده میکنه.
فاکتورهای الگوریتم گوگل پاندا :
- پر کردن کلمه کلیدی
- محتوای نازک Thin content
- سرقت ادبی
- محتوای اسپم
- محتوای تکراری
- محتوای بی ارزش
به لطف پاندا، صفحات وب حاوی محتوایی با کمترین متن یا مرتبط، بعید است رتبه بندی بشن.با این حال، محتوای نازک تنها صفحاتی با تعداد کلمات کم نیستن. این تعریف همچنین شامل موارد زیر میشه:
محتوای تولید شده خودکار : امروزه که بازار تولید محتوا با هوش مصنوعی داغه و قبلا هم با ابزارهای مختلف تولید محتوا انجام میشد که صاحب سایت در هزینه و وقت خود صرفه جویی کند اما با الگوریتم پاندا تمام این ابزارها و محتواهای بی کیفیت کنار زده شده و حتی نمره منفی به صفحات و سایت اختصاص داده میشود.
شاید قبل از الگوریتم گوگل پاندا سایت با هوش مصنوعی یا به صرف پر کردن صفحه از محتوا میتوانست در بالای نتایج SERP قرار بگیره اما الان دیگه همچین امکانی وجود نداره.
صفحات وابسته نازک : صفحات دارای پیوندهای وابسته به محصول با توضیحات و نظرات. معمولاً از بازرگان اصلی بدون محتوای اصلی تکثیر میشه.
محتوای چرخانده شده : این تاکتیک شامل برداشتن یک قطعه از محتوای آنلاینه و ویرایش آن به اندازه کافی (چه به صورت دستی یا با ابزار) برای عبور از آشکارسازهای سرقت ادبی هست.
انواع محتوای بالا ارزش افزوده ای ندارن. آنها برای دستکاری الگوریتم گوگل طراحی شدن. پاندا این صفحات را شناسایی میکنه و در صورت لزوم رتبه بندی را تنظیم میکنه.
محتوای تکراری
محتوای تکراری به محتوای یکسان یا بسیار مشابه در چندین صفحه اشاره داره. یا در یک وب سایت واحد (محتوای تکراری داخلی) یا در دامنه های مختلف (محتوای تکراری خارجی).
اگه شباهت ها حداقل و ناخواسته باشه، بعیده که سایت شما جریمه بشه. اما اگه به نظر می رسه که محتوای تکراری فریبنده هست و نتایج موتورهای جستجو را دستکاری میکنه، احتمالاً SERP ها را پایین میارید.
هنگامی که ابزار تمام صفحات سایت شما را می خزد، داشبوردی مانند زیر تولید میکنه:
اگه صفحاتی با محتوای تکراری دارید – یا صفحاتی با محتوایی که حداقل 85٪ مشابه هستن – ابزار آن را به عنوان خطا علامت گذاری میکنه . همچنین آدرسهای اینترنتی آسیبدیده را به شما نشون میده و مراحلی را برای رفع آنها به شما ارائه میده.
تجربه ی کاربر
صاحبان سایت تشویق میشن تا صفحات وب با کیفیت و با ارزش بالا را برای بهبود رتبه خود ایجاد کنن. گوگل بهروزرسانیهای متعددی از پاندا منتشر کرده تا تجربه محصول خود را بیشتر کنه. این بهروزرسانیها همچنین به مشکلاتی مانند سوء استفاده از دامنه منقضی شده به عنوان بخشی از تلاشهای Google برای مبارزه با تاکتیکهای دستکاری میپردازن.
Panda چگونه کیفیت محتوا را ارزیابی میکنه
پاندا برای تعیین کیفیت یک وب سایت، جنبه هایی مانند:
مفید بودن و منحصر به فرد بودن محتوا . آیا محتوا به آنچه کاربر به دنبال آن است پاسخ میده؟ آیا برای وب سایت اصلی است؟ یا محتوا نازک، ساختار ضعیف و غلط املایی داره یا از سایت دیگری سرقت شده ؟
کیفیت کلی تجربه کاربر . آیا خواندن اطلاعات موجود در صفحه آسونه یا بین تبلیغات بزرگ پنهان میشه؟
اعتبار و اعتماد وب سایت و نویسندگان آن . آیا منبع اطلاعات دقیقه؟ آیا نویسنده تجربه ای در این زمینه داره؟ آیا منابع ذکر شده قابل اعتماد هستن؟
با در نظر گرفتن این دستورالعمل ها، الگوریتم گوگل از مجموعه ای از قوانین، محاسبات و فاکتورهای رتبه بندی استفاده میکنه تا به هر سایت یک امتیاز کیفیت اختصاص بده. این به تصمیم گیری در مورد رتبه بندی سایت کمک میکنه.
گوگل هرگز سیگنال های رتبه بندی دقیق مورد استفاده در الگوریتم را فاش نمیکنه. این باعث میشه که وب سایت ها از بازی کردن سیستم جلوگیری کنن.
چه چیزی باعث جریمه پاندا گوگل میشه؟
پاندا وب سایت هایی را که محتوای با کیفیت پایین در SERP تولید می کنن جریمه میکنه.
عوامل اصلی که پاندا برای انجام این کار استفاده میکنه شامل محتوای تکراری، نازک یا بی فایدس.
Google Panda همچنین ممکنه به دلیل داشتن نسبت آگهی به محتوا بالا، رتبه بندی را کاهش بده. یا به دلیل عدم درج سیگنال های EEAT کافی در کپی شما.
محتوای با کیفیت پایین
پاندا بر اساس این ایده بود که محتوای با کیفیت پایین ارزشی برای کاربران ایجاد نمیکنه. بنابراین، نباید در بالای SERP ها باشه.
اما پاندا چه چیزی را بی کیفیت می دونه؟
تاکتیک هایی مانند پر کردن کلمات کلیدی (استفاده بیش از حد از کلمات کلیدی برای دستکاری الگوریتم) بر خوانایی تأثیر میذاره.
این الگوریتم احتمالاً تنها بر اساس فقدان خوانایی آن، از رتبه بالای این محتوا در SERP ها جلوگیری میکنه.. برای اینکه محتوای شما امروز رتبه بالایی داشته باشه، باید از تاکتیک هایی مانند این اجتناب کنید..
کمبود EEAT
پاندا در ابتدا دیکته کرد که وب سایت ها باید دارای علائم تخصص، اقتدار، و اعتماد (EAT) باشن. گوگل به سایت هایی که این معیارها را دارند با رتبه های بالاتر پاداش میده.
مزایای گوگل پاندا چیست؟
Google Panda با بهبود کیفیت نتایج موتورهای جستجو برای کاربران وب مفیده. به سایت ها با محتوای باکیفیت و تجربه کاربری مثبت پاداش میده. تمرکز بر اینه که دقیقاً آنچه را که کاربران می خوان ارائه بده.
وب سایتهایی که محتوای با کیفیت پایین دارن، تجربه کاربری ضعیفی ارائه میدن و مرتبط نیستن، در نتایج جستجو رتبه پایینتری کسب میکنن.
تفاوت بین Google Panda و Google Penguin چیست؟
فاکتورهای رتبهبندی پاندا محتوای کمکیفیت را هدف قرار میدن، در حالی که Penguin بر روی هرزنامه یا شیوههای ایجاد لینک دستکاری تمرکز میکنه. پاندا جریمه هایی را در سراسر سایت اعمال کرد، به این معنی که تمام صفحات یک سایت را تحت تاثیر قرار داد.
پنالتی های پنگوئن گوگل مختص صفحه هستن. آنها در صفحات جداگانه اعمال میشن و از شما می خوان که نمایه پیوند خود را قبل از برداشتن آنها درست کنید.
آیا شمارش کلمات برای پاندا فاکتوری مهمه؟
تعداد کلمات برای پاندا عاملی نبود و هنوز حداقل تعداد کلمات تعیین شده ای که صفحات شما باید امروز داشته باشن وجود نداره. در عوض، گوگل وبسایتها را تشویق میکنه تا از کلمات مورد نیاز برای ارزشگذاری خواننده استفاده کنند.
آیا عوامل خارجی مانند بک لینک ها می تونن بر جریمه های الگوریتم پاندا گوگل تأثیر بذارن؟
ایجاد یک پروفایل بک لینک قوی تر به عنوان یک تمرین عمومی سئو ضروریه. با این حال، پاندا مستقیماً با بک لینک ها سروکار نداشت. این پنگوئن گوگل اسهستت که مسئول این عوامل خارجیه.
هر چند وقت یکبار باید محتوای وب سایت خود را برای مطابقت با الگوریتم پاندا گوگل به روز کنم؟
گوگل دائما در حال تغییره و روندهای آن نیز تغییر میکنه تا رتبه بندی محتوای با کیفیت بالا را حفظ کنه. با این حال، وب سایت خود را هر چند وقت یکبار که لازمه به روز کنید تا از رقبای خود جلوتر بمانید. هدف پاندا پاداش دادن به وب سایت ها با محتوای ارزشمند و منحصر به فرده.
7. فرشنس Google freshness algorithm
این اصطلاح در سال 2011 با Google Freshness Update در مرحله SEO ظاهر شد. به روز رسانی الگوریتم موتور جستجو، زمان انتشار را به عنوان یک عامل رتبه بندی، همراه با تقسیم پرس و جوهای جستجو به چهار نوع، با توجه به ارتباط زمان انتشار برای عبارت درخواست، معرفی کرد:
- رویدادهای اخیر – معمولاً سؤالات مربوط به اخبار که با موضوعات یا رویدادهای جاری و پرطرفدار مرتبط هستن.
- رویدادهای تکرار شونده منظم – رویدادهای سالانه یا به طور منظم – نمرات ورزشی، برنامه های تلویزیونی، انتخابات، گزارش های سالانه.
- به روز رسانی های مکرر – پرس و جوهایی که به طور منظم به روز میشن اما به رویدادها یا موضوعات پرطرفدار مرتبط نیستند. ممکنه با سایت های بررسی یا صفحات محصول مرتبط باشه.
- ضریب تازگی، ارتباط صفحات نمایه شده را برای جستارهای وارد شده (بسته به نوع جستجو) بر اساس تاریخ انتشار و به روز رسانی محتوا تعیین می کند.
گوگل اعلام می کنه که از چندین عامل برای تعیین تاریخ انتشار مقاله استفاده می کنه. علاوه بر دادههای ساختاری، موتورهای جستجو از منابع داده جایگزین، هرچند نامشخص، برای حذف خطاها استفاده میکنن.
8.الگوریتم گوگل ونیز
منبع این بخش از الگوریتمهای گوگل مدیر وب میباشد. الگوریتم ونیز یکی از قدیمیترین الگوریتمهای گوگل است که بر مبنای سئو محلی بنا شده است. به این معنا که گوگل هنگام جستوجوی برخی از کلیدواژهها، موقعیت جغرافیایی آنها را نیز در نظر گرفته و نتایج جست و جو را به آنها نشان میدهد که نزدیک محل سکونت آنها هستند. این الگوریتم توانست میزان رضایت کاربران از موتور جست و جو را تا حد بسیار زیادی بالا برده و آنها را در زمان کوتاهتری به چیزی که دقیقا نیاز دارند، برساند.
نحوه شکل گیری الگوریتم ونیز
گوگل همواره به دنبال آن است که عملکرد خود را بهبود بخشیده و به نظرات کاربران توجه کرده و آنها را تا حد امکان اعمال کند. نحوه شکل گیری الگوریتم ونیز نیز بر همین اساس و برای بهبود تجربه کاربری است.
قبل از تولد الگوریتم ونیز، اگر کاربران یک کلمه مانند باشگاه ورزشی، رستوران یا سالن زیبایی را جست و جو میکردند، نتایجی به آنها نمایش داده میشد که ممکن بود از موقعیت مکانی آنها فاصله زیادی داشته باشد، از این رو نتایج جست و جو چندان برای کاربران رضایت بخش و کمک کننده نبود. از طرف دیگر گاهی حتی اضافه کردن شهر نیز کمک چندانی به نتایج جست و جو نمیکرد. برای مثال جست و جوی کلمه رستوران در شیراز، باز هم نتایج درست و قابل توجهی را به کاربران نشان نمیداد، زیرا گوگل بر روی سئوی محلی خود چندان کار نکرده بود. از این رو گوگل برای بهبود تجربه کاربران، کار بر روی سئو محلی خود را آغاز کرد.
گوگل برای این مشکل در ابتدا سرویس گوگل مپ را ارائه کرده و به گسترش آن پرداخت. پس از راه اندازی گوگل مپ، با جست و جوی کلمات کلیدی مکان محوری مانند رستوران، شهربازی، بیمارستان و غیره، موقعیت مکانی آنها در سمت چپ به کاربران نمایش داده میشد. با اضافه شدن گوگل مپ به SERP میزان ترافیک جست و جو برای خدمات و محصولات افزایش چشمگیری پیدا کرد. تنها بعد از دوره کوتاهی از اضافه شدن گوگل مپ، کاربران میتوانستند موقعیت جغرافیایی خود را به صورت دستی انتخاب کرده تا نتایج جست و جو بر اساس آن به آنها نمایش داده شود.
الگوریتم ونیز نسخه پیشرفته تری بود که در سال 2012 برای بهبود تجربه کاربران و سئو محلی رونمایی شد. این الگوریتم بر اساس دیتاهایی مانند IP کاربران، GPS، گوگل مپ و جست و جوهای مکان محور قبلی آنها، موقعیت جغرافیایی او را تشخیص میدهد. سپس این اطلاعات را ذخیره میکند تا در جست و جوهای بعدی نتایج جست و جوی کاربران را براساس آنها نشان دهد.
الگوریتم ونیز و اسپمها
با معرفی الگوریتم Venice سئوکاران کلاه سیاه نیز دست به کار اسپمهای مختلف شدند. بسیاری از سئوکاران و صاحبان سایتها زمانی که متوجه شدند گوگل به درج شهر و موقعیت جغرافیایی در سایت واکنش مثبت نشان میدهد، سایتهای خود را با انبوهی از نام شهر، استان و موقعیت جغرافیایی خود پر می کردند. این کار باعث میشد در سئوی محلی جایگاه بالایی پیدا کرده و در نتایج صدر جست و جو نمایش داده شوند. بعد از مدتی گوگل متوجه این مساله شد و با ارائه راهکارهای مختلفی مانند توسعه گوگل مپ، پیچیده کردن مراحل اعتبار سنجی و استفاده از سرویس Google My Business جلوی سو استفاده کنندگان از سئوی محلی را گرفت. در حال حاضر صاحبان کسب و کار و خدمات مختلف باید آدرس کسب و کار خود را نیز در گوگل ثبت کنند.
9. الگوریتم دزد دریایی DMCA
بازار دزدی دریایی سالهاست که در حال افزایش است و با بسیاری از وبسایتهایی که موسیقی، ویدیو، نرمافزار و بازیهای ویدیویی را بهطور غیرقانونی به اشتراک میگذارند، دردسر واقعی برای سینما بود . مشکل اینه که گوگل هیچ راهی نداره که بدونه آیا این صفحات حقوق صحیحی برای انجام این کار دارن یا خیر.
برای مبارزه با این موضوع، گوگل در سال 2012 الگوریتم pirate را معرفی کرد که یک بهروزرسانی مبتنی بر سایتهایی بود که اعلامیه های حذف حق نسخه برداری معتبر دریافت میکردد و هدف آن کمک به کاربران خود برای یافتن محتوا از طریق منابع قانونیتر بود. در اینجا نمونه ای از آنچه گوگل برای نشان دادن کاربران در SERP ها آزمایش کرده است آورده شده است:
الگوریتم دزد دریایی یا DMCA/Pirate
گوگل انواع مختلفی از الگوریتم ها را برای کمک به هدف قرار دادن جنبه های مختلف وب داره. این کمک می کنه تا اطمینان حاصل بشه که نتایجی که ارائه میده بهترین نتایج ممکنه یکی از این الگوریتمها Pirate یا همون دزد دریایی هست و بسیار شبیه به پاندا (که الگوریتمی است که محتوا را هدف قرار میده) و پنگوئن (که الگوریتمی است که لینکها را هدف قرار میده) با این حال، دزدان دریایی سایتهایی را هدف قرار داده و سایتهایی را که گوگل تشخیص میده مستقیم هستن، هدف قرارمیده.
چه کسانی تحت تاثیر این به روز رسانی الگوریتم قرار گرفتن؟
الگوریتم دزدان دریایی وبسایتهایی را در SERP خود که اخطارهای حذف حق نسخهبرداری معتبر دریافت میکنن بهویژه وبسایتهای تورنتی که بهطور غیرقانونی مطالب را بدون رضایت معتبر مالک به اشتراک میذارن.
10. EMD (Exact Match Domain)
11. الگوریتم پنگوئن گوگل:
به عنوان یکی دیگر از بهروزرسانیهای مهم الگوریتم، گوگل پنگوئن را در 24 آوریل 2012 منتشر کرد. پنگوئن شیوههای ایجاد پیوند هرزنامه را هدف قرار میده. وب سایت هایی را که از تاکتیک های دستکاری برای به دست آوردن بک لینک استفاده می کنن جریمه میکنه و ایجاد پیوند ارگانیک را تشویق میکنه. گوگل قصد داشت از طریق بهروزرسانی الگوریتم پنگوئن، سایتهایی را که دارای پیوندهای هرزنامه و نامربوط هستن، رتبه بندی کنه، که به طور خاص هرزنامههای لینک را هدف قرار میداد. تمرکز اصلی آن بر عوامل زیر بود:
لینک های اسپم
بک لینک های بی ربط
متن های لنگر بهینه سازی بی مورد
بک لینک از سایت هایی که صرفا برای لینک سازی طراحی شدن
در سال 2016، گوگل پنگوئن را در الگوریتم های رتبه بندی اصلی خود گنجاند تا به اون اجازه بده در زمان واقعی کار کنه. این کارایی الگوریتم پنگوئن را برای سرعت بخشیدن به جریمه ها و فرآیندهای بازیابی افزایش میده. تلاشهای مداوم Google برای خنثیسازی پیوندهای هرزنامه شامل بهروزرسانیهای منظم هرزنامه لینکه که سیستمهای مبتنی بر هوش مصنوعی را برای شناسایی و مقابله با اعمال هرزنامه پیوند معرفی میکنه.
12. Page Layout یا الگوریتم صفحه آرایی گوگل
الگوریتم صفحهآرایی بالای صفحه گوگل یک فاکتور رتبهبندی جستجوی گوگل هست که گوگل در سال 2012 معرفی کرد. گوگل گفت که تغییر کرده زیرا میخواد «نتایج جستجوی مرتبطتری ارائه کنه» و «ارتباط آن را بهبود بخشد». به عبارت دیگه، گوگل می خواد کار بهتری را انجام بده و آنچه را که به دنبال آن هستید در چند صفحه اول جستجوی گوگل به شما نشون بده. الگوریتمهای گوگل تکامل یافتن، اما حتی امروز – با همه این تغییرات – هنوز سردرگمی در مورد اینکه چگونه گوگل تعیین میکنه چه کسی در بالاترین رتبه برای اکثر پرسشها قرار میگیرد، وجود داره.
الگوریتم صفحهآرایی برای شناسایی وبسایتهایی با مقادیر بیش از حد تبلیغات ثابت در بالای صفحه بهروزرسانی شد. این تبلیغات افراد را وادار می کنه تا صفحه را به پایین اسکرول کنن تا اطلاعات را مشاهده کنن.
13. الگوریتم گورخر گوگل
الگوریتم گورخر گوگل یکی از الگوریتم های پرکاربرد گوگل هست که برای نظارت بر تجارت الکترونیک و فروشگاه های آنلاین طراحی شده. این الگوریتم در مارس 2013 توسط گوگل معرفی شد.
قبل از ظهور الگوریتم گورخر گوگل، وب سایت های تجارت الکترونیک می تواستن موتور جستجوی گوگل را با استفاده از تکنیک های سئوی غیر استانداره و کلاه سیاه دستکاری کنن تا به رتبه های بالاتری دست یابند. این امر باعث نارضایتی کاربران شد.
فروشگاه های آنلاین با کیفیت پایین و حتی گاهی اوقات وب سایت های تقلبی تونستن رتبه های بالایی را در گوگل حفظ کنن و در نتیجه نارضایتی کاربران را افزایش دادن.
با افزایش علاقه جهانی به خرید آنلاین، گوگل نیاز به ایجاد الگوریتمی برای مبارزه با چنین وب سایت هایی پیدا کرد. الگوریتم گورخر گوگل زمانی توسعه یافت که گوگل تصمیم گرفت تا علیه سایت های تجارت الکترونیکی با کیفیت پایین و جعلی اقدام کنه و آنها را جریمه کنه و رتبه سایت های با کیفیت بالا را بالا ببره.
هدف الگوریتم گورخر گوگل چیست؟
همانطور که اشاره کردم، ماموریت الگوریتم گورخر گوگل پاکسازی جامعه تجارت الکترونیک، تقویت فروشگاه های آنلاین و در نهایت شناسایی خرده فروشان با کیفیت پایین و حذف آنها از نتایج جستجوی گوگل است.
Google Zebra برای بسیاری از صاحبان وب سایت مطلوب نیست زیرا فروشگاه های با کیفیت پایین را حذف می کنه و فروشگاه های درجه یک را در نتایج SERP ارتقا میده.
هدف گوگل از الگوریتم Zebra اینه که وب سایت ها و فروشگاه های با کیفیت بالا را در نتایج جستجوی بهتر به نمایش بذاره و رتبه های برتر را به سایت هایی اختصاص بده که رضایت مشتری و تجربه کاربر را در اولویت قرار میدن.
توجه به این نکته ضروری است که 70 درصد فروشگاه های آنلاین صرفاً بر اساس دیدگاه های سئو و کلمات کلیدی وب سایت راه اندازی میشن. با گذشت زمان، گوگل برخی از آنها را به عنوان هرزنامه می شناسه. گوگل سایت هایی را که صرفا بر روی سئو و کلمات کلیدی تمرکز می کنن را بی اهمیت می دونه و سعی می کنه آنها را در رتبه پایین تری قرار بدده.
این رویکرد مورد استقبال کاربران قرار می گیره زیرا در طول جستجوی خود سایت هایی با کیفیت بالاتر و قابل اعتمادتر ارائه میدن. در نتیجه، هدف الگوریتم Zebra ارائه یک پلت فرم خرید امن و راحت برای کاربران گوگل است. همه چیز باید در جهت رضایت کاربر باشه.
14. الگوریتم مرغ مگس خوار گوگل:
مرغ مگس خوار بر بهبود درک سوالات جستجوی کاربر متمرکزه. گوگل را قادر می سازه تا با تفسیر زمینه و هدف پشت پرسش ها، نتایج مرتبط تری ارائه بده.
کارشناسان و مخاطبان بازاریابی دیجیتال تأثیر انتشار آن را احساس کردن. تقریباً 90٪ از نتایج جستجو را تحت تأثیر قرار داد. به روز رسانی مرغ مگس خوار به گوگل این امکان را میده که به جای نگاه کردن به کلمات کلیدی برای استخراج بهترین نتایج، هدف جستجو را دنبال کنه.
الگوریتم مرغ مگسخوار (Hummingbird) چیست؟
در ۲۶ سپتامبر ۲۰۱۳ اضافهشدن مگسخوار به باغوحش گوگل (الگوریتمهای مهمش) اعلام شد. الگوریتم مگسخوار حدود یک ماه قبل از این تاریخ کار خودش را شروع کرده بود. الگوریتم مرغ مگس خوار با جریمهکردن وبسایتها کاری نداره . برعکس پاندا که در خط مقدم مبارزه گوگل با محتوای بی کیفیت قرار داره و در جابهجاکردن جایگاه وبسایت بسیار بسیار تاثیرگذاره. پس مگسخوار با جایگاه و رتبهی وبسایتها در گوگل هم مستقیما کاری نداره و بر آن تاثیر نمیذاره.
مرغ مگس خوار تغییر اساسی در الگوریتم هستهی گوگل بود تا تلاش و تعهد او را برای فهمیدن هرچه بیشتر و بهتر مقصود کاربر از جستوجو نشون بده. طبیعتا وقتی گوگل مقصود و هدف اصلی کاربر از سرچ را بهتر بفهمه میتونه مرتبطترین، کاملترین و بهترین پاسخها را دراختیار او بذاره.
الگوریتم مرغ مگس خوار و تاثیر آن بر سئوی سایت
همانطور که قبلا هم اشاره شد، این الگوریتم مستقیما تاثیری بر سئوی سایت شما نمیذاره. اگه زمانی هم رتبه از دست دادید یا جایگاهتون تغییر فاحشی کرد، به احتمال خیلی خیلی زیاد کار مگسخوار نیست. اول الگوریتمهای دیگه رو چک کنید. نکته اینجاست که الگوریتم مگسخوار بیشتر از اینکه تهدید باشه فرصته برای سئوی سایت شما
چرا فرصته؟ به دو دلیل: اول، چون گوگل بیش از پیش به شما میگه وبسایت و محتواها چه ویژگیهایی باید داشته باشن تا نظر مگسخوار را جلب کنند. مهمترین ویژگی نزدیکشدن گوگل به زبان طبیعی و انعطافپذیر و پویای آدمهاست و فاصلهگرفتن از کلیدواژههای ازپیشتعیینشده و خشک. یعنی نزدیکشدن به اینکه وقتی می کنید«کافههای انقلاب»، او میفهمه منظورش بهترین کافههای میدان انقلاب و آن دوروبرهاست. و دوم، شما میدونید باید شروع کنید و وبسایت را برای نوع دیگری از جستوجوها (Conversational Search) هم بهینه کنید.
پس از آپدیت مرغ مگس خوار، گوگل شروع به جستجوی مترادف ها برای دنبال کردن هدف جستجو و استخراج نتایج مرتبط با موضوع کرد. گوگل را قادر میسازه تا بررسی دیگری بر روی کیفیت و ارتباط محتوا انجام بده که کیفیتی را به نتایج در SERP اضافه میکنه و به طور قابلتوجهی بر رتبهبندی جستجو و دیده شدن وبسایت تأثیر میذاره.
15. ضد اسپم و فیشینگ Payday Loan
این بخش وام گرفته از سایت سئو ایران هست : در سال 2013، گوگل از الگوریتمی به نام Payday Loan رونمایی کرد. وظیفه این الگوریتم گوگل این است که با سایتهای دارای هرزنامه برخورد کند، سایتهایی که کلمات کلیدی آنها در زمینه اسپم بسیار رایج است. همانطور که در بالا ذکر شد، این الگوریتم شامل سایتهای اسپم کلمات و عبارات ناپسند و غیره است. اساس این الگوریتم برخورد با سایتهایی است که از کلمات کلیدی مکرر به عنوان هرزنامه استفاده میکنند.
الگوریتم Payday Loan چیست؟
به طور کلی، هر پیامی که بدون اجازه و رضایت قبلی به کاربر ارسال شود، هرزنامه نامیده میشود. مهم نیست که پیام در مورد چیست (تبلیغات، اطلاعرسانی، درخواست عضویت و غیره). الگوریتم Payday Loan گوگل یا الگوریتم ضد هرزنامه مسئول نظارت بر هرزنامهها است.
الگوریتم Payday Loan چه سایتهایی را هدف قرار داد؟
مت کاتز، سرپرست تیم وب اسپم گوگل، میگوید Payday Loan یکی از اصلیترین و با اهمیتترین به روزرسانیهای گوگل در مبارزه با محتوای اسپم میباشد. هدف اصلی Payday Loan شناسایی و حذف وب سایتهایی است که وامهای پیشرفته، وامهای پردرآمد، کازینوها، پورنوگرافی و هرزنامههای دیگر را میفروشند. مت کاتز همچنین گفت که سایر منابع قدرتمند Payday Loan شامل سایتهایی مانند بازار سیاه داروخانهها و وامهای مسکن و بیمه است که با تعهدات واهی به بازار کلاهبرداری آنلاین دامن زده است.
مت کاتز، رئیس الگوریتمهای تحقیق در مورد هرزنامهها در گوگل نیز گفت که این الگوریتم فقط برای کاربران آمریکایی نیست، بلکه شامل تمام جستجوهای جهانی گوگل است. جالب است بدانید که این الگوریتم ۰.۳ درصد از نتایج جستجو شده در منطقه ایالات متحده را تشکیل میدهد، در حالی که در ترکیه حدود ۴ درصد است. گفته میشود که سایتهای اسپم در بین سایتهای ترکیه بسیار رایج است.
الگوریتم Payday Loan گوگل دو مورد را تحت تأثیر قرار داد:
- نوشتهها
- سایتهای اسپم
به طور خاص، مت کاتز اظهار داشت که Payday Loan 2.0 سایتهای اسپم را هدف قرار میدهد و نسخه ۳.۰ بر درخواستهای هرزنامه تمرکز میکند. این به روزرسانیها در سال ۲۰۱۴ با فاصله ۱ تا ۲ ماه منتشر شد. علاوه بر این، نسخه سوم محافظت بیشتری در برابر حملات منفی SEO دارد. سایتهای جعلی نیز در این به روزرسانی گنجانده شده است. با این حال، کاتز این را به عنوان یک عارضه جانبی دیده است و نه هدف اصلی به روز رسانی.
16. الگوریتم کبوتر گوگل:
گوگل بهروزرسانی الگوریتم کبوتر را بهصورت دورهای برای مناطق مختلف جهان منتشر کرد. تمرکز اصلی الگوریتم کبوتر این بود که الگوریتم محلی Google را با الگوریتم اصلی مرتبط کنه. گوگل را قادر میسازد تا برای رتبهبندی یک سایت در نتایج محلی و غیر محلی، به همان عوامل سئو متکی باشه. تمرکز اصلی بهروزرسانی Google Pigeon روی عامل ثبتشده بود،
در سئو صفحه
سئو خارج از صفحه
فاصله
محل
ثبات NAP
فهرست های محلی
راه اندازی GMB.
بر بهبود نتایج جستجوی محلی تمرکز داره. هدف آن ارائه نتایج دقیقتر و مرتبطتر برای جستجوهای مبتنی بر مکانه که به نفع مشاغل با حضور محلیه.
هدف Google Pigeon و الگوریتم های دیگری که در سال های اخیر ظاهر شدن، اعطای اعتبار مناسب به سایت هایی هست که نه تنها خدمات و محصولات با کیفیتی را در سطح محلی ارائه میدن، بلکه از نظر سئو به درستی عمل کردن. این احساس که آنها بهترین تکنیکهای نمایه سازی و موقعیت یابی سئو کلاه سفید را در سایت و خارج از سایت ، بدون جستجوی میانبرهایی با هدف دستیابی به نتایج معتبر با تلاش کمتر یا با رفتار نادرست نسبت به افرادی که صادقانه عمل میکنن، به کار بردن تثبیت موقعیت. همه اینها به این معنیه که حتی از نظر جستجوی محلی، گوگل قصد داره به فاکتورهای مختلف سئو و همچنین بک لینک ها و اعتبار دامنه اهمیت بیشتری بده.
برگردیم به موضوع جستجو از طریق دستگاه های تلفن همراه، گویی گوگل با الگوریتم کبوتر خود را با همه آن دسته از کاربرانی که حالا وقتی خود را در خیابان می بینن و به دنبال اطلاعات می گردن، از تلفن همراه خود استفاده کنن. به همین دلیله که هدف این الگوریتم اینه که جستجوهای محلی را که از طریق دستگاه های تلفن همراه انجام میشه، دقیق تر کنه. در واقع، به نظر میرسه کبوتر آنقدر دقیقه که میتونه تفاوتهای بین محلهها یا مناطق مختلف شهر را که اغلب توسط شهروندان به نامهای مختلف خوانده میشه، درک کنه.
ظاهراً Google Pigeon همه را راضی میکنه و میتونه نتایج را هم از طریق نامهای رسمی و هم از طریق نامهای به اصطلاح محبوب به دست بیاره. حتی از طریق دستگاه های تلفن همراه، می توان نتایج مرتبط را با هر عبارت را پیدا کرد .
به نظر میرسد Google Pigeon به همه آن کسبوکارهای محلی اهمیت زیادی داده که علاوه بر کار برای قرار دادن کلمات کلیدی بومیشده، پروفایلهای اجتماعی مختلفی ایجاد کردن ، مانند پروفایلهای Google Plus که ارتباط بسیار قوی با نقشهها و هر چیزی که باید انجام بشه. با موقعیت جغرافیایی انجام بدین .
Google Knowledge Graph
گراف دانش چیست؟ پایگاهدادهای عظیم از اطلاعات دربارهی آدمها، مکانها و چیزها. مثلا وقتی کسی سرچ میکنه«برج ایفل چند متر است؟» یا «رئیسجمهور آمریکا کیست؟» یا «فاصلهی زمین تا ماه چهقدره؟»، گوگل پاسخ را از گراف دانش میده. فقط به این نکته دقت کنید که در گراف دانش واقعیتها ثبت و ضبط میشن.
چون مگسخوار به این پایگاه عظیم دسترسی داره، وقتی الان سرچ میکنید قرص مسکن، نام انواع قرصهای آرامبخش یا ضددرد یا حتی وبسایتهای فروش این قرصها به شما نمایش داده نمیشود. برعکس، مگسخوار با استفاده از گراف دانش SERP را از وبسایتها و محتواهایی که به شما اطلاعات قابلاطمینان و معتبر دربارهی قرصهای مسکن و عوارض و موارد استفاده میده.
17. الگوریتم Google Mobile Friendly:
این الگوریتم وبسایتهای سازگار با موبایل را در نتایج جستجوی تلفن همراه اولویتبندی میکنه که منعکسکننده افزایش استفاده از دستگاههای تلفن همراه برای جستجوهای آنلاینه. ر 21 آوریل 2015، گوگل جدیدترین بهروزرسانی الگوریتم تلفن همراه خود را منتشر کرد که بر روی افزایش نتایج جستجوی گوشیهای هوشمند به وبسایتهای سازگار با موبایل متمرکز بود. کارشناسان جستجو و رسانهها نام مستعار بهروزرسانی جدید را «Mobilegeddon» گذاشتهاند.
وبسایتهای سازگار با موبایل پس از این بهروزرسانی الگوریتم شروع به رتبهبندی برای جستجوهای تلفن همراه Google کردن. با این حال، بر جستجوهای دسکتاپ تأثیر نمیذاره.
بر خلاف سایر به روز رسانی های الگوریتم گوگل، مانند پاندا، پنگوئن و مرغ مگس خواراین غول موتور جستجو قبل از این به روز رسانی بزرگ توجه زیادی جلب کرده. گوگل برای اولین بار برنامه های خود را برای به روز رسانی الگوریتم موبایل در دسامبر 2014 اعلام کرد. گوگل به خبرگزاری ها گفت “آنها در حال آزمایش یک الگوریتم جدید رتبه بندی سازگار با موبایل هستن” و تاریخ انتشار را در فوریه 2015 به طور رسمی اعلام کرد.
در مورد تأثیر آن، الگوریتم جدید سازگار با موبایل گوگل تنها بر جستجوهای دستگاه های تلفن همراه تأثیر میذاره و به صفحات سازگار با موبایل کمک میکنه و صفحات غیر موبایل دوستانه را کاهش میده. الگوریتم موبایل دوستانه فقط بر رتبه بندی موبایل تاثیر میذاره. در رتبه بندی دسکتاپ و تبلت تاثیری نخواهد داشت.
چگونه متوجه می شوید که وب سایت شما برای موبایل مناسبه؟
در حال حاضر چند راه برای آزمایش اینکه آیا سایت شما قبلاً توسط گوگل به عنوان وب سایت سازگار با موبایل ایندکس شده است یا خیر وجود داره.
استفاده کنید ابزار تست موبایل دوستانه گوگل.
گزارش های قابلیت استفاده از تلفن همراه خود را در داخل بررسی کنید گوگل وبمستر تولز.
تاثیر Mobilegeddon بر نتایج جستجوی موبایل
میزان تأثیر بهروزرسانی Mobilegeddon هنوز مشخص نیست. با این حال، گفته شده که اهمیت بیشتری نسبت به به روز رسانی الگوریتم های پاندا و پنگوئن خواهد داشت. این به طور بالقوه به این معنی است که بیش از 11٪ از نتایج جستجو تحت تأثیر به روز رسانی الگوریتم قرار می گیرن.
18. الگوریتم رنک برین گوگل:
به روز رسانی الگوریتم RankBrain گوگل در 26 اکتبر 2015 راه اندازی شد. RankBrainبرای تقویت بیشتر الگوریتم مرغ مگس خوار طراحی شده. به همین دلیل به عنوان بخشی از الگوریتم مرغ مگس خوار شناخته میشه.
الگوریتم RankBrain از یک سیستم یادگیری ماشینی برای ارزیابی کامل محتوای صفحه وب استفاده میکنه. به ارتباط یک صفحه وب با عبارتهای جستجو، کیفیت محتوا و سایر معیارهای رتبهبندی نگاه میکنه. گوگل RankBrain را یکی از موثرترین به روز رسانی های الگوریتم خود می دونه.
یک الگوریتم هوش مصنوعی که به گوگل کمک میکنه تا معنای پرس و جوهای جستجو را درک کنه. از تعاملات کاربر می آموزه تا نتایج جستجوی بهتری ارائه بده.
19.الگوریتم موش کور Possum سپتامبر 2016
الگوریتم Google Possum
Google Possum نام مستعار یکی از الگوریتم هایه که گوگل در سال 2016 منتشر کرد. این الگوریتم برخلاف سایر الگوریتم ها هستش زیرا صفحات وب را ایندکس و رتبه بندی نمی کنه. در عوض، از طریق Google Maps وLocal Finder مس خزد تا هرزنامه را شناسایی و حذف کنه.
این الگوریتم تنها یکی از چندین ربات مورد استفاده گوگل هست تا نتایج جستجوی خود را تا حد امکان برای کاربران خود قابل اعتماد نگه داره. برای بازاریابان سئو، این الگوریتم مفید در نظر گرفته میمیشه، زیرا تکنیکهای بازاریابی پنهانی را مشروعیت میبخشه و از تلاشهای بازاریابی آنها در برابر هرزنامه، اختلال و تداخل محافظت میکنن.
بهروزرسانی Google Possum در 1 سپتامبر 2016 منتشر شد. تمرکز اصلی بهروزرسانی Possum روی بهبود نتایج جستجوی محلی بود. گوگل را قادر می سازه تا مشاغل نزدیک به مکان جستجوگر را برای SERP ها اولویت بندی کنه. موقعیت کسب و کار و فاصله از جستجوگر دیجیتال، مهمترین فاکتورها در مشاهده SERP ها باقی مانده. بهروزرسانی Google Possum به کسبوکارهای محلی رونق باورنکردنی میده.
20. گوگل فرد Fred Google
بهروزرسانی الگوریتم Fred Google در ۸ مارس ۲۰۱۷ منتشر شد. تمرکز اصلی آن محدود کردن دید وبسایت، نقض دستورالعملهای وبمستر Google بود. اکثر سایت های وبلاگ نویسی که صرفا برای کسب درآمد طراحی شدن تحت تأثیر به روز رسانی الگوریتم Ferd Google قرار گرفتن. بهروزرسانی فرد بر عوامل ثبتشده تأکید میکنه.
- محتوای نازک
- محتوای با کیفیت پایین
- وابسته به محتوای سنگین
- تبلیغات محتوای غنی
گوگل علاوه بر هدف قرار دادن محتوای با کیفیت پایین، سیاست هایی را برای مقابله با سوء استفاده از شهرت سایت ارائه کرده که با استراتژی های دستکاری مانند سئوی انگل مبارزه میکنه.
پس از آپدیت Fred، انتشار یک صفحه وب پر از لینک های وابسته و فریب دادن گوگل غیرممکنه. به روز رسانی Fred به گوگل اجازه میده تا صفحات وب با محتوای کم کیفیت را جستجو کند و دید آنها را محدود کنه.
21. الگوریتم Google Medic:
گوگل مدیک چیست؟
بهروزرسانی Google Medic یک بهروزرسانی الگوریتم Google در اواخر سال 2018 بود. در حالی که این بهروزرسانی صنایع متعددی را تحت تأثیر قرار داد، بیشتر صفحات وبی که تحت تأثیر قرار گرفتن، صفحات «پول، زندگی شما (YMYL) بودن.
وب سایت های YMYL چیست؟
صفحاتی که به طور بالقوه می تونن بر سلامتی، شادی یا ثروت کاربران در آینده تأثیر بذارن، به عنوان صفحات «پول شما، زندگی شما» طبقه بندی میشن و بنابراین توسط خزنده های جستجوی گوگل مورد بررسی دقیق تری قرار می گیرن. موارد زیر صفحات YMYL در نظر گرفته میشن:
صفحات خرید یا تراکنش مالی
صفحات اطلاعات مالی
صفحات اطلاعات پزشکی
صفحات اطلاعات حقوقی
مقالات خبری یا صفحات اطلاعات عمومی/رسمی برای داشتن یک شهروند آگاه مهم هستن
دیگر هدف Medic بهبود کیفیت سلامت و نتایج جستجوی مرتبط با پزشکیه. این به ویژه برای وب سایت های سلامت و تندرستی بسیار مهمه.
هدف بهروزرسانی Medic تأکید و بهبود تخصص، اعتبار و قابلیت اعتماد (EAT) صفحاتی بود که قدرت تأثیرگذاری بر رفاه و شادی افراد را دارن. گوگل صفحاتی را کهEAT ندارن یا کم دارن مجازات میکنه و وب سایت هایی که دارای EAT بالایی هستن پاداش میده.
22. الگوریتم Google BERT:
BERT یکی از موثرترین ساخته شده توسط گوگل تا به امروزه. گوگل بهروزرسانی BERT را در 25 اکتبر 2019 برای بهبود تجربه محصول راهاندازی کرد. این به Google اجازه میده تا از مدل های یادگیری عمیق برای پردازش زبان طبیعی (NLP) برای یافتن هدف جستجوهای جستجو استفاده کن. BERT به Google در استخراج مرتبط ترین دادهها از طریق NLP کمک میکنه تا تجربه کاربری مثبتی را ارائه بده.
BERT بر نوشتن محتوای با کیفیت با لحن جذاب، اطلاعات دقیق و ساختار مناسب تأکید داره. محتوای با کیفیت خوب ساختار یافته، کلیدی برای دیده شدن پس از بهروزرسانی BERT است. این یکی از آن الگوریتمها – Google BERT – هست که به موتور جستجو کمک میکنه بفهمه مردم چه چیزی میخوان و پاسخهایی را که میخوان بیاره.
درسته رباتها انسان نیستن، اما فناوری آنقدر پیشرفت کرده که میتونن زبان انسان از جمله عامیانه، خطاها، مترادفها و عبارات زبانی موجود در گفتار ما را درک کنن و ما حتی متوجه آن نمیشیم. این الگوریتم جستجوی جدید توسط گوگل برای درک بهتر اهداف و محتوای جستجوی کاربران در صفحات وب ایجاد شده.
BERT مخفف Representations Encoder Bidirectional from BERT چیست؟
Google BERT الگوریتمی است که درک موتور جستجو از زبان انسان را افزایش میده.
این در دنیای جستجوها ضروریه، زیرا افراد به طور خودجوش خود را در عبارات جستجو و محتویات صفحه بیان می کنن و Google برای ایجاد تطابق صحیح بین یکی و دیگری تلاش میکنه.
گوگل قبلاً مدل هایی را برای درک زبان انسان اتخاذ کرده بود، اما این به روز رسانی به عنوان یکی از مهم ترین جهش ها در تاریخ موتورهای جستجو اعلام شد .
(بازنمودهای رمزگذار دوطرفه از ترانسفورماتورها) درک زمینه را در جستارهای جستجو افزایش میده و منجر به نتایج جستجوی دقیق تر و طبیعی تر میشه.
24. الگوریتم Google EAT:
EAT مخفف Expertise، Authority و Trustworthiness هست و نشون گر کیفیت محتوای یک صفحه هستش. در اینجا چیزی که گوگل به عنوان محتوایی هایی که EAT بالایی داره طبقه بندی میکنه:
توصیه های پزشکی High EAT باید توسط افراد یا سازمان هایی با تخصص یا اعتبار پزشکی مناسب نوشته یا تولید بشه.
مقالات خبری High EAT باید با حرفه ای بودن روزنامه نگاری تولید بشن که به کاربران کمک میکنه تا درک بهتری از رویدادها داشته باشند
صفحات اطلاعات EAT بالا در مورد موضوعات علمی باید توسط متخصصان علمی تولید شوند و یک اجماع علمی تثبیت شده در مورد مسائل را نشون بدن.
مشاوره مالی EAT High EAT، مشاوره حقوقی، مشاوره مالیاتی و غیره باید از منابع قابل اعتماد تهیه شده و به طور مرتب نگهداری و به روز بشن.
صفحات مشاوره EAT بالا در مورد موضوعاتی مانند بازسازی خانه نیز باید از منابع “متخصص” یا با تجربه که کاربران می تونن به آنها اعتماد کنن ارائه بشن.
صفحات EAT بالا در مورد سرگرمی ها، مانند عکاسی یا یادگیری نواختن گیتار، نیز نیاز به تخصص دارن.
تنها راه حل واقعی این است که محتوای خود را درست کنید و EAT خود را بهبود بخشید. میتونید این کار را با پیروی از دستورالعمل هلی کیفیت جستجو Google انجام بدین :
اصول اساسی
صفحات را در درجه اول برای کاربران بسازید، نه برای موتورهای جستجو
کاربران خود را فریب ندهید
از ترفندهایی که برای بهبود رتبه موتورهای جستجو در نظر گرفته شده خودداری کنید. یک قانون سرانگشتی خوب اینه که آیا احساس راحتی می کنید که چه کاری را برای کارمند Google انجام دادید توضیح بدین. تست مفید دیگر اینه که بپرسید: «آیا این به کاربران من کمک میکنه؟ اگه موتورهای جستجو وجود نداشتن آیا این کار را انجام می دادم؟
به این فکر کنید که چه چیزی وب سایت شما را منحصر به فرد، ارزشمند یا جذاب میکنه. وب سایت خود را از سایرین در حوزه کاری خود متمایز کنید.
رهنمودهای خاص
از تکنیک های زیر اجتناب کنید :
- محتوای تولید شده به صورت خودکار
- شرکت در طرح های پیوند
- ایجاد صفحات با محتوای کم یا بدون محتوای اصلی
- پنهان کاری
- تغییر مسیرهای یواشکی
- متن یا لینک های مخفی
- صفحات درگاه
- محتوای خراشیده شده
- شرکت در برنامه های وابسته بدون افزودن ارزش کافی
- بارگذاری صفحات با کلمات کلیدی نامربوط
- ایجاد صفحاتی با رفتارهای مخرب مانند فیشینگ یا نصب ویروس ها، تروجان ها یا سایر بدافزارها
- سوء استفاده از نشونه گذاری rich snippets
- ارسال پرسشهای خودکار به Google
از روش های خوب مانند این پیروی کنید :
- نظارت بر سایت خود برای هک کردن و حذف محتوای هک شده به محض ظاهر شدن
- جلوگیری و حذف هرزنامه های تولید شده توسط کاربر در سایت
- (تخصص، اقتدار، اعتماد) اعتبار و قابل اعتماد بودن محتوا و سازندگان آن را ارزیابی میکنه. به ویژه برای موضوعات YMYL (پول یا زندگی شما) مهمه.
این الگوریتم ها برای تعیین رتبه بندی صفحات وب در نتایج جستجو به صورت پشت سر هم کار می کنن. درک نقش آنها و تطبیق محتوای وب سایت شما و استراتژی های سئو بر این اساس برای دستیابی به دید بهتر در صفحات نتایج موتور جستجوی گوگل (SERP) بسیار مهمه. به خاطر داشته باشید که گوگل به طور مکرر الگوریتم های خود را به روز میکنه .
به روز رسانی الگوریتم هسته گسترده – 9 مارس 2018
گوگل در 9 مارس 2018، بهروزرسانی الگوریتم هسته گسترده را منتشر کرد. گوگل قصد داشت از طریق این به روز رسانی الگوریتم، بهترین سایت های دارای محتوای بارگذاری شده با بهترین و با کیفیت را برای SERP استخراج کنه. این بهروزرسانی برای سایتهای باکیفیتی که Google قبلاً نادیده گرفته بود، قابل مشاهده هست. بهروزرسانی هستهای اخیر مارس 2024 همچنین ماهیت پیچیده و چندوجهی این بهروزرسانیها را برجسته میکنه که بر روی دید و عملکرد جستجو تأثیر میذاره.
الگوریتم هسته گسترده بر نوشتن محتوای با کیفیت، دریافت بک لینک های با کیفیت از سایت های مرتبط با مقامات بالاتر و ارسال سیگنال های اجتماعی برای برجسته شدن در SERP های برتر در برابر جستارهای جستجوی مرتبط تاکید داره. بهروزرسانی اصلی اکتبر 2023 بر اهمیت تطبیق استراتژیها برای همسویی با استاندارههای در حال تکامل Google، بهویژه با همپوشانی با بهروزرسانی تشخیص هرزنامه تأکید میکنه.
25- الگوریتم تطبیق عصبی چیست؟
Neural Matching یک موتور بازیابی پیچیده س که از فناوری هوش مصنوعی برای اتصال بهتر کلمات به مفاهیم استفاده می کنه. همانطور که گوگل تایید کرد، از آن برای تجزیه و تحلیل الگوها با استفاده از بردارها استفاده میشه و در درجه اول برای تجزیه و تحلیل تصویر ایجاد شده ، اما از سال 2018 در مناطق مختلف دیگر اعمال شده.
تصور کنید در حال جستجوی اطلاعات در اینترنت هستید، و میخواید چیزی را پیدا کنید، حتی اگر برای توصیف آنچه به دنبال آن هستید به کمک نیاز داشته باشید، یا از کلماتی متفاوت از آنچه در یک صفحه وب است استفاده میکنید. اینجاست که چیزی به نام «تطابق عصبی» به کار میاد.
این سیستم یادگیری ماشینی مانند یک مکانیسم هوشمنده که به موتورهای جستجو مانند گوگل کمک می کنه منظور شما را درک کنن. به جای اینکه فقط به کلمات خاص توجه کنه، به کل پرس و جو نگاه می کنه. سعی می کنه ایده ها یا مفاهیم بزرگی را که در کلمات شما پنهان شده کشف و سپس صفحاتی را پیدا کند که با آن مفاهیم مطابقت دارن. بنابراین، مانند اینه که با یک دوست کاملاً فهمیده صحبت کنید که می تونه ایده های اصلی آنچه شما میگید رو درک کنه.
الگوریتم تطبیق عصبی گوگل از چیزی به نام شبکه های عصبی استفاده می کنده این مانند مغزهای دیجیتالیه که از نحوه عملکرد مغز ما الهام گرفته شده. این مغزهای دیجیتال در پردازش و درک حجم عظیمی از اطلاعات عالی هستن.
اکنون، به جای جستجوی کلمات کلیدی خاص، این فناوری یادگیری ماشینی بر کشف آنچه شما به دنبال آن هستید تمرکز می کند.
اساساً، آن:
درک پرس و جوها با در نظر گرفتن زمینه،
پیدا کردن مترادف (کلماتی که معنی یکسان دارن)
با استفاده از هوش مصنوعی، ارتباطات پنهان بین کلمات را شناسایی می کنهد
به این ترتیب، می تونه نتایج جستجوی مرتبط تری به شما بده. در نتیجه، تجربه جستجوی آنلاین شما را بسیار روانتر و دقیق تر می کند.
26- الگوریتم Google Suggest
Google Suggest الگوریتمی هست که در ابتدا توسط گوگل برای یافتن بهترین عبارات منطبق با کلمه کلیدی اصلی توسعه یافته.
در جستجوی Google، این تابع پیشنهاداتی را برای کاربران در حالی که درخواست خود را در فرم جستجو تایپ می کنن ارائه میده. یا کلمه کلیدی وارد شده را تکمیل می کنه یا اضافه کردن حروف و کلمات بیشتر به درخواست اصلی، اصطلاحات اضافی را اضافه می کنه.
الگوریتم پیش بینی های جستجو را بر اساس عوامل زیر ایجاد می کنه:
- کلمات کلیدی که در فرم جستجو وارد می کنید
- سابقه جستجوی شما با کلمات کلیدی مرتبط
- محبوبیت پیشنهادات، به احتمال زیاد بر اساس Google Trends
- منطقه و زبان شما
وقتی کلمه کلیدی اصلی را در فرم جستجو در KWFinder وارد میکنید، آن را میگیریم و از الگوریتم پیشنهاد Google برای ایجاد ایدههای کلیدی جدید بسته به مکان و زبان انتخاب شده استفاده میکنیم.
به خاطر داشته باشید که ایده ها توسط کلمه کلیدی اصلی تعیین می شوند. بنابراین، ممکنه در مقایسه با کلیدواژههای مرتبط منبع اصلی کلمه کلیدی، کلمات کلیدی کمتری با حجم جستجوی کمتر مشاهده کنید. از سوی دیگر، آنها تمایل دارن به سئو پایینی برسن، بنابراین رتبه بندی برای آنها آسون تره.
27. الگوریتم MUM گوگل
MUM مخفف Multitask Unified Model هست. با استفاده از یک الگوریتم مبتنی بر هوش مصنوعی، این مدل Google MUM بینش عمیق و دقیقی را در عرض چند ثانیه برای هر درخواست پیچیده در سراسر وب ارائه میکنه. این به کاربران کمک می کنه تا نیاز به جستجوهای متعدد را برای مقایسه و به دست آوردن بینش عمیق برای جستجوهای خود حذف کنن. برای از بین بردن سوگیری های ماشینی و تولید نتایج بصری، گوگل از عوامل زیر پیروی می کنه.
دستورالعملهای ارزیابی کیفیت جستجو، که توسط ارزیابهای انسانی برای کمک به Google در یافتن میزان مرتبط بودن اطلاعات برای کاربران دنبال شده. و همان فرآیند اعمال شده در بهروزرسانی BERT 2019 گوگل را انجام بدین.
علاوه بر این، برای تأیید کارایی نتایج جستجو، گوگل وظیفه یادگیری از تحقیقات اخیر خود را در مورد «چگونه ردپای کربن سیستمهای آموزشی شبکه عصبی بزرگ را کاهش بدیم» را بر عهده خواهد گرفت.
الگوریتم Google MUM چگونه کار می کنه؟
با کمک هوش مصنوعی یا درک زبان طبیعی، این مدل Google MUM برای پاسخگویی به پرسشهای جستجوی پیچیده با دادههای چندوجهی کار میکنه.
MUM اطلاعات را در انواع رسانه های مختلف پردازش می کنه. این MUM علاوه بر متن، تصاویر، فایلهای صوتی و ویدیویی را نیز برای پاسخ به سؤالات جستجوی پیچیده درک میکنه. این به Google کمک می کنه تا نتایج دقیقی را برای نیازهای کاربر ارائه بده.
https://loganix.com/what-is-google-dance
https://www.webfx.com/seo/glossary/what-is-a-google-algorithm
https://www.semrush.com/blog/google-panda
https://www.pageonepower.com/search-glossary/penguin-algorithm
https://amanjacademy.com/google-hummigbird-algorithm
https://moz.com/learn/seo/google-rankbrain
https://response.agency/blog/2015/04/what-is-mobilegeddon/.
https://www.bluecorona.com/faq/what-is-google-medic
.https://rockcontent.com/blog/google-bert/
https://moz.com/learn/seo/google-eat
https://edit.co.uk/blog/google-pirate-algorithm
https://mangools.com/kwfinder/features/google-suggest
https://seonorth.ca/algorithms/page-layout
https://ahrefs.com/seo/glossary/google-caffeine
Your ability to explain complex topics in an accessible way is truly
impressive. Thank you for that.