احتمالا میدانید تمامی فعالیتی که موتور جستجوی گوگل انجام میدهد، به کمک یک الگوریتم هسته مرکزی و یک سری الگوریتم های فرعی انجام میشود که مثل بازوهای الگوریتم هسته عمل میکنند. در این مقاله قصد دارم لیست کامل آپدیت و معرفی الگوریتم های گوگل از سال 2000 تا همین امروز را معرفی کنم و کاربرد هر کدام را هم به شما توضیح بدهم:
گوگل این بار اعلام کرد که عمده مشکلات مربوط به ایندکس کردن صفحات در سطح وب رفع شده است.
خود گوگل وجود مشکلات ایندکسینگ را از ابتدای ماه سپتامبر تایید کرد و ابزار moz هم خبر داد که این مشکلات مخصوصا در انتهای این ماه قابل مشاهده بوده.
در روز 22 ژوئن در نتایج گوگل اتفاقات جدیدی رخ داد. ابزار moz نمایش داده که تغییرات گسترده ای در حال اجراست در حالی که به نظر آپدیت الگوریتمی اجرا نشده بود. بعد از این گوگل از این خبر داد که این یک مشکل کوچک بود و به سرعت توسط تیم گوگل رفع شده.
بعد از بروزرسانی مدیک در سال 2018، وب سایت moz بروزرسانی هسته گوگل در ماه می 2020 را به عنوان دومین بزرگترین بروزرسانی هسته در نظر گرفته!
خب راستش کرونا یا همان کوید-19 یک بروزرسانی یا آپدیت الگوریتمی نبود! اما در هر حال شیوع این بیماری در جهان باعث ایجاد تغییرات گسترده در روند و رفتار مخاطبان حین جستجو در اینترنت شد.
در 13 ژانویه 2020، ابزار moz توانست تغییرات به شدت گسترده و بزرگی را در سطح وب شناسایی کرده و یک آپدیت هسته دیگر توسط گوگل را شناسایی کند.
در دسامبر 2019، گوگل به طور رسمی اعلام کرد که الگوریتم bert در سطح بین المللی و به 70 زبان زنده دنیا در حال فعالیت است و در بررسی نتایج به الگوریتم های دیگر کمک میکند.
در اکتبر 2019 از آپدیت bert رونمایی شد. الگوریتم برت یک الگوریتم هوش مصنوعی است که به گوگل کمک میکند زبان انسان ها را بهتر از قبل بفهمد. در اصل این بروزرسانی میتواند باعث فهم بهتر زبان محاوره ای در زمان جستجو در گوگل شود.
در ژوئن سال 2019 گوگل خبرهایی از این داد که به دنبال ایجاد تنوع بیشتر در نتایج جستجو است. گوگل اعلام کرد که دوست ندارد مثل قبل، با جستجو یک کلمه کلیدی در نتایج به 4،3 یا 5 صفحه که همگی از یک سایت هستند برخورد کنید. گوگل با بروزرسانی “تنوع” توانست تعداد صفحات موجود در یک صفحه را به 2 عدد برساند. این یعنی نهایتا و در صورت داشتن محتوای با کیفیت، صرفا 2 صفحه از سایت شما میتواند روی یک کلمه کلیدی سئو شود.
در سال 2018 خود گوگل در مورد یک بروزرسانی اطلاع رسانی کرد. این آپدیت برای بهینه سازی سرعت سایت ها جهت نمایش در موبایل ایجاد شده بود. البته گوگل گفت وبمستران نیاز به نگرانی بابت این موضوع ندارند چون این الگوریتم جدید گوگل صرفا بر کندترین وب سایت ها تاثیر میگذارد.
گوگل در سال 2018 بار دیگر سراغ متن متای توضیحات وب سایت ها رفت و مقدار مجاز آن را به همان میزان قبلی یعنی 150 تا 160 کاراکتر بازگردانی کرد.
تا قبل از این، متن متای توضیحات هر صفحه از سایت شما مجاز به داشتن 155 کاراکتر بود. در سال 2017 این متن به چیزی حدود 2 برابر افزایش پیدا کرد و به 300 کاراکتر ارتقا داده شد.
گوگل با بروزرسانی مرورگر گوگل کروم خود به نسخه 62، به کاربرانی که قصد ورود به وب سایت های بدون ssl داشتند، هشدار ناامن بودن سایت میداد. این موضوع تا امروز هم ادامه دارد (به شکل جدی تر) و هدف گوگل از این رفتار این است که همه مدیران وب سایت ها را مجبور به گرفتن گواهینامه ssl و امن تر کردن سایتشان کند.
در مارس سال 2017 باز هم وبمستران تغییراتی را در نتایج و همینطور ترافیک وب سایت خودشان مشاهده کردند. “گری الیس” که یکی از متخصصان گوگل است اسم این بروزرسانی را به شوخی “فرد” گذاشت اما بعدا اظهار کرد که این نام گذاری به معنی تایید بروزرسانی از سمت گوگل نیست.
طبق اظهارات بعضی از سئوکارها، فرد الگوریتمی است که برای مقابله با اسپم، خرید لینک های تبلیغاتی، محتوای مزاحم و بی کیفیت، به کمک بقیه الگوریتم های گوگل آمده.
الگوریتم possum یا موش کور یکی از بروزرسانی های تایید نشده گوگل است. در سال 2016 و بعد از اینکه در نتایج گوگل و ترافیک سایت ها تغییرات زیادی ایجاد شد، سئوکارهای خبره و معروف در انجمن های اینترنتی در مورد آن مشغول به بحث شدند. در نهایت نام این بروزرسانی موش کور انتخاب شد. طبق اطلاعات، این الگوریتم باعث ایجاد تغییرات در سئو و جستجوی محلی کسب و کارهاست.
این هم یکی دیگر از بروزرسانی ها برای افزایش اعتبار وب سایت هایی بود که برای دیده شدن در صفحات نمایش مختلف مثل موبایل و تبلت بهینه سازی شده اند. البته با توجه به اینکه وبمستران قبلا خودشان را برای موبایل گدون آماده کرده بودند، این بروزرسانی تاثیرات خیلی خاصی نداشت.
در سال 2015 گوگل اخباری از این موضوع منتشر کرد که “یادگیری ماشین” ماه ها است که بخشی از الگوریتم های این موتور جستجو بوده و حتی به سومین فاکتور رتبه بندی تبدیل شده. تاریخ دقیق انتشار الگوریتم رنک برین مشخص نیست و عده ای آن را به اوایل بهار سال 2015 نزدیک میدانند. این بروزرسانی یک انقلاب جدید در نتایج جستجو گوگل ایجاد کرده و امروز هم رتبه خیلی از سایت ها با توجه به الگوریتم رنک برین در گوگل تعیین میشود.
pirate یا دزد دریایی یکی از الگوریتم های مهم مبارزه با محتوای کپی شده در سطح وب است. حدود 2 سال قبل گوگل یک بروزرسانی به نام pirate/dmca منتشر کرده بود تا به کمک آن بتواند محتواهای کپی و دزدی شده در سطح وب را شناسایی کند. آپدیت سال 2014 این الگوریتم را قوی تر از قبل کرد.
این آغازی بود برای افزایش اهمیت سایت های sslدار نسبت به سایت هایی که https آنها فعال نشده! گوگل به طور مستقیم اعلام کرد که از این به بعد به وب سایت های ssl دار اهمیت و اعتبار بیشتری میدهد. همینطور گفت این تفاوت در ابتدای کار اندک است اما در صورت دریافت بازخورد مثبت، میزان آن را افزایش میدهیم.
الگوریتم pigeon یا همان کبوتر، تغییرات به شدت مهمی را در نتایج جستجوی محلی به وجود آورد. عملا میتوانم بگویم که این بروزرسانی یک انقلاب در سئو محلی گوگل حساب میشود. خود گوگل در مورد این بروزرسانی گفت: کبوتر میتواند ارتباط بهتری بین الگوریتم های اصلی ما و الگوریتم های سرچ محلی ایجاد کند.
الگوریتم hummingbird در سال 2013 توسط گوگل معرفی شد. این بروزرسانی هم مثل بروزرسانی کافئین به جای سایت ها، تمرکز خودش را روی بهبود جستجو کاربران و تجربه کاربری آنها در گوگل گذاشت.
در یکی از آپدیت های ماهانه، گوگل نام Venice را استفاده کرده. طبق اطلاعات منابع، این بروزرسانی باعث شد جستجوهای محلی کابران، نتایج بهتری باشد.
این یک الگوریتم جزئی و بی نام و نشان از طرف گوگل بود. به کمک این آپدیت الگوریتم گوگل اعتبار وب سایت هایی که در بالای صفحه خودشان از تبلیغات زیادی استفاده میکنند را کاهش داد. نام دقیقی برای این بروزرسانی الگوریتم گوگل در نظر گرفته نشده اما بعضی از سئوکارها اسم top heavy را روی آن گذاشتند.
فرشنس یکی از آپدیت های الگوریتمی مهم در گوگل بود. خود این موتور جستجو اعلام کرد که فرشنس در حدود 35 درصد از نتایج را تحت تاثیر قرار میدهد! این الگوریتم تمرکز زیادی روی محتواهای جدید از نظر زمانی و تازه بودن صفحات دارد.
در ژوئن سال 2011، گوگل، یاهو و مایکروسافت به صورت همزمان اعلام کردند که از داده های ساختار یافته یا همان کدهای نشانه گذاری پشتیبانی میکنند. وبمستران با اضافه کردن این نشانه ها به کدهای وب سایت خودشان، به موتورهای جستجو کمک میکنند که محتوای سایت را بهتر بفهمند و البته این موضوع باعث تاثیر مثبت در سئو سایت آنها میشود.
در سال 2011 گوگل فعالیت های متفاوت و مختلفی را انجام داد که یکی از آنها هم معرفی شبکه اجتماعی معروف خودش یعنی گوگل پلاس بود. قبلا هم این موتور جستجو اقدام به راه اندازی شبکه های اجتماعی مختلفی کرده بود اما همه آنها شکست خورده بودند. بنابراین گوگل نمیخواست این بار دوباره آن شکست را تجربه کند. در ابتدای رونمایی از گوگل پلاس، صرفا در عرض 2 هفته حدود 10 میلیون کاربر به این شبکه اجتماعی پیوستند؛ این یک زنگ خطر بزرگ برای شبکه های اجتماعی معروف دیگر مثل فیسبوک و توییتر بود.
گوگل تا آگوست سال 2011 حدودا 5 بار الگوریتم پاندا را بروزرسانی کرد و در 12 آگوست ششمین آپدیت را هم انتشار داد. این بروزرسانی از قبلی ها قوی تر و مهم تر بود. طبق اطلاعاتی که خود گوگل منتشر کرد، در بروزرسانی آگوست حدود 7 درصد از نتایج جستجو تحت تاثیر قرار گرفتند. این نسخه به جز زبان های چینی، کره ای و ژاپنی روی همه زبان های سطح وب اعمال شد.
سایت لینک همان لینک هایی هستند که بعد از جستجو اسم یک برند در گوگل، در پایین نام آن نمایش داده شده و شما را به صفحات مختلف سایت راهنمایی میکنند. در آگوست سال 2011 گوگل تغییرات مربوط به سایت لینک ها را برای برندهای بزرگ در سطح نتایج جستجو اعمال کرد. در ابتدا تعداد سایت لینک ها 12 عدد بود اما سپس به 6 عدد کاهش پیدا کرد.
اگر مقاله تگ کنونیکال را مطالعه کرده باشید، با مفهوم “رلِ کنونیکالِ صفحه بندی” هم آشنایید. گوگل با معرفی این المان ها یک سری از مشکلات ایندکس و بررسی سایت ها را حل کرد. با استفاده از تگ های صفحه بندی وبمستران میتوانستند یک نسخه اصلی از صفحات مشابه سایت را به گوگل معرفی کنند. به عنوان مثال نسخه اصلی صفحه وبلاگ سایت که دارای 10 صفحه است و در هر صفحه هم 5 مقاله دسته بندی شده به گوگل معرفی میشود تا بتواند آن را در نتایج ایندکس کند نه صفحات دیگر وبلاگ را.
در ژانویه سال 2011 گوگل در واکنشی نسبت به یک سری از رفتارهای اسپم گونه، آپدیتی به اسم “انتساب” را منتشر کرد که بهتر از قبل محتوای کپی شده و سارقان محتوا را شناسایی کند. مت کاتس گفت این بروزرسانی در حدود 2 درصد از نتایج جستجو را تحت تاثیر قرار میدهد. این آپدیت یکی از آپدیت هایی بود که خبر از انتشار الگوریتم جدید و قدرتمند پاندا در ادامه را میداد.
در سال 2010 مقاله ای در نیویورک تایمز منتشر شد که طبق آن، اینطور گفته شد که سایتی در گوگل نسبت به “نظرات منفی کاربران” در مورد آن، رتبه بندی شده. جالب اینجاست که گوگل هم سریعا واکنش داد و الگوریتم ها را به شکلی تنظیم کرد که نظرات منفی در مورد یک کسب و کار در نتایج سئو آن تاثیرگذار باشد! این یکی از حرکت ها و واکنش های نادر گوگل طی سالها فعالیت در سطح وب بود.
دیگر بعد از این همه سال که بک لینک ها در تعیین نتایج جستجو پادشاهی میکردند، زمان آن رسیده بود که گوگل یک تغییر قابل توجهی را ایجاد کند و البته این کار را کرد! در سال 2010 موتور جستجوی گوگل و همینطور بینگ اعلام کردند که از این به بعد نتایج شبکه های اجتماعی در نتایج جستجو سایت ها هم تاثیرگذار خواهند بود. در ادامه هم مت کاتس این موضوع را تایید کرده و گفت این یک پیشرفت جدید در گوگل است. اگر در مورد مفهوم هال سیگنال و تاثیر آن در نتایج گوگل نیاز به اطلاعات بیشتری دارید، مقاله سوشیال سیگنال کمکتان میکند.
و در نهایت بعد از مدت ها گوگل توانست کافئین را در موتور جستجوی خودش پیاده سازی کند. این شرکت ماه ها بود که سعی میکرد زیرساخت لازم برای اجرای کامل کافئین را آماده کند. کافئین تغییراتی بود که باعث افزایش سرعت خزش ربات ها و همینطور افزایش سرعت خود این موتور جستجو شد.
در ابتدا گوگل هیچ اطلاعی در مورد یک آپدیت الگوریتمی جدید نداده بود اما وبمستران با کاهش شدید ترافیک سایت از کلمات بلند روبرو شدند. در ادامه این داستان، مت کاتس که آن زمان مدیر بخش اسپم گوگل بود این موضوع را تایید کرد که may day یک تغییر الگوریتمی است. همینطور مت کاتس گفت که این تغییر روی ترافیک عبارات دم بلند سایت ها تاثیر دارد. به طور کلی میشود گفت این آپدیت باعث کاهش رتبه محتوای بی کیفیت سایت هایی شد که محتوای بی ارزش زیادی داشتند.
این یک پیش نمایش از یک سری تغییرات زیرساختی بود که گوگل آن را در سال 2009 شروع کرد. طبق اطلاعات منتشر شده، هدف از آغاز این تغییرات، افزایش سرعت ایندکس مطالب و یک سری دیگر از اهداف فنی بود.
که از جستجوهای مرتبط کاربران برداشت شده را به شما نمایش میدهد. این تغییرات در سال 2008 و با نام گوگل ساجست انجام شد.
جستجوی جامع یا Universal Search یک آپدیت یا الگوریتم گوگل نبود، بلکه تغییراتی در نتایج جستجو یا همان serp بود که توسط گوگل اعمال شد. بعد از این تغییرات، دیگر نتایج جستجوی گوگل صرفا به 10 وب سایت محدود نمیشدند. بلکه مواردی مثل نتایج کسب و کارهای محلی، تصاویر، اخبار و… هم به آن اضافه شدند تا کاربر بتواند یک جستجوی جامع و کاربردی را به کمک گوگل تجربه کند.
big daddy در سال 2005 آغاز و حدودا تا 2006 ادامه داشت. این یک آپدیت فنی بود که تمرکز خودش را روی مدیریت urlها، ریدایرکت های 301 و 302 و چند مورد فنی دیگر قرار داد.
ریدایرکت به معنای انتقال کاربر و ربات های موتور جستجو از یک صفحه سایت به صفحه دیگر به صورت خودکار است. اگر در مورد مفهوم آن اطلاعات کافی ندارید، مقاله ریدایرکت چیست در فرین آکادمی را مطالعه کنید.
این یک سری آپدیت های الگوریتم گوگل بود که به مرور روی نتایج اعمال شد. فعالیت اصلی jagger مقابله با لینک های خارجی بی کیفیت مثل لینک های اسپم، مزارع لینک، لینک های خریداری شده و پولی و… بود. این آپدیت ها در 3 مرحله روی نتایج اعمال شده و تاثیر گذاشتند.
تا قبل از این وبمستران مجبور بودند سایت مپ سایت خودشان را به زبان html و از طریق خود سایت به موتور جستجو معرفی کنند. اما بعد از این تغییر، گوگل به آنها اجازه داد تا سایت مپ را به زبان xml و از طریق سرچ کنسول به این موتور جستجو معرفی کنند. اگر در مورد سایت مپ اطلاعات کافی ندارید، مقاله آن را در فرین آکادمی مطالعه کنید.
این یک آغاز برای شخصی سازی کردن جستجوی کاربران بود که در سال 2005 انجام شد. (اینکه نتایج جستجو هر کاربر با کاربر دیگر نسبت به رفتار و علایق خودش متفاوت باشد.) البته در ابتدای راه، این الگوریتم تفاوت زیادی در نتایج جستجو ایجاد نکرد اما در هر حال زمینه ساز آینده این تغییر مهم بود.
نوفالو یک ویژگی مربوط به لینک ها بود نه یک آپدیت الگوریتمی. در سال 2005، موتورهای جستجو گوگل، یاهو و شرکت مایکروسافت بر سر این ویژگی توافق کردند تا بتوانند با اضافه کردن آن به لینک های سطح وب، بهتر از قبل لینک های اسپم و بی کیفیت را شناسایی کرده و اثر محتوای بی ارزش را کاهش دهند. به کمک ویژگی نوفالو، صاحب سایت به موتور جستجو میفهماند که لینک منتشر شده از وب سایت من را به عنوان یک معرفی در نظر نگیر و اعتباری از من به سایت مقصد انتقال نده.
بخشی از کیفیت محتوایی که امروز در سطح وب میبینید، مدیون این آپدیت گمنام است که در سال 2004 انجام شد. به کمک brandy گوگل توانست ارتباط بین کلمات مرتبط، عبارت های lsi، مفهوم همسایگی لینک ها و… را درک کند. به این ترتیب کیفیت متن های سطح وب را بهتر از قبل بررسی کرد. اگر در مورد این مفاهیم اطلاعات کمی دارید، مقاله ویدیویی سئو محتوا مطمئنا به شما کمک زیادی میکند.
austin یکی از آن آپدیت های گمنام گوگل است که اسم خاصی از آن بر سر زبان ها نیست. این آپدیت در سال 2004 وارد شد و سعی کرد هر نقصی که در الگوریتم فلوریدا وجود داشت را تکمیل کند. از جمله مواردی که با کمک این الگوریتم گوگل توانست با آنها مقابله کند، عبارتند از:
آپدیت فلوریدا یکی از نقطه های عطف در سئو است! تا قبل از این تعداد زیادی از وبمستران و سئوکارها به کمک روش های کلاه سیاه سئو وب سایت های خودشان را به نتایج اول رسانده بودند. روش هایی مثل پر کردن صفحه با کلمات کلیدی و… که در مقاله سئو کلاه سیاه آنها را توضیح دادم. فلوریدا همه وب سایت هایی که به کمک این تکنیک ها در صفحات اول بودند را به صفحات قبلی برگرداند و باعث خشم بسیاری از مدیران سایت ها شد. این مقاله از سایت searchenginewatch مربوط به همین آپدیت الگوریتمی مربوط است. عنوان مقاله این است: چه اتفاقی برای سایتم در گوگل افتاده؟!
همانطور که گفتم قرار بود گوگل به صورت ماهانه آپدیت ها و بروزرسانی هایی را در الگوریتم های جدید خودش داشته باشد. در سال 2003 و تا قبل از اینکه ایده آپدیت ماهانه متوقف شود، 3 آپدیت الگوریتمی جدید با نام هایی مثل:
منتشر شدند. این بروزرسانی ها اغلب با مواردی مثل بک لینک های بی کیفیت از یک دامنه، بک لینک های مخفی و… مقابله میکردند. علاوه بر این گفته میشود به کمک این الگوریتم ها گوگل نحوه بررسی اعتبار لینک ها را هم تغییر داد.
قبلا و در سال 2002 نتایج گوگل تغییرات ناگهانی زیادی کرد و این موضوع باعث شد که وبمستران بگویند یک آپدیت بزرگ انجام شده. در هر حال گوگل در مورد این موضوع صحبتی نکرد و در ادامه، در سال 2003، اولین آپدیت الگوریتمی نام گذاری شده خودش را معرفی کرد: آپدیت بوستون. این آپدیت در ابتدا قرار بود به شکل یک بروزرسانی ماهانه الگوریتم گوگل باشد اما در ادامه این ایده متوقف شد.
در سال 2000 بود که گوگل در ابتدا نوار ابزار معروف خودش به نام گوگل تولبار را در اختیار مخاطبان قرار داد تا با نصب آن بتوانند جستجوهای بهتر و هدفمندتری در سطح وب داشته باشند. علاوه بر این، در ادامه گوگل توانست پیج رنک معروف خودش را هم به مخاطبان و وبمستران معرفی کند. پیج رنک همان سنجه ای بود که سالها وبمستران برای بررسی اعتبار قدرت سایتشان به آن مراجعه میکردند. این سنجه عددی بین 1 تا 10 را نسبت به لینک های دریافتی سایت، به آن نسبت میداد. وبمستران تا سال 2016 که گوگل آن را از مشاهده عمومی خارج کرد، پیج رنک را به عنوان یک عامل اصلی بررسی اعتبار سایت مورد توجه قرار میدادند.
برخی سوالات رایج:
الگوریتم های گوگل چگونه کار میکنند؟
احتمالا میدانید تمامی فعالیتی که موتور جستجوی گوگل انجام میدهد، به کمک یک الگوریتم هسته مرکزی و یک سری الگوریتم های فرعی انجام میشود که مثل بازوهای الگوریتم هسته عمل میکنند.
آخرین آپدیت گوگل در سال 2020 چه مشکلاتی ایجاد کرد؟
مشکلات ایندکس گوگل در اکتبر 2020 (تایید شده) ، که گوگل این بار اعلام کرد که عمده مشکلات مربوط به ایندکس کردن صفحات در سطح وب رفع شده است.
آیا میدانستید محتوای تکراری بهطورمستقیم بر رتبه سایت شما در نتایج جستوجوی گوگل تاثیر میگذارد؟…
در سال 2024 بیش از 83.5% وبسایتها از گوگل آنالیتیکس یا ابزارهای مشابه برای تحلیل…
URL یکی از اجزای حیاتی در دنیای وب است که نقش مهمی در دسترسی به…
دنیای وب و طراحی سایت عملا بعد از ورود سیستم های مدیریت محتوایی مثل جوملا،…
هنوز بسیاری از سئو کارها تصور میکنند فایل های PDF توسط موتور های جستجو و…
شاخص های کلیدی عملکرد سئو (SEO KPIs) معیارهای حیاتی هستند که به کسبوکارها کمک میکنند…
دیدن کامنت ها
مشکلات ایندکس تا کی ادامه داره؟
فقط میدونیم از اردیبهشت شروع شده
هیچ خبری در مورد اینکه کی بهبود پیدا میکنه نیست و اینطور که از صحبت هاشون بر میاد قرار نیست رفع بشه
در واقع ماها بهش میگیم مشکل
از نظر مسئولین گوگل اصلا مشکلی نیست
میشه آپدیت 2020 رو هم اضافه کنید ؟
سلام چشم میگم به بچه های محتوا که اضافه کنن
سلام
مقاله فوق العاده کاربردی بود.
کل اینترنت فارسی و انگلیسی رو گشتم و بجز سایت moz و سایت شما هیچ سایتی تا این حد واضح و البته کامل توضیح نداده بود. واقعا خدا قوت.
سلام خیلی خوشحالم که به نظرتون مفید اومده