موتور جستجوی گوگل برای بهبود و ارتقاع عملکرد خود از الگوریتمها استفاده می کند، گوگل با پیادهسازی این الگوریتمها بر روی سایتها توانست سایتهای باکیفیت را پیدا کند و آنها را در اختیار کاربرانش قرار دهد.
در این مقاله قصد داریم شما را با الگوریتمهای گوگل و تاثیر آن بر رتبه سایت آشنا کنیم. پس با ما همراه باشید تا با این الگوریتمها و نحوی عملکرد آنها آشنا شوید.
چرا الگوریتمهای گوگل
گوگل همواره تلاش میکند تا بهترین موتور جستجو باشد و بهترین بماند اما چگونه:
او تلاش میکند تا نقاط ضعف خود در رتبه بندی سایتها و عواملی که سبب بینظمی در مدیریت آنها میشود را کشف کند و برای رفع آنها قوانین و مقررات جدید طراحی و پیادهسازی کند. (عواملی که باعث میشود سایتهای بیکیفیتی که به کاربران نمایش داده میشود را شناسایی و از بین ببرد)
اما مجموعه تلاشهای گوگل چه شد:
گوگل در نتیجه تلاشهای خود به یک مجموعه الگوریتم دست پیدا کرد که به کمک آن توانست بهترین موتور جستجوی گوگل باقی بماند. این الگوریتمهای یکسری محاسبات ریاضیات پیچیده هستند که یک جستجو هدفمند را برای موتور جستجوی گوگل ساده و ممکن میسازند.
معرفی انواع الگوریتمهای گوگل و کاربرد آنها
قبل از اینکه به الگوریتمهای گوگل بپردازیم لازم است که بگوییم برخی از این الگوریتمها کارهای نزدیک به هم انجام میدهند اما با الگویی متفاوت؛ مثلا الگوریتم پاندا و فرد به کیفیت و تکراری بودن محتوا میپردازند.
اما مسئله این است که گوگل با صفحههایی روبهرو شد که با تکرار یک کلمه پر شده بود که کاربر پسند نبود، برای پیدا کردن و حذف این صفحات الگوریتم پاندا را ساخت و پیادهسازی کرد. به مرور زمان صاحبان سایت از کل متن 20 درصد آن را از یک کلمه (که کلمه کلیدی نام داشت) به صورت پراکنده استفاده میکردند برای همین الگوریتم فرد برای تکمیل الگوریتم پاندا بیان شد.
طراحی و پیادهسازی این الگوریتمها پایانی ندارد پس همواره خود را بروز کنید تا:
از این قوانین و الگوریتمهای جدید باخبر باشید تا آنها را در سایت خود بررسی کنید. در واقع باید بروز باشید تا کاهش رتبه ناگهانی نداشته باشید. (گاهی برخی الگوریتم های جدید، راه فرعی برای ارتقاء سایت را می بندد)
انواع الگوریتمهای گوگل
گوگل الگوریتمهای مختلفی دارد که هر کدام برای بهینه کردن این موتور جستجو کار خاصی را انجام میدهند. این الگوریتمها عبارتاند از:
- الگوریتم پاندا(Panda Algorithm)
- الگوریتم پنگون(Penguin Algorithm)
- الگوریتم مرغ مگس خوار(Humming Bird Algorithm)
- الگوریتم کبوتر(Pigeon Algorithm)
- الگوریتم موش کور(Possum Algorithm)
- الگوریتم شاهین(Hawk Algorithm)
- الگوریتم گوره خر(Zebra Algorithm)
- الگوریتم دزد دریایی(Pirate Algorithm)
- الگوریتم فرد(Fred Algorithm)
- الگوریتم تازگی(Freshness Algorithm)
- الگوریتم موبایل فرندلی(Mobile Friendly Algorithm )
- الگوریتم سند باکس(Sand Box Algorithm)
- الگوریتم دنس(Dance Algorithm)
- الگوریتم پیج رنک(Page Rank Algorithm)
- الگوریتم کافئین(Caffeine Algorithm)
- الگوریتم طرح بندی (Page Layout Algorithm)
- الگوریتم Payday Leon
در ادامه این مقاله انواع الگوریتمهای گوگل را به صورت مختصر به شما معرفی خواهیم کرد. برای کسب اطلاعات کامل هر الگوریتم مقالاتی که برای برخی از آنها به صورت مجزا تهیه کردهایم، مطالعه کنید.
الگوریتم پاندا (Panda Algorithm)
گوگل مشاهده کرد که سایتهای محتوایی زیادی وجود دارد اما محتوا این سایتها بیکیفیت و غیر مرتبط با خواسته کاربر است. به همین علت تصمیم گرفت برای حل این مشکل یک الگوریتم طراحی و پیادهسازی کند.
طبق الگوریتم پاندا گوگل محتوای سایتها به طوری کامل بررسی میشوند و با سایتهای که محتوای بیکیفیت و بیارزش دارند برخورد میشود. سایتهایی که محتوا منحصر به فرد و کاربر پسند دارد امتیاز مثبت دریافت میکند.
اما کدام سایتها از نظر پاندا بیکیفیت محسوب میشوند و سبب خشمگین شدن آن میشود؟؟
-
سایتهایی که محتوای تکراری دارند. (یک محتوا و متن را بارها و بارها تکرار کرده باشند)
-
سایتهایی که کاملا محتوا آنها کپی از دیگر سایتها میباشد.
-
سایتهایی که یک کلمه کلیدی را بارها و بار ها در سایت خود استفاده میکنند.
-
سایتهایی که محتوای آن را رباتها تهیه میکنند و هیچ معنا و مفهومی ندارند.
الگوریتم پنگوئن(Penguin Algorithm)
الگوریتم پنگوئن گوگل کار بررسی لینک و آدرسهای درج شده در محتوا شما را انجام میدهد اما چرا و چگونه؟
صاحبان سایت هنگامی که متوجه شدند که درج آدرس در سایت باعث ارتقاع سایت میشود حجم زیادی از لینکها و آدرسها را در سایتهای خود قرار دادند.
در نتیجه موتور جستجوی گوگل با سایتهایی روبه رو شد که فقط با حجم انبوهی از لینک بدون کاربرد پرشده بود و محتوای بیمعنی و غیر مفید داشت. گوگل برای مقابله با این سایتها، الگوریتم پنگون را ساخت.
طبق این الگوریتم لینکسازی باید به اندازه و طبیعی باشد و تنها در مواردی که لازم است. پنگوئن گوگل در زمینه لینکسازی بسیار حساس و دقیق است با مشاهده خطا و اسپم فوری امتیاز و رتبه را کاهش میدهد و بالعکس.
لینکسازی بین سایتهایی که محتوا و هدفهای مشترک و نزدیک به هم دارد باید انجام گیرد.
الگوریتم مرغ مگس خوار(Humming Bird Algorithm)
نام هر الگوریتم گوگل با هدف و عملکردی که آن الگوریتم دنبال میکند، ارتباط مستقیم دارد. این ارتباط برای مرغ مگس خوار نیز وجود دارد.
مرغ مگس خوار پرندهای بسیار سریع و با دقت عمل بالا است. قوانین الگوریتم مرغ مگس خوار گوگل نیز بسیار سریع و دقیق بر روی صفحات سایت شما اعمال میشود. از جمله الگوریتمهای کاربردی و مفید گوگل است اما این الگوریتم این دقت را برای چی آنقدر با سرعت اعمال میکند؟ چرا انقدر جذاب و مفید است؟
این الگوریتم کلمات کلیدی و مترادف آن را از متن خارج می کند. (به سرعت اطلاعات لازم را از متن خارج میکند.) بعد از آن کلمات را با کوئری کاربر بررسی میکند و سایتی که به هدف نزدیکتر است را به کاربر نشان میدهد.
جذابیت و مفید بودن این الگوریتم به دو دلیل است:
اول اینکه هر بار بهترین سایت را برای کاربران نمایش میدهد. (نزدیکترین سایت به کوئری کاربر)
دوم اینکه این الگوریتم از هوشمصنوعی استفاده میکند و هر بار گراف معنایی خود را کامل میکند. (اگر بار اول تفاوت شیر جنگل با شیر خوراکی را در عبارت سرچ شده متوجه نشود بعد از مدتی میتواند آن را بفهمد).
الگوریتم کبوتر(Pigeon Algorithm)
الگوریتم کبوتر دو ابزار جستجو (search) و نقشه (map) گوگل را به هم مرتبط میکند و از آن برای بررسی سایت در سطح محلی بهره میبرد. الگوریتم کبوتر گوگل سبب شد که یک سایت فقط با سایتهای قوی که در دنیای وب وجود دارند، بررسی نشود؛ مقایسه کیفیت بین سایت ها در سطح محلی نیز انجام میشود(سایتهایی که موقعیت محلی مشابه یا نزدیک به هم دارند) تا بهترین سایت را در آن منطقه بیابند و به کاربران آن منطقه نمایش دهد. این برای صعود سایتهای ضعیف (کاهش رتبه در نتایج محلی) و آشنایی کاربران با سایتهای با کیفیت جدید فرصت خوبی است.
الگوریتم موش کور(Possum Algorithm)
این الگوریتم همانند الگوریتم کبوتر است و جستجوهای محلی را بررسی میکند اما با این تفاوت که:
این الگوریتم موقعیت سایتها و موقعیت مکانی کسانی که از این سایتها استفاده میکنند را بررسی کرده و با این اطلاعات، به رتبهبندی سایتها طبق موقعیت مکانی میپردازد. این قوانین بیشتر برای سایتهای تجاری که به دنبال کسب و کار هستند، اجرا میشود. این الگوریتم برای کاسبان یک ساختمان تجاری مشکلساز است زیرا موقعیت همه آنها از نظر گوگل یکسان است.
الگوریتم شاهین(Falcon Algorithm)
این الگوریتم ایراد الگوریتم موش کور را در سئو محلی از بین می برد. الگوریتم شاهین نسخه کامل شده الگوریتم موش کور است. خوب است بدانید که شاهین علاقه زیادی به شکار موش کور دارد و قوانین این الگوریتم نیز به دنبال شکار نقصهای الگوریتم موش کور و برطرف کردن آن است.
برای راضی نگه داشتن شاهین گوگل باید اطلاعات خود را به درستی در گوگل مپ درج کنید و برای محصولات خود محتوا تولید کنید. همچنین مشتریان خود را به کامنت گذاشتن و نظر دادن دعوت کنید.
الگوریتم گور خر(Zebra Algorithm)
با افزایش خریدهای اینترنتی، گوگل تصمیم گرفت الگوریتمی را طراحی و پیادهسازی کند که بر روند کیفیت تجارت الکترونیک نظارت داشته باشد. این الگوریتم مسئول نظارت بر فروشهای اینترنتی میباشد. همانطور که میدانید بدن گور خر راه راه سفید و سیاه است که این خطوط شبیه به بارکد های روی کالا میباشد.
این الگوریتم با نظارت بر روی درگاههای پرداختی تلاش میکند خرید موفقیتآمیز و ایمنی را برای شما فراهم آورد.
این الگوریتم امتیاز سایتهای فروشگاهی بیکیفیت و بدون مجوز را کاهش میدهد و بالعکس.
الگوریتم دزد دریایی(Pirate Algorithm)
امروزه فضای اینترنت پر است از سایتهای مختلف با محتواهای متفاوت. هر روز بر تعداد کاربرانی که از این سایتها استفاده میکنند نیز رو به افزایش میباشد. برخی برای افزایش محتوای سایت خود و جذب کاربر بیشتر، محتوای با کیفیت سایتها موفق را کپی میکنند و این امر سبب می شود:
-
کاربران با محتواهای کپی و تکراری روبه رو شوند؛ اینکار هم نارضایتی کاربران و هم نارضایتی صاحب اصلی محتوا را به دنبال دارد.
-
از طرفی نمایش سایتهای با کیفیت با محتوای تکراری برای موتور جستجوی گوگل یک ضعف محسوب میشود.
موتور جستجوی گوگل برای جلوگیری از این کار الگوریتم دزد دریای را طراحی و پیادهسازی کرد. دزد دریای گوگل در صورت مشاهده سایتهایی با محتوای کپی و تکراری، آن ها را جریمه می کند. اما در صورت ثبت شکایت به گوگل از طرف صاحب اصلی محتوا، گوگل لینک آن صفحه سایتی که کپی کرده است را از اینترنت حذف میکند.
الگوریتم فرد(Fred Algorithm)
الگوریتم فرد یک الگوریتم هوشمند میباشد و به دنبال سایتهایی میگردد که کار آنها تولید محتوا میباشد ولی هدف اصلی آنها از تولید محتوا، بالا بردن رتبه سایت و درآمدزایی از طریق تبلیغات است. برخی از این سایتها صرفا دارای محتوا میباشد، سایتهایی که با محتواهای بدون کیفیت و بدون ساختار و پراکنده پر شده است. الگوریتم فرد گوگل با این سایتها مبارزه میکند.
الگوریتم تازگی(Freshness Algorithm)
گوگل و کاربران دنیای اینترنت همواره به دنبال محتوا جدید، مقالههای بروز و باکیفیت هستند. گوگل برای یافتن سایتهایی با این قابلیت، یک الگوریتم دیگر طراحی و پیادهسازی کرد. اسم این الگوریتم فرش یا همان تازگی نام دارد. طبق قوانین الگوریتم تازگی سایتهای بروز و با محتوای باکیفیت به کاربر نمایش داده میشود.
الگوریتم موبایل فرندلی(Mobile Friendly Algorithm )
امروزه تعداد کابرانی که از موبایل استفاده میکنند نسبت به کسانی که از کامپیوتر استفاده میکنند، بیشتر است. در نتیجه هر چه کیفیت صفحات سایت شما در نمایش موبایلی بهتر و باکیفیتتر باشد، رضایت کاربران بیشتری را به دنبال دارد.
اما چگونه رضایت کاربران جلب میشود؟
طراحی صفحات سایت باید بصورتی باشد که نوشتهها و تصاویر در سیستم موبایلی و تبلت خوانا بوده و به خوبی نمایش داده شود. همچنین محتوا برای موبایل بهینه باشد (اندازه عکس و طول متن). بهینه بودن صفحات سایت برای نمایش در نمایشگر و سیستمهای مختلف یک امتیاز مثبت است.
نام دیگر الگوریتم موبایل فرندلی، Mobile Geddon میباشد که برای اجرای قوانین این الگوریتم، میتوانید از ابزار موبایل فرندلی گوگل استفاده کنید.
الگوریتم سند باکس(Sand Box Algorithm)
تعداد صفحاتی که در دنیای وب وجود دارد بسیار زیاد است و هر روزه حجم زیادی صفحه به آنها اضافه میشود. تعدادی از صفحات در اینترنت از گذشته بوده و کیفیتشان را بالا برده و رتبههای خوب دارند که اکنون به کاربران نمایش داده میشوند. تعدادی از سایتهای بیکیفیت را گوگل حذف کرده و یا آنها را برای کاربران غیرقابل مشاهده کرده است.
اما برای صفحات جدید که ساخته شدهاند و گوگل آنها را نمیشناسد چه اتفاقی میافتد؟ موتور جستجوی گوگل چگونه عدالت رو بین همه صفحات سایتهای خود برقرار میکند.
برای رفع این مشکل، گوگل الگوریتمی ساخت که طبق قوانین آن صفحاتی که تازه ساخته شدهاند برای مدتی در یک بخش جدا مورد بررسی و تحلیل قرار گیرد.
این الگوریتم کمک میکند سایتها جدیدی که با کیفیت هستند، رشد کنند و توسط گوگل و کاربران دیده شوند. همچنین سایتهای ضعیف تا زمانی که شرایط و کیفیت لازم را پیدا نکرده است در کنار دیگر صفحات قرار نگیرد.
اگر در گوگل سرچ کنسول آنالیزی از سایت برای شما وجود داشت یعنی از سندباکس خارج شدهاید.
داشتن محتوای منحصر بفرد و با کیفیت، لینکسازی مناسب و بجا و استفاده از سئو کلاه سفید (لینکسازی درست و اصولی و کلمات کلیدی طولانی) باعث سرعت بخشیدن به خارج شدن از سند باکس و دیده شدن توسط گوگل و کاربران است.
الگوریتم دنس(Dance Algorithm)
همانطور که در ابتدا گفتیم گوگل به دنبال بستن راههای فرعی کسب رتبه میباشد. گوگل همواره در تلاش است که هدف صاحبان سایت فقط کاهش رتبه سایت نباشد، بلکه تنها هدف آنها بالا بردن کیفیت سایتشان باشد.
به همین منظور گوگل برای شناسایی کسانی که تنها هدف آنها کاهش رتبه است و موفق شدهاند الگوریتم جدیدی رو به نام الگوریتم دنس ساخته است.
الگوریتم دنس گوگل امتحانی برای صاحب سایت است. این الگوریتم به صورت تصادفی موقعیت یک سایت را به ابتدا و انتهای صفحه تغییر میدهد. حتی گاهی ممکن است یک سایت از لیست نتایج گوگل حذف شود.
پس تا حدالامکان از راههای فرعی برای کاهش رتبه استفاده نکنید و همواره هدف خود را ارتقاع کیفیت قرار دهید.
الگوریتم پیج رنک(Page Rank Algorithm)
یکی دیگر از مشکلات موتور جستجوی گوگل مدیریت صفحات ایندکس و بررسی شده میباشد. صفحاتی است که از نظر محتوا و دیگر معیارها گوگل بررسی شدهاند را چگونه مرتب کند؟ طبق چه معیار های و قانونی آنها را مرتب کند و به کاربر نمایش دهد؟
این الگوریتم را معمولا با نماد مغز نشان میدهند زیرا برای این الگوریتم از هوش مصنوعی و یادگیری ماشین کمک گرفته شده است. این دو ابزار هوشمند به پیج رنک کمک میکنند که میلیاردها صفحه و عبارت جستجو شده توسط کاربر را پردازش کنند و صفحات مرتبط را به درستی رتبهبندی کرده و در خروجی نمایش دهد. الگوریتم پیج رنک همچنین در فرآیند ارزیابی صفحات برای رتبهبندی، دانش خود را نیز افزایش میدهد.
این الگوریتم همواره به دنبال محتوای با کیفیت و منحصر به فردی میباشد که موضوع محتوا در آن آشکار باشد. این الگوریتم شبیه به الگوریتم مرغ مگس خوار میباشد.
الگوریتم کافئین(Caffeine Algorithm)
الگوریتم کافئین گوگل، به موتور جستجوی دو قابلیت میدهد یکی افزایش حجم صفحاتی که رباتهای گوگل ایندکس میکنند و دیگری سرعت بخشیدن به خزیدن و ایندکس صفحات توسط رباتهای گوگل.
اینها سبب میشود:
دادههای ایندکسشده قویتر، حجمش بیشتر و دادهها بروز باشد. این ممکن است تغییرات در صفحه نتایج گوگل داشته باشد و گوگل بتواند صفحات بیشتری را بخواند و همه آنها را ببیند. این الگوریتم بر رتبه سایتها نیز تاثیر غیر مستقیم دارد.
الگوریتم طرحبندی (Page Layout Algorithm)
صاحبان سایت از اولین صفحهای که برای کاربران بارگذاری میشود برای تاثیرگذاری بر روی کاربران استفاده میکنند.
برخی از صاحبان سایت از این فرصت برای معرفی سایت خود استفاده میکنند و برخی دیگر برای تبلیغات و فروش استفاده میکنند. اما گاهی تبلیغات آنقدر زیاد میشود که همه محتوای سایت را در بر میگیرد و عملا اینگونه سایتها مورد پسند گوگل و کابران نیست.
در نتیجه گوگل الگوریتم طرح بندی را برای بررسی تبلیغات صفحات سایت طراحی و پیادهسازی کرد. طبق این الگوریتم قالب و عنوان صفحه سایت بررسی میشود (مربوط به سئو داخلی). در صورتی که بیش از اندازه تبلیغات در صفحه سایت قرار گرفته باشد آن سایت جریمه میشود و بالعکس.
الگوریتم Pay Day Leon
هدف این الگوریتم مبارزه با اسپمها است. الگوریتم Pay Day Leon با سایتهای اسپم و کوئری (عبارت سرچ شده) اسپم مبارزه میکند. مبارزه با سوء استفاده از کلماتی که بسیار سرچ میشود.
هدف این الگوریتم سایتهایی است که مشکل زیبای ظاهر و محتوای سایت ندارند بلکه مشکل محتوای غیر اخلاقی و غیر اجتماعی آنها میباشد. مثلا عبارت و محتوای مستحجن تولید میکنند، سایت هایی که وام غیر قانونی و سنگین می دهند یا سایتی که کار آنها شرط بندی و کلاهبرداری میباشد.
در نتیجه
میتوان گفت قوانین و الگوریتمهای گوگل همواره بوده و هست. ساخت الگوریتمهای گوگل تا زمانی ادامه دارد که این موتور جستجو، فقط سایتهای باکیفیت و مرتبط با کوئری کاربران را پیدا کند و به آنها نمایش دهد.
در نتیجه راهی برای فرار سایتهای بدون کیفیت نمیماند. پس همواره تلاش کنید سایت بهینه و باکیفیت بسازید.
نظر شما در تصمیم دیگران اثرگذار است.
لطفا برای همراهان درسمن و بهتر شدن دوره نظر خود را بنویسید.