در سال 1998، دو دانشجوی فارغ التحصیل دانشگاه استنفورد، لری پیج و سرگئی برین، «Backrub» را توسعه دادند، یک موتور جستجو که بر یک الگوریتم ریاضی برای سئو سایت برجستگی صفحات وب متکی بود. عدد محاسبه شده توسط الگوریتم، PageRank، تابعی از کمیت و قدرت پیوندهای ورودی است.[19] PageRank این احتمال را تخمین می زند که یک کاربر وب که به طور تصادفی وب گردی می کند و پیوندها را از یک صفحه به صفحه دیگر دنبال می کند، به یک صفحه معین دسترسی پیدا کند. در واقع، این بدان معنی است که برخی از پیوندها قوی تر از سایرین هستند، زیرا به احتمال زیاد یک وب گرد تصادفی به صفحه رتبه بالاتری می رسد.
پیج و برین گوگل را در سال 1998 تاسیس کردند.[20] گوگل پیروان وفاداری را در میان تعداد فزاینده ای از کاربران اینترنت جذب کرد که طراحی ساده آن را دوست داشتند.[21] فاکتورهای خارج از صفحه (مانند رتبه صفحه و تجزیه و تحلیل هایپرلینک) و همچنین عوامل درون صفحه (مانند فراوانی کلمات کلیدی، متا تگ ها، عنوان ها، لینک ها و ساختار سایت) در نظر گرفته شدند تا Google را قادر سازد از نوع دستکاری که در موتورهای جستجو مشاهده می شود جلوگیری کند. که فقط فاکتورهای روی صفحه را برای رتبه بندی خود در نظر می گیرند. اگرچه بازی رنک صفحه دشوارتر بود، وب مسترها قبلاً ابزارها و طرح هایی برای ایجاد پیوند برای تأثیرگذاری بر موتور جستجوی Inktomi ایجاد کرده بودند، و این روش ها به طور مشابه در صفحه رتبه بازی نیز قابل استفاده بودند. بسیاری از سایتها بر تبادل، خرید و فروش لینکها، اغلب در مقیاس وسیع، تمرکز میکنند. برخی از این طرحها، یا مزرعههای پیوند، شامل ایجاد هزاران سایت تنها با هدف ارسال هرزنامه پیوند میشدند.[22]
تا سال 2004، موتورهای جستجو طیف گسترده ای از عوامل نامعلوم را در الگوریتم های رتبه بندی خود گنجانده بودند تا تأثیر دستکاری پیوندها را کاهش دهند. در ژوئن 2007، سائول هانسل از نیویورک تایمز بیان کرد که گوگل سایت ها را با استفاده از بیش از 200 سیگنال مختلف رتبه بندی می کند.[23] موتورهای جستجوی پیشرو، گوگل، بینگ و یاهو، الگوریتم هایی را که برای رتبه بندی صفحات استفاده می کنند، فاش نمی کنند. برخی از متخصصان سئو رویکردهای مختلفی را برای بهینهسازی موتورهای جستجو مطالعه کردهاند و نظرات شخصی خود را به اشتراک گذاشتهاند.[24] حق اختراع مربوط به موتورهای جستجو می تواند اطلاعاتی را برای درک بهتر موتورهای جستجو فراهم کند.[25] در سال 2005، گوگل شروع به شخصی سازی نتایج جستجو برای هر کاربر کرد. بسته به سابقه جستجوهای قبلی، گوگل نتایجی را برای کاربرانی که وارد سیستم شده بودند ایجاد کرد.[26]
در سال 2007، گوگل کمپینی را علیه پیوندهای پولی که رتبه صفحه را انتقال می دهند، اعلام کرد.[27] در 15 ژوئن 2009، گوگل فاش کرد که اقداماتی را برای کاهش اثرات مجسمه سازی PageRank با استفاده از ویژگی nofollow در پیوندها انجام داده است. Matt Cutts، مهندس نرمافزار معروف در گوگل، اعلام کرد که Google Bot دیگر با هیچ پیوند عدم دنبال کردنی به همان شیوه برخورد نمیکند تا از استفاده ارائهدهندگان خدمات سئو برای جلوگیری از استفاده از nofollow برای مجسمهسازی PageRank جلوگیری کند.[28] در نتیجه این تغییر، استفاده از nofollow منجر به تبخیر رتبه صفحه شد. به منظور اجتناب از موارد فوق، مهندسان سئو تکنیکهای جایگزینی را توسعه دادند که برچسبهای nofollowed را با جاوا اسکریپت مبهم جایگزین میکنند و بنابراین اجازه مجسمهسازی رتبه صفحه را میدهند. علاوه بر این، چندین راه حل پیشنهاد شده است که شامل استفاده از iframes، فلش و جاوا اسکریپت است.[29]
در دسامبر 2009، گوگل اعلام کرد که از تاریخچه جستجوی وب همه کاربران خود برای پر کردن نتایج جستجو استفاده خواهد کرد.[30] در 8 ژوئن 2010 یک سیستم نمایه سازی وب جدید به نام Google Caffeine معرفی شد. Google Caffeine که به کاربران اجازه میدهد نتایج اخبار، پستهای انجمن و سایر محتواها را خیلی زودتر از قبل پیدا کنند، تغییری در روشی بود که Google فهرست خود را بهروزرسانی میکرد تا همه چیز را سریعتر از قبل در Google نشان دهد. به گفته کری گریمز، مهندس نرمافزاری که کافئین را برای گوگل اعلام کرد، «کافئین 50 درصد نتایج تازهتری نسبت به فهرست قبلی ما برای جستجوهای وب ارائه میدهد...»[31] Google Instant، جستجوی بلادرنگ، در اواخر سال 2010 معرفی شد. تلاشی برای به موقع و مرتبط کردن نتایج جستجو. از لحاظ تاریخی، طراحی سایت در تهران ماه ها یا حتی سال ها را صرف بهینه سازی یک وب سایت برای افزایش رتبه بندی جستجو کرده اند. با رشد محبوبیت سایتها و وبلاگهای رسانههای اجتماعی، موتورهای پیشرو تغییراتی در الگوریتمهای خود ایجاد کردند تا به محتوای تازه اجازه دهند به سرعت در نتایج جستجو رتبهبندی شوند.[32]
در فوریه 2011، گوگل به روز رسانی پاندا را اعلام کرد که وب سایت های حاوی محتوای کپی شده از سایر وب سایت ها و منابع را جریمه می کند. از لحاظ تاریخی وب سایت ها محتوا را از یکدیگر کپی کرده اند و با درگیر شدن در این عمل در رتبه بندی موتورهای جستجو سود می برند. با این حال، گوگل سیستم جدیدی را اجرا کرد که سایت هایی را که محتوای آنها منحصر به فرد نیست مجازات می کند.[33] Google Penguin در سال 2012 تلاش کرد تا وب سایت هایی را که از تکنیک های دستکاری برای بهبود رتبه خود در موتور جستجو استفاده می کردند، جریمه کند.[34] اگرچه Google Penguin به عنوان الگوریتمی با هدف مبارزه با هرزنامههای وب معرفی شده است، اما با سنجش کیفیت سایتهایی که پیوندها از آنها میآیند، واقعاً بر پیوندهای هرزنامه [35] تمرکز میکند. به روز رسانی مرغ مگس خوار Google در سال 2013 یک تغییر الگوریتم طراحی شده برای بهبود پردازش زبان طبیعی گوگل و درک معنایی w را ارائه کرد.
No comments:
Post a Comment