بهینه سازی موتور جستجو ( SEO ) فرآیند بهبود کیفیت و کمیت ترافیک وب سایت به یک وب سایت یا یک صفحه وب از موتورهای جستجو است . [1] [2] سئو ترافیک بدون پرداخت (که به عنوان نتایج "طبیعی" یا " ارگانیک " شناخته می شود) به جای ترافیک مستقیم یا ترافیک پولی را هدف قرار می دهد . ترافیک بدون پرداخت ممکن است از انواع جستجوها، از جمله جستجوی تصویر ، جستجوی ویدیویی ، جستجوی دانشگاهی ، [3] جستجوی اخبار، و موتورهای جستجوی عمودی خاص صنعت سرچشمه بگیرد .
به عنوان یک استراتژی بازاریابی اینترنتی ، سئو نحوه کار موتورهای جستجو، الگوریتم های برنامه ریزی شده کامپیوتری که رفتار موتور جستجو را دیکته می کند، آنچه افراد جستجو می کنند، عبارات جستجوی واقعی یا کلمات کلیدی تایپ شده در موتورهای جستجو و اینکه کدام موتورهای جستجو توسط مخاطبان مورد نظر ترجیح داده می شوند را در نظر می گیرد. . سئو به این دلیل انجام می شود که وقتی وب سایت ها در صفحه نتایج موتور جستجو (SERP) رتبه بالاتری داشته باشند، یک وب سایت بازدیدکنندگان بیشتری از موتور جستجو دریافت می کند . این بازدیدکنندگان می توانند به طور بالقوه به مشتریان تبدیل شوند. [4]
مدیران وبسایتها و ارائهدهندگان محتوا شروع به بهینهسازی وبسایتها برای موتورهای جستجو کردند در اواسط دهه 1990، زیرا اولین موتورهای جستجو در حال فهرستبندی وب اولیه بودند . در ابتدا، تمام وب مسترها فقط نیاز داشتند آدرس یک صفحه یا URL را به موتورهای مختلف ارسال کنند، که یک خزنده وب را برای خزیدن آن صفحه می فرستد، پیوندهای صفحات دیگر را از آن استخراج می کند و اطلاعات یافت شده در صفحه را باز می گرداند. نمایه شده . [5] این فرآیند شامل عنکبوت/خزنده موتور جستجو میشود که یک صفحه را میخزد و آن را در سرور خود موتور جستجو ذخیره میکند. برنامه دوم، که به عنوان نمایه ساز شناخته می شود ، اطلاعاتی را در مورد صفحه استخراج می کند، مانند کلماتی که در آن وجود دارد، جایی که آنها در آن قرار دارند، و هر وزنی برای کلمات خاص، و همچنین تمام پیوندهای موجود در صفحه. سپس تمام این اطلاعات در یک زمانبندی قرار میگیرد تا در تاریخ بعدی خزیده شود.
صاحبان وب سایت ارزش رتبه و دیده شدن بالا در نتایج موتورهای جستجو را تشخیص دادند، [6] فرصتی را برای متخصصان سئو کلاه سفید و کلاه سیاه ایجاد کرد . به گفته دنی سالیوان، تحلیلگر صنعت ، عبارت "بهینه سازی موتور جستجو" احتمالا در سال 1997 مورد استفاده قرار گرفت. سالیوان بروس کلی را به عنوان یکی از اولین افرادی که این اصطلاح را رایج کرد، معرفی می کند. [7]
نسخههای اولیه الگوریتمهای جستجو به اطلاعات ارائه شده توسط وبمستر مانند متا تگ کلمه کلیدی یا فایلهای فهرست در موتورهایی مانند ALIWEB متکی بودند . متا تگ ها راهنمای محتوای هر صفحه را ارائه می دهند. با این حال، استفاده از متادیتا برای نمایه سازی صفحات کمتر قابل اعتماد بود، زیرا انتخاب کلمات کلیدی توسط مدیر وب در متا تگ به طور بالقوه می تواند نمایش نادرستی از محتوای واقعی سایت باشد. دادههای ناقص در متا تگها، مانند آنهایی که نادرست یا ناقص بودند، این پتانسیل را ایجاد میکنند که صفحات در جستجوهای نامربوط به اشتباه توصیف شوند. [8] [ مشکوک - بحث ] ارائه دهندگان محتوای وب همچنین برخی از ویژگی ها را در منبع HTML یک صفحه در تلاش برای رتبه بندی خوب در موتورهای جستجو دستکاری کردند. [9] تا سال 1997، طراحان موتورهای جستجو متوجه شدند که مدیران وبسایتها تلاش میکنند تا در موتور جستجوی خود رتبه خوبی کسب کنند و برخی از مدیران وبسایتها حتی رتبهبندی خود را در نتایج جستجو با پر کردن صفحات با کلمات کلیدی بیش از حد یا نامربوط دستکاری میکنند. موتورهای جستجوی اولیه، مانند Altavista و Infoseek ، الگوریتم های خود را برای جلوگیری از دستکاری مدیران سایت در رتبه بندی تنظیم کردند. [10]
موتورهای جستجوی اولیه با تکیه بر عواملی مانند تراکم کلمات کلیدی که منحصراً در کنترل وبمستر بود، از سوء استفاده و دستکاری رتبهبندی رنج میبردند. برای ارائه نتایج بهتر به کاربران خود، موتورهای جستجو مجبور بودند برای اطمینان از اینکه صفحات نتایج آنها مرتبطترین نتایج جستجو را نشان میدهند، به جای صفحات نامرتبط مملو از کلمات کلیدی متعدد توسط وبمسترهای بیوجدان، سازگار میشدند. این به معنای دور شدن از اتکای شدید به تراکم مدت به یک فرآیند جامع تر برای به ثمر رساندن سیگنال های معنایی بود. [11] از آنجایی که موفقیت و محبوبیت یک موتور جستجو با توانایی آن در تولید مرتبط ترین نتایج برای هر جستجو مشخص می شود، نتایج جستجو با کیفیت پایین یا نامربوط می تواند کاربران را به یافتن منابع جستجوی دیگر سوق دهد. موتورهای جستجو با توسعه الگوریتمهای رتبهبندی پیچیدهتر ، با در نظر گرفتن عوامل دیگری که دستکاری آنها برای وبمسترها دشوارتر بود، پاسخ دادند.
شرکتهایی که از تکنیکهای بیش از حد تهاجمی استفاده میکنند، میتوانند وبسایت مشتریان خود را از نتایج جستجو ممنوع کنند. در سال 2005، وال استریت ژورنال در مورد شرکتی به نام Traffic Power گزارش داد که ظاهراً از تکنیکهای پرخطر استفاده میکرد و نتوانست آن خطرات را برای مشتریانش فاش کند. [12] مجله Wired گزارش داد که همان شرکت از وبلاگ نویس و SEO Aaron Wall به دلیل نوشتن در مورد ممنوعیت شکایت کرد. [13] مت کاتس گوگل بعداً تأیید کرد که گوگل در واقع Traffic Power و برخی از مشتریانش را ممنوع کرده است. [14]
برخی از موتورهای جستجو نیز به صنعت سئو دسترسی پیدا کرده اند و حامیان مالی و مهمانان مکرر کنفرانس های سئو، گفتگوهای اینترنتی و سمینارها هستند. موتورهای جستجوی اصلی اطلاعات و دستورالعمل هایی را برای کمک به بهینه سازی وب سایت ارائه می دهند. [15] [16] Google یک برنامه Sitemaps دارد که به مدیران وبسایت کمک میکند تا بفهمند آیا Google در فهرستبندی وبسایتشان مشکلی دارد یا خیر و همچنین دادههایی را در مورد ترافیک Google به وبسایت ارائه میدهد. [17] Bing Webmaster Tools راهی را برای وب مسترها فراهم می کند تا نقشه سایت و فیدهای وب را ارسال کنند، به کاربران امکان می دهد «نرخ خزیدن» را تعیین کنند و وضعیت فهرست صفحات وب را ردیابی کنند.
در سال 2015، گزارش شد که گوگل در حال توسعه و ترویج جستجوی موبایل به عنوان یک ویژگی کلیدی در محصولات آینده است. در پاسخ، بسیاری از برندها رویکرد متفاوتی را برای استراتژی های بازاریابی اینترنتی خود اتخاذ کردند. [18]
در سال 1998، دو دانشجوی فارغ التحصیل دانشگاه استنفورد ، لری پیج و سرگئی برین ، «Backrub» را توسعه دادند، یک موتور جستجو که بر یک الگوریتم ریاضی برای رتبهبندی برجستگی صفحات وب متکی بود. عدد محاسبه شده توسط الگوریتم، PageRank ، تابعی از کمیت و قدرت پیوندهای ورودی است . [19] PageRank این احتمال را تخمین می زند که یک کاربر وب که به طور تصادفی وب گردی می کند و پیوندها را از یک صفحه به صفحه دیگر دنبال می کند، به یک صفحه معین دسترسی پیدا کند. در واقع، این بدان معنی است که برخی از پیوندها قوی تر از سایرین هستند، زیرا به احتمال زیاد یک وب گرد تصادفی به صفحه رتبه بالاتری می رسد.
پیج و برین گوگل را در سال 1998 تاسیس کردند. [20] گوگل در میان تعداد فزاینده ای از کاربران اینترنت که از طراحی ساده آن خوششان می آمد، طرفداران وفاداری را جذب کرد. [21] عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه و تحلیل هایپرلینک) و همچنین عوامل درون صفحه (مانند فراوانی کلمات کلیدی، متا تگ ها ، عنوان ها، پیوندها و ساختار سایت) در نظر گرفته شدند تا Google را قادر سازد از نوع دستکاری مشاهده شده جلوگیری کند. در موتورهای جستجویی که فقط فاکتورهای روی صفحه را برای رتبه بندی خود در نظر می گیرند. اگرچه بازی رتبهبندی دشوارتر بود ، اما مدیران وبسایتها قبلاً ابزارها و طرحهایی برای ایجاد پیوند برای تأثیرگذاری بر موتور جستجوی Inktomi ایجاد کرده بودند ، و این روشها به طور مشابه برای رتبهبندی صفحه بازی نیز قابل استفاده بودند. بسیاری از سایتها بر تبادل، خرید و فروش لینکها، اغلب در مقیاس وسیع، تمرکز میکنند. برخی از این طرحها، یا مزرعههای پیوند ، شامل ایجاد هزاران سایت با هدف صرفاً ارسال هرزنامه لینک میشوند . [22]
تا سال 2004، موتورهای جستجو طیف گسترده ای از عوامل نامعلوم را در الگوریتم های رتبه بندی خود گنجانده بودند تا تأثیر دستکاری پیوندها را کاهش دهند. [23] موتورهای جستجوی پیشرو، گوگل، بینگ و یاهو ، الگوریتم هایی را که برای رتبه بندی صفحات استفاده می کنند، فاش نمی کنند. برخی از متخصصان سئو رویکردهای مختلفی را برای بهینه سازی موتورهای جستجو مطالعه کرده اند و نظرات شخصی خود را به اشتراک گذاشته اند. [24] پتنت های مربوط به موتورهای جستجو می توانند اطلاعاتی را برای درک بهتر موتورهای جستجو ارائه دهند. [25] در سال 2005، گوگل شروع به شخصی سازی نتایج جستجو برای هر کاربر کرد. بسته به سابقه جستجوهای قبلی، گوگل نتایجی را برای کاربرانی که وارد سیستم شده بودند ایجاد کرد. [26]
در سال 2007، گوگل کمپینی را علیه لینک های پولی که رتبه صفحه را انتقال می دهند، اعلام کرد. [27] در 15 ژوئن 2009، گوگل فاش کرد که اقداماتی را برای کاهش اثرات پیکربندی رتبه صفحه با استفاده از ویژگی nofollow روی پیوندها انجام داده است. Matt Cutts ، مهندس نرمافزار معروف گوگل، اعلام کرد که Google Bot دیگر با لینکهای بدون دنبال کردن بههمان شکل رفتار نمیکند تا از استفاده ارائهدهندگان خدمات سئو برای جلوگیری از استفاده از nofollow برای مجسمهسازی PageRank جلوگیری کند. [28] در نتیجه این تغییر، استفاده از nofollow منجر به تبخیر رتبه صفحه شد. به منظور اجتناب از موارد فوق، مهندسان سئو تکنیکهای جایگزینی را توسعه دادند که برچسبهای nofollowed را با جاوا اسکریپت مبهم جایگزین میکنند و بنابراین اجازه مجسمهسازی رتبه صفحه را میدهند. علاوه بر این، چندین راه حل پیشنهاد شده است که شامل استفاده از iframes ، فلش و جاوا اسکریپت است. [29]
در دسامبر 2009، گوگل اعلام کرد که از تاریخچه جستجوی وب همه کاربران خود برای پر کردن نتایج جستجو استفاده خواهد کرد. [30] در 8 ژوئن 2010 یک سیستم نمایه سازی وب جدید به نام Google Caffeine اعلام شد. Google Caffeine که به کاربران اجازه میدهد نتایج اخبار، پستهای انجمن و سایر محتواها را خیلی زودتر از قبل پیدا کنند، تغییری در روشی بود که Google فهرست خود را بهروزرسانی میکرد تا همه چیز را سریعتر از قبل در Google نشان دهد. به گفته کری گریمز، مهندس نرمافزاری که کافئین را برای گوگل اعلام کرد، «کافئین 50 درصد نتایج تازهتری نسبت به فهرست قبلی ما برای جستجوهای وب ارائه میدهد...» [31] Google Instant ، جستجوی بلادرنگ، در اواخر سال 2010 معرفی شد. تلاشی برای به موقع و مرتبط کردن نتایج جستجو. از لحاظ تاریخی، مدیران سایت ماه ها یا حتی سال ها را صرف بهینه سازی یک وب سایت برای افزایش رتبه بندی جستجو کرده اند. با رشد محبوبیت سایتها و وبلاگها در رسانههای اجتماعی، موتورهای پیشرو تغییراتی در الگوریتمهای خود ایجاد کردند تا به محتوای تازه اجازه دهند به سرعت در نتایج جستجو رتبهبندی شوند. [32]
در فوریه 2011، گوگل به روز رسانی پاندا را اعلام کرد که وب سایت های حاوی محتوای کپی شده از سایر وب سایت ها و منابع را جریمه می کند. از لحاظ تاریخی وب سایت ها محتوا را از یکدیگر کپی کرده اند و با درگیر شدن در این عمل در رتبه بندی موتورهای جستجو سود می برند. با این حال، گوگل سیستم جدیدی را پیاده سازی کرد که سایت هایی را که محتوای منحصر به فرد نیستند مجازات می کند. [33] Google Penguin در سال 2012 تلاش کرد وب سایت هایی را که از تکنیک های دستکاری برای بهبود رتبه خود در موتور جستجو استفاده می کردند، جریمه کند. [34] اگرچه Google Penguin به عنوان الگوریتمی با هدف مبارزه با هرزنامههای وب معرفی شده است، اما با سنجش کیفیت سایتهایی که پیوندها از آنها میآیند، واقعاً بر پیوندهای هرزنامه [35] تمرکز میکند. به روز رسانی مرغ مگس خوار Google در سال 2013 یک تغییر الگوریتم طراحی شده برای بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب را نشان داد. سیستم پردازش زبان مرغ مگس خوار تحت اصطلاح جدید شناخته شده "جستجوی مکالمه" قرار می گیرد، که در آن سیستم به هر کلمه در پرس و جو توجه بیشتری می کند تا صفحات را بهتر با معنای پرس و جو تطبیق دهد تا چند کلمه. [36] با توجه به تغییرات ایجاد شده در بهینه سازی موتورهای جستجو، برای ناشران و نویسندگان محتوا، مرغ مگس خوار قصد دارد با خلاص شدن از شر محتوای نامربوط و هرزنامه، مشکلات را حل کند، و به Google اجازه می دهد محتوای با کیفیت بالا تولید کند و به آنها تکیه کند. نویسندگان مورد اعتماد
در اکتبر 2019، گوگل اعلام کرد که استفاده از مدلهای BERT را برای جستوجوی زبان انگلیسی در ایالات متحده آغاز خواهد کرد . بازنمایی رمزگذار دو جهته از ترانسفورماتورها (BERT) تلاش دیگری بود که گوگل برای بهبود پردازش زبان طبیعی خود انجام داد، اما این بار به منظور درک بهتر سؤالات جستجوی کاربران خود. [37] از نظر بهینهسازی موتورهای جستجو، BERT قصد داشت کاربران را راحتتر به محتوای مرتبط متصل کند و کیفیت ترافیک ورودی به وبسایتهایی را که در صفحه نتایج موتور جستجو رتبهبندی میشوند، افزایش دهد .
موتورهای جستجوی پیشرو، مانند گوگل، بینگ و یاهو، از خزنده ها برای یافتن صفحات نتایج جستجوی الگوریتمی خود استفاده می کنند. صفحاتی که از سایر صفحات فهرست شده توسط موتورهای جستجو لینک شده اند، نیازی به ارسال ندارند زیرا به صورت خودکار پیدا می شوند. یاهو Directory و DMOZ ، دو دایرکتوری اصلی که به ترتیب در سالهای 2014 و 2017 بسته شدند، هر دو به ارسال دستی و بررسی ویرایشی انسانی نیاز داشتند. [38] Google کنسول جستجوی Google را ارائه میکند که برای آن میتوان یک فید نقشه سایت XML ایجاد و به صورت رایگان ارسال کرد تا اطمینان حاصل شود که همه صفحات یافت میشوند، بهویژه صفحاتی که با دنبال کردن خودکار پیوندها [39] علاوه بر کنسول ارسال URL آنها قابل کشف نیستند. . [40] Yahoo! قبلاً یک سرویس ارسال پولی را اجرا می کرد که خزیدن آن را برای هزینه هر کلیک تضمین می کرد . [41] با این حال، این عمل در سال 2009 متوقف شد.
خزنده های موتورهای جستجو ممکن است هنگام خزیدن یک سایت به عوامل مختلفی توجه کنند . هر صفحه ای توسط موتورهای جستجو ایندکس نمی شود. فاصله صفحات از دایرکتوری ریشه یک سایت نیز ممکن است عاملی در خزیدن یا عدم خزیدن صفحات باشد. [42]
دستگاه های تلفن همراه برای اکثر جستجوهای گوگل استفاده می شوند. [43] در نوامبر 2016، گوگل تغییر عمدهای را در نحوه خزیدن وبسایتها اعلام کرد و شروع به ایجاد ایندکس خود در ابتدا برای تلفن همراه کرد، به این معنی که نسخه تلفن همراه یک وبسایت معین، نقطه شروعی برای آنچه Google در فهرست خود قرار میدهد، میشود. [44] در ماه مه 2019، گوگل موتور رندر خزنده خود را بهروزرسانی کرد تا آخرین نسخه Chromium باشد (74 در زمان اعلام). گوگل اعلام کرد که موتور رندر کرومیوم را بهطور منظم به آخرین نسخه بهروزرسانی میکند . [45] در دسامبر 2019، Google شروع به به روز رسانی رشته User-Agent خزنده خود کرد تا آخرین نسخه Chrome مورد استفاده توسط سرویس رندر خود را منعکس کند. این تأخیر به مدیران وبسایت اجازه میداد تا کدهای خود را که به رشتههای عامل ربات خاصی پاسخ میداد، بهروزرسانی کنند. گوگل ارزیابی هایی را انجام داد و مطمئن بود که تاثیر آن جزئی خواهد بود. [46]
برای جلوگیری از محتوای نامطلوب در فهرستهای جستجو، مدیران وبسایتها میتوانند به عنکبوتها دستور دهند که از طریق فایل استاندارد robots.txt در فهرست اصلی دامنه، فایلها یا فهرستهای خاصی را نبشند. علاوه بر این، با استفاده از متا تگ مخصوص روبات ها (معمولاً <meta name="robots" content="noindex"> ) می توان به صراحت یک صفحه را از پایگاه داده موتور جستجو حذف کرد . هنگامی که یک موتور جستجو از یک سایت بازدید می کند، robots.txt واقع در فهرست اصلی اولین فایلی است که خزیده می شود. سپس فایل robots.txt تجزیه میشود و به ربات دستور میدهد که کدام صفحات نباید خزیده شوند. از آنجایی که یک خزنده موتور جستجو ممکن است یک کپی ذخیره شده از این فایل را نگه دارد، ممکن است گاهی اوقات صفحاتی را که مدیر وب مایل به خزیدن آن نیست بخزد. صفحاتی که معمولاً از خزیدن آنها جلوگیری می شود شامل صفحات مخصوص ورود به سیستم مانند سبد خرید و محتوای خاص کاربر مانند نتایج جستجو از جستجوهای داخلی است. در مارس 2007، گوگل به مدیران وبسایت هشدار داد که باید از فهرستبندی نتایج جستجوی داخلی جلوگیری کنند، زیرا آن صفحات هرزنامه جستجو در نظر گرفته میشوند. [47] در سال 2020، گوگل استاندارد را متوقف کرد (و کد آنها را منبع باز کرد) و اکنون با آن به عنوان یک اشاره و نه یک دستورالعمل رفتار می کند. برای اطمینان از اینکه صفحات ایندکس نمی شوند، باید متا تگ ربات در سطح صفحه گنجانده شود. [48]
روشهای مختلفی میتوانند برجستگی یک صفحه وب را در نتایج جستجو افزایش دهند. پیوند متقابل بین صفحات یک وب سایت برای ارائه پیوندهای بیشتر به صفحات مهم ممکن است دید آن را بهبود بخشد. طراحی صفحه باعث می شود که کاربران به یک سایت اعتماد کنند و پس از یافتن آن بخواهند در آن باقی بمانند. هنگامی که افراد از سایتی خارج می شوند، در مقابل سایت به حساب می آید و اعتبار آن را تحت تاثیر قرار می دهد. [49] نوشتن محتوایی که شامل عبارات کلیدی مکرر جستجو شده باشد تا با طیف گسترده ای از جستارهای جستجو مرتبط باشد، باعث افزایش ترافیک می شود. بهروزرسانی محتوا بهمنظور خزیدن مکرر موتورهای جستجو میتواند وزن بیشتری به سایت بدهد. افزودن کلمات کلیدی مرتبط به ابرداده یک صفحه وب، از جمله تگ عنوان و توضیحات متا ، باعث بهبود ارتباط فهرستهای جستجوی سایت میشود و در نتیجه ترافیک را افزایش میدهد. متعارف سازی URL صفحات وب قابل دسترسی از طریق چندین URL، با استفاده از عنصر پیوند متعارف [50] یا از طریق تغییر مسیرهای 301 می تواند به اطمینان حاصل شود که پیوندها به نسخه های مختلف URL همگی در امتیاز محبوبیت پیوند صفحه به حساب می آیند. این لینکها به عنوان لینکهای ورودی شناخته میشوند که به URL اشاره میکنند و میتوانند در امتیاز محبوبیت پیوند صفحه حساب شوند و بر اعتبار یک وبسایت تأثیر بگذارند. [49]
تکنیکهای سئو را میتوان به دو دسته کلی طبقهبندی کرد: تکنیکهایی که شرکتهای موتورهای جستجو به عنوان بخشی از طراحی خوب توصیه میکنند ("کلاه سفید")، و تکنیکهایی که موتورهای جستجو آنها را تایید نمیکنند ("کلاه سیاه"). موتورهای جستجو سعی میکنند اثر دومی را به حداقل برسانند، از جمله اسپمدکس کردن . مفسران صنعت این روشها و متخصصانی را که از آنها استفاده میکنند به عنوان سئو کلاه سفید یا سئو کلاه سیاه طبقهبندی کردهاند . [51] کلاه سفید تمایل به تولید نتایجی دارد که برای مدت طولانی دوام میآورد، در حالی که کلاه سیاه پیشبینی میکند که سایتهای آنها ممکن است در نهایت بهمحض اینکه موتورهای جستجو کشف کنند چه میکنند، ممکن است به طور موقت یا دائم ممنوع شود. [52]
یک تکنیک سئو در صورتی کلاه سفید در نظر گرفته می شود که با دستورالعمل های موتورهای جستجو مطابقت داشته باشد و فریب نداشته باشد. از آنجایی که دستورالعملهای موتور جستجو [15] [16] [53] بهعنوان مجموعهای از قوانین یا دستورات نوشته نشدهاند، این تمایز مهمی است که باید به آن توجه داشت. سئو کلاه سفید فقط به دنبال پیروی از دستورالعمل ها نیست، بلکه در مورد اطمینان از این است که محتوایی که موتور جستجو فهرست می کند و متعاقباً رتبه بندی می کند، همان محتوایی است که کاربر مشاهده می کند. توصیه کلاه سفید به طور کلی به عنوان ایجاد محتوا برای کاربران خلاصه می شود، نه برای موتورهای جستجو، و سپس آن محتوا را به راحتی برای الگوریتم های "عنکبوت" آنلاین در دسترس قرار می دهد، به جای تلاش برای فریب دادن الگوریتم از هدف مورد نظر. سئو کلاه سفید از بسیاری جهات شبیه به توسعه وب است که دسترسی را ارتقا می دهد، [54] اگرچه این دو یکسان نیستند.
سئو کلاه سیاه تلاش می کند تا رتبه بندی را به روشی بهبود بخشد که توسط موتورهای جستجو تایید نشده یا شامل فریب است. یک تکنیک کلاه سیاه از متن پنهان استفاده میکند، یا به صورت متنی که رنگی مشابه پسزمینه دارد، در یک div نامرئی یا در موقعیت خارج از صفحه. روش دیگری بسته به درخواست صفحه توسط یک بازدید کننده انسانی یا یک موتور جستجو، صفحه متفاوتی را ارائه می دهد، تکنیکی که به نام cloaking شناخته می شود . دسته دیگری که گاهی اوقات استفاده می شود سئو کلاه خاکستری است . این بین رویکردهای کلاه سیاه و کلاه سفید است، که در آن روشهای به کار رفته از جریمه شدن سایت جلوگیری میکنند اما در تولید بهترین محتوا برای کاربران عمل نمیکنند. سئو کلاه خاکستری به طور کامل بر روی بهبود رتبه بندی موتورهای جستجو متمرکز است.
موتورهای جستجو ممکن است سایتهایی را که با استفاده از روشهای کلاه سیاه یا خاکستری کشف میکنند جریمه کنند، یا با کاهش رتبهبندیشان یا حذف فهرستهایشان از پایگاههای دادهشان. چنین جریمههایی میتواند به صورت خودکار توسط الگوریتمهای موتورهای جستجو یا با بررسی دستی سایت اعمال شود. یک مثال در فوریه 2006 حذف BMW آلمان و Ricoh آلمان توسط گوگل به دلیل استفاده از شیوه های فریبنده بود. [55] با این حال، هر دو شرکت به سرعت عذرخواهی کردند، صفحات توهینآمیز را اصلاح کردند و به صفحه نتایج موتور جستجوی Google بازگردانده شدند. [56]
سئو استراتژی مناسبی برای هر وب سایتی نیست و سایر استراتژی های بازاریابی اینترنتی بسته به اهداف اپراتور سایت مانند تبلیغات پولی از طریق کمپین های پرداخت به ازای کلیک (PPC) می توانند موثرتر باشند . بازاریابی موتورهای جستجو (SEM) عمل طراحی، اجرا و بهینه سازی کمپین های تبلیغاتی موتور جستجو است. تفاوت آن با سئو به سادگی به عنوان تفاوت بین رتبه بندی اولویت های پولی و بدون پرداخت در نتایج جستجو نشان داده می شود. SEM بیشتر بر اهمیت تمرکز دارد تا ارتباط. توسعهدهندگان وبسایت باید SEM را با در نظر گرفتن قابلیت مشاهده، در نظر بگیرند، زیرا بیشتر به فهرستهای اولیه جستجوی خود میروند. [57] یک کمپین بازاریابی اینترنتی موفق ممکن است به ساخت صفحات وب با کیفیت بالا برای تعامل و متقاعد کردن کاربران اینترنت، راه اندازی برنامه های تحلیلی برای توانمندسازی صاحبان سایت برای اندازه گیری نتایج و بهبود نرخ تبدیل سایت بستگی داشته باشد . [58] [59] در نوامبر 2015، Google نسخه کامل 160 صفحهای از دستورالعملهای رتبهبندی کیفیت جستجوی خود را برای عموم منتشر کرد، [60] که تغییری را در تمرکز آنها به سمت «مفید بودن» و جستجوی محلی موبایل نشان داد . در سالهای اخیر بازار موبایل رشد کرده است و از رایانههای رومیزی پیشی گرفته است، همانطور که StatCounter در اکتبر 2016 نشان داد، جایی که آنها 2.5 میلیون وبسایت را تجزیه و تحلیل کردند و دریافتند که 51.3 درصد از صفحات توسط دستگاه تلفن همراه بارگذاری شدهاند. [61] گوگل یکی از شرکتهایی بوده است که از محبوبیت استفاده از تلفن همراه با تشویق وبسایتها به استفاده از کنسول جستجوی Google خود ، تست دوستدار موبایل، استفاده میکند، که به شرکتها اجازه میدهد تا وبسایت خود را با نتایج موتور جستجو بسنجند و تعیین کنند که چگونه وب سایت های آنها کاربر پسند هستند. هرچه کلمات کلیدی به هم نزدیکتر باشند رتبه آنها بر اساس عبارات کلیدی بهبود می یابد. [49]
سئو ممکن است بازده سرمایه گذاری مناسبی ایجاد کند . با این حال، موتورهای جستجو برای ترافیک جستجوی ارگانیک پولی دریافت نمیکنند، الگوریتمهای آنها تغییر میکند و هیچ تضمینی برای ارجاعهای مداوم وجود ندارد. با توجه به این عدم ضمانت و عدم اطمینان، کسبوکاری که به شدت به ترافیک موتورهای جستجو متکی است، در صورت توقف ارسال بازدیدکننده توسط موتورهای جستجو، میتواند متحمل ضررهای عمده شود. [62] موتورهای جستجو میتوانند الگوریتمهای خود را تغییر دهند، که بر رتبهبندی موتور جستجوی وبسایت تأثیر میگذارد و احتمالاً منجر به از دست دادن ترافیک جدی میشود. به گفته مدیر عامل گوگل، اریک اشمیت ، در سال 2010، گوگل بیش از 500 تغییر الگوریتم ایجاد کرد - تقریباً 1.5 در روز. [63] رهایی از وابستگی به ترافیک موتورهای جستجو برای اپراتورهای وب سایت یک روش تجاری عاقلانه در نظر گرفته می شود. [64] علاوه بر دسترسی از نظر خزندههای وب (به آدرس بالا)، دسترسی به وب کاربر برای SEO اهمیت فزایندهای پیدا کرده است.
تکنیک های بهینه سازی به شدت با موتورهای جستجوی غالب در بازار هدف تنظیم شده است. سهم بازار موتورهای جستجو از بازاری به بازار دیگر متفاوت است، مانند رقابت. در سال 2003، دنی سالیوان اظهار داشت که گوگل حدود 75 درصد از کل جستجوها را نمایندگی می کند. [ 65] در بازارهای خارج از ایالات متحده، سهم گوگل اغلب بیشتر است و گوگل از سال 2007 به عنوان موتور جستجوی غالب در سراسر جهان باقی مانده است . [67] در حالی که در آن زمان صدها شرکت SEO در ایالات متحده وجود داشت، تنها حدود پنج شرکت در آلمان وجود داشت. [67] تا ژوئن 2008، سهم بازار گوگل در بریتانیا نزدیک به 90 درصد بود . [68] این سهم بازار در تعدادی از کشورها به دست آمده است.
از سال 2009، تنها چند بازار بزرگ وجود دارد که گوگل موتور جستجوی پیشرو در آنها نیست. در بیشتر موارد، زمانی که گوگل در بازار معینی پیشرو نیست، از یک بازیکن محلی عقب است. شاخص ترین بازارهای نمونه عبارتند از چین، ژاپن، کره جنوبی، روسیه و جمهوری چک که به ترتیب بایدو ، یاهو! ژاپن ، ناور ، یاندکس و سزنم رهبران بازار هستند.
بهینهسازی جستجوی موفقیتآمیز برای بازارهای بینالمللی ممکن است به ترجمه حرفهای صفحات وب، ثبت نام دامنه با دامنه سطح بالا در بازار هدف، و میزبانی وب که یک آدرس IP محلی ارائه میکند نیاز داشته باشد . در غیر این صورت، عناصر اساسی بهینه سازی جستجو، صرف نظر از زبان، اساساً یکسان هستند. [67]
در 17 اکتبر 2002، SearchKing در دادگاه منطقه ای ایالات متحده ، منطقه غربی اوکلاهاما، علیه موتور جستجوی Google شکایت کرد . ادعای SearchKing این بود که تاکتیکهای Google برای جلوگیری از spamdexing یک تداخل ظالمانه در روابط قراردادی است. در 27 مه 2003، دادگاه با درخواست Google برای رد شکایت موافقت کرد زیرا SearchKing "در بیان ادعایی که ممکن است بر اساس آن تخفیف اعطا شود، ناکام ماند." [69] [70]
در مارس 2006، KinderStart علیه گوگل به دلیل رتبه بندی موتورهای جستجو شکایت کرد. وب سایت KinderStart قبل از شکایت از فهرست گوگل حذف شد و میزان بازدید از سایت تا 70 درصد کاهش یافت. در 16 مارس 2007، دادگاه منطقه ای ایالات متحده برای ناحیه شمالی کالیفرنیا ( بخش سن خوزه ) شکایت KinderStart را بدون اجازه اصلاح رد کرد و تا حدی با درخواست Google برای تحریم قانون 11 علیه وکیل KinderStart موافقت کرد و او را ملزم به پرداخت بخشی از حقوق قانونی Google کرد. هزینه ها [71] [72]
{{cite web}}
: CS1 maint: چندین نام: فهرست نویسندگان ( پیوند )