SEO в прошлом и сегодня: как происходило становление позиционирования сайтов?

Во многом история SEO напоминает историю самого Интернета, а также растущих поисковых систем. На основе недружелюбных к пользователю интерфейсов возникла сложная концепция оптимизации веб-сайтов. Оптимизация, предполагающая максимальную доступность и полезность домена для пользователей. Так было не всегда.
Фактически, чтобы понять хронологический порядок, следует отметить, что с ростом популярности Google единственным приоритетом всегда было привлечение клиентов и реклама, даже за счет деформации собственного веб-сайта.
Так как же действия и обновления Google объединили систему оптимизации? Как это повлияло на поведение маркетологов и оптимизаторов поисковых систем? Какие важные изменения произошли в этих отраслях? Что узнали пользователи поисковой системы? И, наконец, насколько сегодня SEO влияет на их поиск и синтаксис типизированных запросов (ключевых фраз)?
Какую дату можно считать началом SEO?
Теоретически можно предположить, что SEO (поисковая оптимизация) в своей самой первоначальной форме заработала, когда был создан первый веб-сайт, а именно в 1991 году. Тем не менее это имело реальный смысл благодаря запуску веб-браузеров, то есть в период с 1993 года по 1994 год (был создан Yahoo! — хотя домен был зарегистрирован в 1995 году). В 1996 году два студента Стэнфордского университета, Ларри Пейдж и Сергей Брин, придумали алгоритм поиска под названием BackRub. Именно на основе BackRub в 1997 году был создан и зарегистрирован домен Google.com. Основываясь на этой недавней истории или истории изменений в алгоритме поиска, можно сравнить, как SEO работал на протяжении многих лет. Нельзя отрицать, что рост Google навсегда изменил стратегию создания и эксплуатации не только веб-сайтов в Интернете, но и навигации пользователей по ним.
Итак, когда можно установить условную границу между «старым» и «новым» SEO? Какие существенные изменения в алгоритме поисковой системы перевернули способ оптимизации доменов с ног на голову?
«Раньше SEO было проще»
Сначала поисковая оптимизация была менее сложной. Правила были простыми и касались лишь нескольких сфер работы сайта. Они не упоминали оптимизацию контента, заголовков или удобство использования домена для пользователей, не говоря уже о скорости загрузки, которая в настоящее время кажется вынужденной мерой, если нужно достичь высоких позиций в Google. «Скромная» оптимизация была продиктована еще молодой областью веб-дизайна в то время. Тем не менее отсутствие контроля со стороны Google над всем, что связано с оптимизацией, произвол разработчиков веб-сайтов и создание спам-ссылок, создали широкий простор для злоупотреблений в области SEO.
Такие действия со стороны клиентов Google означали, что его пользователи не получали точных ответов на заданные ими вопросы. Отсутствие контроля над всем этим со стороны поисковой системы означало, что в начале ее работы она была мало кому нужна. Поэтому началась работа по обновлению алгоритма, который будет поощрять качество и распространение правдивой информации на сайтах, а также удобство для пользователей. Благодаря этому были предприняты усилия, чтобы побудить получателей использовать Google.
Под «аудиторией» подразумеваются как веб-разработчики, так и пользователей, которые ищут ответы на этих сайтах. Идея заключалась в том, чтобы связать домены с пользователями, которые искали на них неоспоримые ответы. С тех пор поисковая оптимизация претерпела значительные изменения, заставив интернет-маркетологов искать альтернативную стратегию для быстрого достижения хороших результатов. Год за годом Google исключал из индекса веб-сайты, которые пытались обмануть алгоритм.
Несовершенный алгоритм поисковой машины
Алгоритм поисковой системы — это сложная математическая структура, которая объясняет компьютерам и мобильным устройствам, как выполнять поиск. Его задача — выбрать сайты, которые будут проиндексированы по определенным позициям. Хотя Google предоставляет обширный список факторов ранжирования, по которым оценивает сайты, теория и практика не всегда идут рука об руку, что вызывает множество предположений. После того как пользователь вводит ключевую фразу, алгоритм просматривает максимальное количество страниц и присваивает им определенный приоритет. Страницы, отвечающие на искомые фразы и при этом правильно адаптированные к требованиям алгоритма, имеют шанс занять первое место в результатах поиска. Подсчитано, что Google обновляет алгоритм почти 500 раз в год, включая очень маленькие и большие изменения.
Следование тенденциям SEO, заданным алгоритмом, очень сложно и требует много времени. Однако важно оставаться в теме, поскольку время от времени Google делает огромные обновления, последствия которых ощущаются на многих веб-сайтах. Часто эти изменения вызывают внезапное падение или увеличение видимости и другую путаницу в индексе. Важно отметить, что Google не сообщает обо всех изменениях регулярно или до внедрения. Позиционеры систематически получают сообщения с течением времени, что обычно приводит к резкому падению видимости веб-сайтов, что трудно объяснить логически.
Более сообразительные веб-мастера и SEO-разработчики иногда учатся контролировать изменения и использовать их в своих интересах. В результате алгоритм был подвержен множеству злоупотреблений с их стороны, которые будут упомянуты в следующих параграфах. Таким образом, обновления алгоритмов направлены не только на повышение качества поиска, но и на борьбу с недобросовестностью. Чтобы не было проблем с определением того, какие действия соответствуют рекомендациям Google, а какие не следует использовать, опасаясь наложения фильтра на домен, были придуманы термины White Hat SEO и Black Hat SEO, которые напрямую относились к персонажам из вестерна: хорошие и плохие в характерных контрастных шляпах.
Различия между Black и White Hat SEO
Эксперты придумали эти термины, чтобы отличать нежелательные от правильных практик SEO-оптимизации. Выполнение действий в списке Black Hat SEO может привести к тому, что поисковая система наложит запрет или фильтр на домен для определенной фразы, группы ключевых фраз, подстраницы или всего веб-сайта. С другой стороны, деятельность в области White Hat SEO приветствуется в процессе оптимизации сайта. В настоящее время эти термины мало используются, о них немного подзабыли. В основном потому, что осведомленность маркетологов и позиционеров об оптимизации повысилась, а эффективность поисковой системы в поиске доменов, не соответствующих рекомендациям, и попытках обмануть алгоритм очень качественна.
Методы SEO в Black Hat в основном ориентированы на поисковую систему, а не на пользователя. Чаще всего они используются, чтобы обмануть алгоритм или быстро исправить ситуацию, например, внезапные падения. Методы Black Hat SEO очень заманчивы и обычно эффективны вначале, но в краткосрочной перспективе. Они определенно несут в себе большой риск, потому что эти сайты не представляют никакой ценности для любого пользователя и обычно на первый взгляд. Наиболее распространенные практики в области Black Hat SEO включают, например: скрытие контента, чрезмерно заполненного ключевыми фразами, рассылку спама с внешними ссылками, скрытие ссылок на веб-сайте, реализацию так называемого «облака тегов». Единственное, что определенно предлагают методы Black Hat SEO, — это нестабильные SEO-эффекты.
White Hat SEO ориентировано на пользователя, но также в некоторой степени ориентировано на поисковую систему — в конце концов, именно благодаря ему пользователь вообще попадет на веб-сайт. «Хорошие» методы SEO включают: использование правильно подобранных ключевых фраз, создание ценной базы обратных ссылок, внедрение уникальных мета—тегов, заголовков, контента и внимание к удобству использования веб-сайта для пользователя.
Как работает алгоритм сегодня?
Чтобы ответить на этот вопрос, нужно вкратце объяснить, насколько в целом изменился процесс оптимизации домена. Он покажет, как их нужно было адаптировать к обновлению алгоритма и времени.
Раньше оптимизировать веб-сайт было довольно просто. Основываясь в основном на вышеупомянутых методах SEO Black Hat (на которые робот Google не обращал такого внимания, то есть они были запрещены в то время) и после прочтения нескольких менее важных публикаций по SEO, было возможно оптимизировать сайт самостоятельно. Этот процесс не требовал слишком большого количества определенных навыков. Сегодня это можно назвать спуфингом оптимизации, за который сайт наверняка получит бан от Google. Из—за того, что алгоритм использовал ключевые слова для определения позиции в рейтинге поисковиков, все было основано на уже упомянутом вбросе ключевых фраз где—то, часто после запятой и в очень заметных местах. Чем больше ключевых фраз, тем более заметным становился домен. Читаемость, удобство использования и ясность сайта не были приняты во внимание, что в настоящее время находится в центре внимания.
С увеличением количества сайтов в индексе Google начал замечать проблемы с качеством некоторых доменов, которые не давали ответов на вопросы пользователей. Запущен ряд улучшений — обновлений, позволяющих отличать ценные сайты от бесполезных. Общую динамизацию алгоритма можно сравнить с развитием искусственного интеллекта. От несовершенного устройства до инструмента, который понимает контент, читая контент как единое целое, а не серию повторяющихся ключевых фраз. Внедряя эти обновления, Google не только навязывал способ действий веб—мастерам, веб-дизайнерам и специалистам по позиционированию, но и научил пользователей задавать соответствующие вопросы в окне поисковой системы. Способ ввода контента стал влиять на то, что владельцы доменов решили поместить в описания на веб-сайте и в мета-теги.
Идеальным примером этого является размещение фразы «рядом со мной» в мета-заголовке, которая появилась в основном в англоязычной версии поисковой системы. С развитием функции голосового поиска на смартфонах для пользователей стало естественным искать определенные места, ближайшие к ним, например рестораны, магазины и другие точки обслуживания. Компании использовали термин «рядом со мной», например, «ресторан рядом со мной». Добавив его в мета-описания, они разработали небольшую SEO—оптимизацию, ориентированную на локальный поиск. Это произошло несмотря на то, что в первую очередь потенциальный клиент был больше заинтересован в поиске чего—либо на карте Google, которая почти всегда появляется первой при локальном поиске в верхней части списка поиска.
Факторы ранжирования Google
Внесение последующих изменений поисковой системой привело к тому, что устаревшие и не качественные сайты начали «выпадать» из обращения. Алгоритм распознает веб-сайты, которые не содержат никакой информационной ценности, с возрастающей точностью, и особенно они все еще используют методы Black Hat SEO. Современный Google анализирует не только контент, но и скорость загрузки страницы, ее корректировку с точки зрения UX, появление и отображение графики и прочее — все это закрывается в виде списка «факторов ранжирования», которые определяют, что конкретно может повлиять на позицию сайта в индексе.
Наиболее часто повторяющиеся и известные факторы ранжирования Google включают:
— размещение ключевых слов в нужных местах на сайте (то есть не рассылать их спамом, а также использовать их, например, в графических описаниях, заголовках);
— форматирование содержимого таким образом, чтобы оно было читаемым для пользователей — с использованием заголовков, абзацев, внутренних ссылок, маркеров;
— размещение тематической графики, диаграмм и фотографий и правильное их описание в коде (Google интерпретирует изображения через ALT—описания);
— использование внутренних и внешних ссылок;
— отзывчивость — как сайт отображается на мобильных устройствах;
— скорость загрузки сайта.
Как быть в курсе изменений в алгоритме?
Чтобы быть в курсе своих знаний об обновлениях алгоритмов Google и не удивляться изменениям, можно отслеживать предстоящую информацию в несколько этапов. Ниже приведены несколько примеров, которые помогут лучше понять принципы работы алгоритма и узнать об основных обновлениях.
Следить за популярными SEO-блогами и лидерами отрасли (как компаниями, так и частными лицами).
Быть в курсе новостей в блоге Центра поиска Google.
Отслеживать свои результаты в Google Analytics и регулярно проверять сообщения в Google Search Console. Значительные и внезапные отклонения от нормы в результатах переходов по ссылкам или поисков могут указывать на обновление.
Отслеживать информацию в журналах активности Google, то есть в истории обновлений.
Быть активным в социальных сетях, а также в общенациональных или глобальных отраслевых группах SEO, где быстро замечаются очень сильные отклонения от нормы в видимости веб-сайтов, обсуждаются новости, представленные Google, и последующие обновления алгоритмов разбиваются на основные факторы.
В 1998 году, вскоре после запуска поисковой системы, Google реализовал одно из первых обновлений своего алгоритма. Все это привело к оценке его ценности и полезности для пользователя по количеству ссылок, ведущих на домен. Однако, скорее всего, не ожидалось, что маркетологи воспользуются этим в своих интересах, что привело к спаму на сайтах вторичными ссылками.
В прошлом каждая ссылка, которая вела на домен, была ценной. Поисковик обращал внимание не на качество, а на количество ссылок. Создание бэкэнда ссылок было основано на размещении ссылок на веб-сайты. Будь то форумы, рассылающие спам, или комментарии на совершенно случайных сайтах — почти все работало. Чем больше «говорили» о домене, тем он был ценнее для результатов поиска. Хотя в те дни казалось, что роботы поисковых систем не совсем знали, как ранжировать домены, чтобы продвигать их в своем рейтинге. Об этом свидетельствует тот факт, что домены были созданы с нулевой существенной ценностью, практически без содержания, но связаны внешними ссылками с другими веб-сайтами, что привело к их быстрому увеличению видимости. Эта система работала и приносила хорошие результаты, так зачем же SEO—разработчикам внедрять обширный контент, который, по их мнению, никто бы все равно не прочитал? Некачественные сайты с бесполезным контентом или без него начали массово наводнять индекс Google на рубеже веков, и Google решал эту проблему в течение следующих нескольких лет, затрудняя, по мнению позиционеров, оптимизацию.
Запрещенные ссылки в SEO
Еще один способ повысить видимость веб-сайта и обойти указания Google — это многократно ссылаться на домен из одного ценного источника (так называемые ссылки на один и тот же источник). Таким образом было получено дублирование ссылок, на что в то время Google не обращал столько внимания — либо он не осознавал, насколько эта система (тогда стала дублировать контент в домене) повлияет на рейтинг. Если ссылка с одного домена с высоким рейтингом увеличивает видимость другого, почему бы не использовать ее несколько раз? Воображению SEO-специалистов тогда не было предела.
Когда количество веб-сайтов в Интернете выросло в огромных масштабах, каталоги веб-сайтов стали полезными и практичными — такие онлайн-телефонные справочники того времени, в которых можно было легко по категориям найти интересующий веб-сайт. Со временем эти страницы стали полезным инструментом для построения ссылочной базы веб-сайтов. Из бесплатных каталогов, созданных для облегчения пользователям навигации в Интернете, они нашли свой путь в фермы платных ссылок.
Популярной формой внешних ссылок были ссылки на так называемые якоря, то есть ключевые фразы. Это означает, что на веб-сайт ведет не ссылка http://, а конкретная ключевая фраза (например, «садовая мебель»). Большое количество повторений такой фразы в виде ссылки позволило обмануть поисковик, еще не ориентированный на дублирование. Это было также время создания инструментов, которые генерировали сразу несколько ссылок на случайных порталах (или тех, которые принадлежали «программе») и размещали огромное количество комментариев к несвязанным статьям или контенту блога. Это была просто ссылка с другого домена.
Обновление, изменившее ссылки в SEO
Однако в 2014 году, благодаря обновлению алгоритма, получившему название Brandy, Google начал борьбу со спам-ссылками. Наиболее важные изменения, последовавшие за выпуском обновления:
— инициирование формы LSI (Latent Semantic Indexing), которая привела к лучшему пониманию и распознаванию синонимов, то есть семантическому сопоставлению — благодаря этому поисковая система лучше распознала концепцию и тему веб-сайта. Чем больше синонимичных ключевых фраз было размещено рядом друг с другом в контенте на странице, тем лучше, по мнению Google, был ответ на запрос, заданный пользователем;
— URL—адреса также были изменены в первую очередь — с 2004 года содержание якорей должно было относиться к теме ссылки, на которую они вели. Google хотел начать наказывать сайты, на которых было много случайных, несвязанных внешних ссылок. В результате поисковая машина должна была стать более эффективной и предоставлять пользователям реальную информацию.
Контент-маркетинг — домен как носитель контента
Нельзя отрицать, что контент-маркетинг как инструмент продвижения — это гораздо более старая форма рекламы, чем позиционирование. Однако, когда было «создано» SEO, контент практически сразу стал его незаменимым и важным элементом. Можно сказать, что позиционирование каким—то образом присвоило силу контент-маркетинга и использовало ее для собственных нужд. По крайней мере, обе формы рекламы преследовали одну и ту же цель — привлечь клиентов. Возможно, эта концепция стала наиболее важным общим моментом в отношениях с SEO — контент и в этой форме остается актуальным по сей день.
Одним из важнейших моментов в период расцвета контент-маркетинга является развитие сферы блоггинга. В 2002 году стало модным вести блог, и его создатели начали зарабатывать реальные деньги на своем контенте, например, с помощью BlogAds — «матери» всех платформ, на которых монетизируется рекламный контент. Когда в 2003 году Google выпустила свою собственную версию — Google AdSense, в отрасли произошел еще один бум. Возникли различные стили ведения блога, статьи стали более конкретными и затронули профессиональные темы. Создатели и пользователи нишевых специализаций начали создавать сеть контактов. Люди пытались превратить хобби в карьеру.
Спустя время стали появляться рекламные контракты, развивалась реферальная система и сарафанный маркетинг. Ценность рекламируемого продукта стала измеряться ценностью представляющего его блогера (современных блогеров можно считать прото-инфлюенсерами). Ведение блогов переплелось с контент-маркетингом, который в первую очередь связан с продажами. Блоги во всей своей красе стали носителями контента и рекламы одновременно. Однако для того, чтобы их вообще можно было найти, и рекламируемый продукт доходил до потенциального покупателя своей рекламой, была необходима хорошая видимость и кликабельность в Google, крупнейшей поисковой системе в то время. Таким образом, ключевые фразы стали незаменимым элементом любого контента.
В первое десятилетие двадцатого века пользователи поисковых систем были уже достаточно хорошо обучены и привыкли к форме ключевых фраз и их работе. Однако они не могли уделить должное внимание вопросам оптимизации, из—за чего страницы получали высокие рейтинги по определенным ключевым фразам. Однако в этих доменах на «рассвете» SEO, когда алгоритм Google еще не был должным образом сформирован, принцип был: «если что-то работает, делайте больше».
Оптимизация контента в основном заключалась в размещении как можно большего количества ключевых фраз, часто в случайных местах на подстранице. Конечно, они также были в описании продуктов, заголовках H1, H2 — но чаще всего случайно, чем это была процедура оптимизации. Более того, из-за этих действий можно каннибализировать большое количество ключевых фраз. Это означает, что, например, на многих подстраницах были размещены одинаковые, конкурирующие и несколько повторяющихся ключевых слов. Часто это делалось по незнанию или это была преднамеренная, но отчаянная попытка увеличить видимость сразу многих страниц. В результате создавались копии на контент, направленные только на повышение позиции.
Современная форма построения контента
В современной оптимизации контента прежде всего речь идет о естественности. Бренды всех отраслей осознали, что конкуренция за очень конкурентоспособные ключевые фразы часто не только проблематична, но и требует больших затрат, что, к сожалению, не приносит реальной прибыли и не увеличивает конверсию. В контенте стали размещаться не только конкурирующие фразы, но и прямые ответы на вопросы пользователей или, точнее, вопросы из «длинного хвоста». Было понятно, что пользователь, который ввел термин «отопление» в поисковике, не был в точности тем покупателем, к которому они обращались (вообще игнорируя намерение ввести такую фразу).
Имеет смысл настроить таргетинг на пользователя, который ищет такие ключевые слова, как: «теплый пол в квартире», «отопление тепловым насосом», «газовое отопление», «как отапливать большую квартиру», «какое отопление наиболее выгодно» и другие. Именно эти фразы широко известны как «фразы с длинным хвостом». Пользователь, вводящий их, обычно имеет в виду что-то конкретное, уже определился с товаром или услугой. После ввода пароля он практически сразу получает ответ, потому что язык таких ключевых слов более органичен и естественен. Существенным преимуществом для позиционера также является простота позиционирования длинных хвостовых фраз, которые обычно немного менее доступны для поиска, чем конкурирующие.
Революция в сфере контент-маркетинга
Одну из самых больших революций в области контента компания Google совершила в 2011 году, обновив алгоритм и напрямую ударив по некачественному контенту. Это обновление серьезно повлияло на 12% доменов в Индексе, и это изменение было названо «Пандой». Сайты, у которых был высокий коэффициент рекламы по отношению к количеству полезных описаний, потеряли свою видимость. С другой стороны, домены, которые не пытались обмануть алгоритм и не использовали регулярно методы Black Hat SEO, выиграли. Google подготовился к этому масштабному обновлению еще в 2010 году (майское обновление), когда на некоторых доменах впервые было замечено значительное снижение трафика с длинным хвостом.
Казалось бы, больше всего пострадали страницы с бесполезным текстом, с искусственно размещенными ключевыми фразами. Google потребовалось довольно много времени, чтобы разобраться с некачественным контентом.
В настоящее время Google поддерживает заявление о том, что контент в домене должен быть написан только для пользователя. Умение вписывать в него ключевые фразы таким образом, чтобы сделать их менее заметными, стало настоящим искусством, которое пришлось изучить современным копирайтерам. Хороший контент, написанный для SEO, должен быть частью оптимизации. Контент-маркетинг без SEO бесполезен, поэтому так важна синергия, в которой ключевые фразы всегда будут работать в пользу домена.
В прошлом самой популярной формой учета результатов, достигнутых в SEO, была оплата за эффект. Это все еще встречается сегодня. Данный цикл заключался в наблюдении за положением выбранных ключевых слов (например, пять, десять, двадцать фраз — в зависимости от желания клиента). Если фразы попали в ТОП-10, клиент должен был заплатить за этот эффект, а затем за удержание позиции в первой десятке. Чем больше ключевых фраз попало в ТОП-10, тем больше заработало агентство. Похоже, это была довольно справедливая форма выставления счетов. У клиента всегда был готовый отчет, в котором он мог проверить детали, но эта модель была подвержена злоупотреблениям и имела свои недостатки, например:
— в зависимости от местоположения, установленного или загруженного автоматически, клиент видел несколько иные элементы, чем агентство, поэтому было важно проверить фразы, например, в частном окне браузера;
— агентство смогло подобрать для клиента такие ключевые фразы и при этом убедить его в том, что данные фразы имели хорошие шансы попасть в ТОП-10 за очень короткое время, но в конечном итоге не принесли трафика на домен;
— долгосрочное связывание одних и тех же ключевых фраз и оптимизация только нескольких подстраниц может привести к наложению фильтра со стороны Google, потому что со временем эти действия считались искусственными и спамовыми, поскольку они охватывали узкую область и темы. После многих обновлений, правильно проведенное позиционирование должно осуществляться в долгосрочной перспективе и наиболее естественным образом, одновременно повышая авторитет сайта, продвигая всего несколько фраз, не только потому, что это ускоряет процесс позиционирования, а может вызвать подозрения у поисковой системы.
В какую форму SEO следует инвестировать?
При позиционировании нужно думать не только о позициях ключевых фраз, но и о многих других данных: рейтинг кликов, показатель отказов, скорость страницы, отзывчивость, количество поисков или мониторинг количества ключевых фраз, по которым домен виден. Современное позиционирование основано на естественности и органичности ссылок или создании уникального и ценного контента. Само SEO сегодня сложнее, потому что результат обычно занимает больше времени. Тем не менее результаты лучше. Вместо того чтобы продвигать сайт по нескольким или десяткам ключевых фраз, современное позиционирование включает в себя работы по подписке, содержащие целостный подход к теме. Важно работать с длинными фразами, то есть продвигать в магазине отдельные товары, а не только категории. Нужно сосредоточиться на потребностях пользователя, который задает очень точные запросы, а также, что очень важно, адаптировать веб-сайт для правильного отображения на мобильных устройствах.
Отчеты для выставления счетов за подписку фокусируются не только на позициях фраз, но и на общем увеличении видимости всего веб-сайта. В случае позиционирования для эффекта обычно оптимизируется только несколько подстраниц. Однако здесь оптимизацию можно спланировать комплексно, а не раз и навсегда. В современном SEO быстрые и простые результаты не гарантируются. Вместо этого планируются долгосрочные кампании, ориентированные на конкретную область, а не отрасль в целом. Здоровое, постепенное увеличение видимости: возможность поиска и CTR на веб-сайте — более реалистичное ожидание, чем обещание высокого рейтинга фраз, которые в худшем случае могут даже не принести трафик в домен.
Возможно ли этичное SEO?
Google проделал огромную работу, систематизировав домены в индексе на протяжении многих лет, чтобы пользователи могли использовать поисковую систему понятным и всеобъемлющим образом. Умение быстро найти ответ на заданный вопрос стало ключевым элементом в жизни многих людей. «Как приготовить торт?», «Как починить кран?», «Как почистить фильтр для воды?» — Google ежедневно обрабатывает миллионы этих и подобных запросов, на которых основана последующая оптимизация. Индустрия SEO эволюционировала от внедрения дешевых трюков в домены до создания всеобъемлющих маркетинговых стратегий, главная цель которых — иметь полное представление о каждом сайте. Таким образом, была сформирована концепция «этичного SEO», основанная на и без того архаичных техниках White Hat SEO и User Experience. Конечная цель Google — вознаграждать сайты, создающие действительно ценный контент. В конце концов, и поисковая система, и домен используют одну и ту же базу пользователей, которые потенциально могут стать клиентами — будь то Google или интернет — магазин.