Як працює Google Пошук?

15.10.2021

Автор: Mappers

 

Як працює Google Пошук, основні алгоритми оновлень
У наш час пошукові системи, зокрема Google, нагадують «вітрину» Інтернету і є найбільш важливим каналом поширення інформації в цифровому маркетингу. За допомогою глобальної ринкової частки, яка складає більше 65% за даними за січень 2016 року, Google явно домінує в пошуковій індустрії. Хоча компанія офіційно не розкриває ступінь свого зростання, до 2012 року було підтверджено, що їх інфраструктура обслуговує близько 3 мільярдів пошукових запитів в день.

Google.com глобально зайняв звання сайту номер 1 в Alexa Top 500 Global Sites. З огляду на ці цифри, власникам власних веб-сторінок особливо важливо мати хорошу видимість своїх сайтів пошуковою системою.

Але не дивлячись на таку загальну популярність Google, чи знаєте ви, як він дійсно працює і що це за панди, пінгвіни, колібрі?

Чим потрібніше стає Google для сучасного маркетингу, тим важливіше розуміти функції пошуку і алгоритми оновлень, які безпосередньо впливають на ранжирування результатів. Moz передбачає, що Google змінює свої алгоритми по 600 разів за рік. Багато з цих змін і пов'язані з ними фактори ранжирування тримаються в секреті. І тільки про великі оновлення оголошують публічно.

У цій статті ми розглянемо основи функціональності пошукової системи і пояснимо основні оновлення алгоритму Google, починаючи з 2011 року. Виведемо також стратегії, дотримуючись яких можна йти в ногу зі змінами пошукової системи. Так що читайте далі ...

Як працює Google?
Своєю появою пошукові системи геть змінили звичний для нас спосіб збору інформації. Чи цікавить вас оновлення даних фондового ринку або ви хочете знайти кращий ресторан в районі, або пишете академічний звіт про Ернеста Хемінгуея - пошуковик дасть відповідь на всі запити. У 80 роки відповіді на питання зажадали б відвідин місцевої бібліотеки. Тепер же все вирішується протягом мілісекунди з використанням алгоритмічних повноважень пошукача.

В цьому відношенні головна мета пошукової системи полягає в тому, щоб максимально швидко знайти доречну і актуальну інформацію, як відповідь на введені пошукові терміни, також звані ключовими словами. Тому центральним аспектом для будь-якої пошукової системи, яка бажає видати дійсно корисний результат, є поняття мети пошуку, того, як саме люди шукають.

Результат роботи Google можна порівняти з інтернет-каталогом, відібраним за допомогою рейтингової системи на основі алгоритмів. Більш конкретно алгоритм пошуку можна описати як «знаходження елемента із заданими властивостями серед списку елементів».

Сканування
Сканування може бути описано, як автоматизований процес систематичного вивчення загальнодоступних сторінок в Інтернеті. Простіше кажучи, під час цього процесу Google виявляє нові або оновлені сторінки і додає їх в свою базу. Для полегшення роботи він використовує спеціальну програму. «Googlebots» (можна зустріти альтернативні назви: «боти» або «роботи») відвідують список URL-адрес, отриманих в процесі минулого сканування і доповнених даними карти сайту, яку надають веб-майстри і аналізують їх зміст. При виявленні посилань на інші сторінки під час відвідування сайту, боти також додають їх до свого списку і встановлюють систематичні зв'язку. Процес сканування відбувається на регулярній основі з метою виявлення змін, вилучення «мертвих» посилань і встановлення нових взаємозв'язків. І це при тому, що тільки за даними на вересень 2014 року налічується близько мільярда веб-сайтів. Можете собі уявити складність такого завдання? Тим ні менш, боти не відвідують абсолютно кожен сайт. Щоб потрапити в список перевіряються, веб-ресурс повинен бути розглянутий, як досить важливий.

Індексація


Індексація - процес збереження отриманої інформації в базі даних відповідно до різних факторів для подальшого вилучення інформації. Ключові слова на сторінці, їх розташування, мета-теги і посилання представляють особливий інтерес для індексації Google.

Для того щоб ефективно зберігати інформацію про мільярди сторінок в базі даних пошукової системи, Google використовує великі центри обробки даних в Європі, Азії, Північній і Південній Америці. У цих центрах, як було підраховано, з урахуванням споживання енергії Google в 2010 році, працює близько 900,000 серверів.

Основна мета процесу індексації: швидко реагувати на пошукової запит користувача. Його якраз ми і будемо обговорювати на наступній стадії.

Обробка


Коли користувач вводить запит, Google виробляє в базі даних пошук, що відповідає умовам і алгоритмічно визначає актуальність змісту, що виводить до певного рейтингу серед знайдених сайтів. Логічно, що результати, які вважаються більш доречними для користувача пошукової системи, навмисно отримують більш високий ранг, ніж результати, які мають менше шансів забезпечити адекватну відповідь.

Хоча Google і не випустив офіційних даних про це, компанія підтверджує, що використовує понад 200 факторів для визначення релевантності і значущості конкретної сторінки.

Природно, всім веб-розробникам важливо знати, які фактори ранжирування, які впливають на позицію сторінки в пошуковій видачі. Іноді Google дає певні натяки, оголосивши важливі зміни в оновленнях своїх алгоритмів.

Всі вищеописані процеси сканування, індексування та позиціонування можна зобразити за допомогою такої схеми:

Тепер, коли у вас є базове розуміння того, як працює Google, розглянемо основні оновлення алгоритмів пошуку, починаючи з 2011 року.

Оновлення алгоритмів починаючи з 2011
Як ви і самі розумієте, Google ніколи не буде публічно розкривати свої алгоритми пошуку і фактори ранжирування результатів. Це було б рівнозначно тому, щоб компанія Coca-Cola викладала рецепти своєї знаменитої газованої води в Інтернет. Тим не менш, Google хоче покращувати рівень користувацького досвіду і забезпечувати найкращі результати пошуку. Для того, щоб зменшити впроваджуваний контент в результатах пошуку, компанія хоче проінформувати веб-майстрів про те, коли і як змінилися головні стандарти якості відбору. Тому цілком ймовірно, що перед проведенням великого оновлення алгоритму, піде анонс на Google Webmaster Central Blog.

Отже, давайте розглянемо основні оновлення, які були здійснені, починаючи з 2011 року:

Panda
Оновлення Panda вперше було представлено в кінці лютого 2011 року. Після було випущено досить багато його апдейтів, на даний момент поточна версія: 4.2. Оновлення можна розглядати, як значне поліпшення алгоритму пошуку, тому що вона спрямована на підвищення якості контенту веб-сайтів. Основна ідея полягає в тому, що оригінальні сайти з авторським контентом в пошуковій системі повинні зайняти місце вище, ніж сторінки з низькою якістю, що повторюють те, що вже і так відомо або ж є копіями інших сайтів. Оновлення Panda встановило новий базовий рівень стандартів якості:

  • вміст на сторінці повинно мати істотний обсяг. Більший обсяг інформації статистично займає місце вище, ніж містить менше 1500 слів;
  • інформація, представлена ​​на сайті повинна бути оригінальною. Якщо ви просто копіюєте вміст інших веб-ресурсів, Google покарає за це;
  • зміст сайту має вносити щось нове до теми. Мало кому буде цікаво в сотий раз перечитувати одне і теж. Для успішного просування контент має бути те, чого немає на інших сайтах;
  • текст сайту повинен бути орфографічно і граматично правильним і грунтуватися на перевірених фактах;
    якщо ви збираєтеся автоматично генерувати контент з бази даних, зміст повинен відповідати описаним стандартам.

Page Layout (Top Heavy)
Оновлення, вперше випущений в січні 2012 року, передбачає покарання сайтів, які використовують занадто багато реклами у верхній частині сторінки або роблять її надмірно агресивною, відволікає від основного змісту. Це спровоковано великою кількістю скарг від користувачів, яким бувало складно знайти потрібну інформацію і доводилося довго прокручувати сторінку вниз. Даним оновленням Google закликає веб-майстрів розміщувати вміст сайту в центрі уваги. У цьому відношенні велике число реклами заважає зручності засвоєння інформації.

Penguin
Був випущений в квітні 2012 року. Новий алгоритм, спрямований на боротьбу з пошуковим спамом. Сайти, які використовували спам-методи, були значно знижені в рейтингу або зовсім вилучені з нього.

Ще однією особливістю Penguin є здатність аналізувати кількість посилань.

Pirate
З оновленням Pirate, яке було введено в серпні 2012 року, Google знизив рейтинг сайтів, які порушують авторські права та інтелектуальну власність. Для вимірювання цих порушень, Google використовує систему запитів про порушення авторських прав, засновану на Digital Millenium Copyright Act. Правовласники можуть застосовувати інструмент, щоб повідомити і видалити зміст сайту плагіаторів з бази даних Google.

Exact Match Domain (EMD)
Випущено в вересні 2012 року і направлено на боротьбу з доменами, схожими на MFA.
MFA (made-for-adsense) - домен, який створений спеціально для Медійній системи Google. Зазвичай такий домен призначений для якогось одного запиту (або сімейства запитів) і на ньому встановлений Google Adsense. Користувач, який потрапив на цей домен, не бачить нічого, крім реклами і в результаті або закриває сайт, або переходить далі по контекстного оголошенню. Після випуску алгоритму EMD, сайти, що містять в доменному імені запит, були вилучені або дуже істотно знижені в рейтингу.

Payday Loan
Випущений в червні 2013 року і спрямований на зменшення сторінок, які містять переспамленние запити. Такі запити часто використовуються веб-майстрами для просування сторінок певної тематики.

Оновлення було запущено в зв'язку з численними скаргами, в яких говорилося, що навіть після впровадження Panda і Penguin чистота видачі залишала бажати кращого.

Розглянемо це оновлення на звичайному прикладі. Припустимо, вам потрібно купити двері. Якщо ввести запит, Google видасть фотографії дверей. З них: 2-3 сторінки, де безпосередньо можна купити двері, 3-4 сайту компаній-виробників дверей і 2-3 сайту про те, як вибрати і поміняти двері. Якби не було оновлення Payday Loan, ви б побачили 15-20 запитів на одну тематику (наприклад, де купити двері).
Критерії, за якими відбувається відбір таких сайтів, Google розкривати не хоче, але даний алгоритм явно спростив життя користувачам пошукової системи.

Hummingbird
З вересня 2013 року Google реалізував заміну алгоритму пошуку, яка була названа Hummingbird. Основні оновлення, як Panda і Penguin, були інтегровані з цим новим алгоритмом. Ім'я Hummingbird вибрали в якості синоніма для опису гнучкості, точності і швидкості нового оновлення.

Замість того, щоб повертати точні відповіді на запити, використовуючи введені користувачем ключові слова (як це було раніше), Google інтерпретує наміри і контекст пошуку. Мета полягає в тому, щоб зрозуміти сенс пошукового запиту користувача і повертати відповідні результати. Це означає, що точні співпадіння ключових слів стають менш важливими на користь пошуку наміри. Як приклад: якщо ви вводите запит «погода», то навряд чи очікуєте отримати повне пояснення самого терміна. Швидше в даному випадку маються на увазі погодні умови. Щось на зразок:

Pigeon
Оновлення Pigeon вперше випущено в липні 2014 року. Основна увага в ньому приділяється результатами геозалежні пошуку. Відстань і місце розташування користувача є ключовими параметрами ранжирування, щоб забезпечити точність результату. Це оновлення тісно пов'язане з Google Maps. наприклад:

Mobilegeddon

Було випущено в квітні 2015 року. Це оновлення впливає тільки на мобільний пошук, воно дає перевагу сторінкам, дружнім до мобільних пристроїв.

У поточному стані, оновлення не впливає на результати пошуку зі стаціонарних комп'ютерів або планшетів. На відміну від Panda або Penguin, алгоритм працює в режимі реального часу.

Існує спеціальний тест, за допомогою якого веб-майстри можуть перевірити сумісність свого сайту з мобільними пристроями. Також можна використовувати звіти про мобільний юзабіліті в Google Webmaster Tools, тільки вони можуть працювати із затримкою.

Як йти в ногу зі змінами алгоритмів?

Обговорення основних оновлень алгоритмів за останні роки, ймовірно ставить перед вами питання, як не відставати від цих змін? Основне завдання Google - постійно рухатися в напрямку забезпечення найвищої якості та надійності відповідей на запити користувачів. У той час як технічні особливості можуть модифікуватися, широка стратегія навряд чи зміниться.
Оскільки поведінка людини постійно змінюється, завдання Google також адаптувати свої алгоритми згідно зі змінами. Наприклад, «Mobilegeddon» було введено в якості реакції на зростаючу тенденцію пошуків з мобільних пристроїв.

Головне - це розуміння того, хто ваші клієнти. Зосередженість на реальних потребах цих клієнтів має фундаментальне значення для того, щоб йти в ногу зі змінами.

Отже, якщо ви - веб-програміст, вам особливо важливо бути в курсі змін алгоритмів пошуку Google. Ось підбірка кількох корисних ресурсів, які можуть допомогти залишатися в курсі подій:

Google Webmaster Central Blog — ваш головне джерело для офіційних новин і оновлень, на ньому досить часто вперше оголошували про алгоритмічних зміни.

Moz Google Algorithm Change History —в цій базі даних Moz опублікував кожне з помітних змін алгоритму і оновлень починаючи з 2000 року.

Search Engine Land — один з найбільш важливих онлайн журналів для SEO і SEM. У ньому є цілий розділ про оновлення алгоритмів Google з відповідними статтями.

Search Engine Roundtable — також включає в себе цікавий розділ про оновлення алгоритмів.

Mozcast — це візуальне уявлення про зміни алгоритмів у вигляді зведення погоди.

Algoroo — інструмент, який відстежує результати пошуку коливання навколо 17000 ключових слів у зв'язку зі зміною алгоритму. Дуже корисний сайт для виявлення негайних оновлень.

Читайте также

Читайте також

Блокування Google Мій Бізнес у зв'язку з COVID

20.03.2020

Автор: Mappers

Чому не відображаються відгуки на карті? Чому я не можу відповісти на відгук на Карті Google? Чому не публікуються записи Google Мій Бізнес? Служба підтримки Google не відповідає. Блокування Google Мій бізнес

Що таке GEO реклама, Частина 3

20.10.2021

Автор: Mappers

Цей сюжет детально розповість вам про всі переваги та недоліки ГЕО Реклами. А також чим конкретно займається наша компанія. Дасть наочний приклад.

Топ пошукових систем в Україні

16.10.2021

Автор: Mappers

В даний час ніяких глобальних змін в цьому питанні не передбачається. Взагалі на українському і глобальному "ринках", якщо цей параметр можна назвати вдалим, практично монополія Google пошуку. Що з одного боку зрозуміло так і з іншого боку — сумно!