スタッフブログ

【2024年3月】Google検索エンジンの仕組みから知るSEO対策

2024.04.18 Posted by

ChatGPTなど生成AIの技術革新や浸透が飛躍的に進んでいる今、私たちの検索体験も大きく変わろうとしていることを肌で感じている方も少なくないでしょう。
それを裏付けるかのように、2023年にGoogleは4回のコアアップデート(検索アルゴリズムの大幅なアップデート)を実施しています。
また、直近でも2024年3月5日からコアアップデートが実施されています(執筆日3/18時点。1ヶ月程度で完了見込み。)。

 

今回は、最近のSEO動向とその対策に触れながら、検索エンジンの仕組みについて解説していきます。

検索エンジンの仕組みについて

まずは、検索エンジンの仕組みについてです。流れとしてはディスカバー⇒クロール⇒インデックス⇒ランキングでページの順位が決定されています。

 

2-1.ディスカバー

ディスカバーとは、無数に存在するWebページ(URL)を以下の方法で検索エンジンが探し出すことです。具体的には以下の方法で実施されています。

 

①あるページ内に貼られているリンクを発見する
クローラーと呼ばれるWebサイト情報収集を自動で行うロボットが世界中のWebサイトを巡回する際にサイト内に貼られているリンクを同時に集めて行くことでURLの存在が検索エンジンに伝わります。

 

②sitemap.xmlから発見する
sitemap.xmlを利用すると、クローラーにWebページの存在をこちらから伝えることができます。sitemap.xmlとは、検索エンジンに対してクロールを希望するURLを伝えるためのファイルのことです。

 

検索エンジンは、更新すればいつでも無制限にクロールをしてくれるわけではありません。
後述するインデックスにも言えることですが、これらにはGoogleのリソースが使われています。個人的には最近ではクロールの頻度も減ってきていると感じます。
そのため、ファイル上に更新日時や更新頻度、優先度に関して記載し、「検索上位を目指している優先度の高いコンテンツはこれです!」とアピールすることで、インデックスされやすくなります。

 

sitemap.xmlは、検索エンジンにとっても効率的なクロールの実現に役立つため、インデックス効率を高めるためにも、指定のファイル形式の規定を守って運用しましょう。sitemap.xmlのファイルは、作成が完了したらGoogleサーチコンソール上にアップするだけですので、運用自体も非常に簡単です。

 

2-2.クロール

クロールとは、発見したWebサイトのURL上の文章や画像、動画などの情報を収集・分析する作業のことです。クローラーは、Webサイト上でURLを発見すると、URL先のページも巡回します。クローラーは、この巡回を繰り返すことで、Web上の新しい情報を集めています。

 

その際、クローラーが解析しやすいようにURLの正規化やタグの記述をしっかりと行いましょう。URLの正規化とは、同じ内容のページで複数URLがある場合、1つのURLに統一することです。これにより、検索エンジンからの評価が分散しないというメリットもあります。

 

そして、クローラーに正しく情報を伝えるためには、適切なマークアップが必要です。マークアップが不適切な場合、どれがタイトル、見出しなのか、文章の関連性などをGoogleに正しく伝えることができません。これにより良質なコンテンツだとしても上位表示につながらなくなってしまう場合もあるため、少しテクニカルな部分にはなりますが意識することが大切です。

 

2-3.インデックス

インデックスとは、クロールしたURLをGoogleのデータベースに登録する作業のことです。URL上のコンテンツを解析した結果、Googleのデータベースに登録する必要があるかどうか判断されます。URLがGoogleにインデックスされているかを確認する方法として、以下の2つの方法があります。

 

① Googleサーチコンソールで検査
Googleサーチコンソールにおける「URL検査」の方法は、次のとおりです。

 

  • ステップ1:Googleサーチコンソールにログインする
  • ステップ2:「URL検査」をクリックする
  • ステップ3:インデックスの状況を調べたいURLを記載する

 

上記のURLの検査をした際、「URLはGoogleに登録されています」という表示があれば、インデックスが完了しています。
※URL検査の結果、登録されていない場合はこちらも併せてご確認ください。
ページがインデックスされない!?原因と対処法について

 

② site:URLコマンドで調査
Googleサーチコンソールを使わなくても、検索エンジン上でsite:URLコマンドで調査することができます。

 

  • ステップ1:検索エンジンを開く
  • ステップ2:site:URLで検索する

 

インデックスされていれば、検索結果にWebサイトの情報が表示されます。

 

2-4.ランキング

Googleは、検索キーワードに対して、関連度、情報の信頼度等をもとにアルゴリズムにより順位を決定しています。ここ最近のアップデートでは、Webサイトの運営者の信頼性の高さが問われるアルゴリズムの運用が開始され、E-E-A-Tの基準に満たしているかが大きな話題となりました。

 

E-E-A-Tは、Experience(経験)、Expertise(専門性)、Authoritativeness(権威性)、Trustworthiness(信頼性)の頭文字で形成された指標で、Webサイトが「どういった組織の人・どういった経歴の人がどのようなレベルの情報を公開しているのか」といった基準の高さの調査には欠かせないSEOの要素として重要視されるようになりました。
E-E-A-Tについては、こちらの記事でも解説しています。
E-E-A-Tとは E-A-Tとの違いについても解説

SEOの最近の傾向について

現在、Googleが重要視している基準に、コアウェブバイタルや上記のE-E-A-Tといった重要な指標があります。コアウェブバイタルは、ユーザビリティの高さを調べるための指標で、主に3つの要素で成り立っています。

 

LCP:ページの表示速度
FID:ユーザーのリアクション速度
CLS:視覚の安定性

 

E-E-A-Tは、E-A-Tに「Experience(経験)」が追加されてできた指標です。この背景として個人的には以下の2つの理由が大きいと考えています。
① 生成AIの登場によって、AIによって作成されたコンテンツが量産される傾向が高まっており、コンテンツの質の低下(どれも似た情報になってくる)による検索体験低下、中長期的に見たユーザー離れを防ぐため。
② 低品質なコンテンツがインデックスされることによるGoogleのリソース圧迫を抑制するため。

 

少し前にはそのページの情報量が重要視されてきましたが、その点は生成AIの登場などによって制作ハードルが下がっています。AIが作ったコンテンツでも本当にユーザーのためになるものであれば問題ないのですが、やはり疑問は残ります。
そのため、情報量よりも、「そこでしか見ることができないこと」の価値が最大化されていくと感じます。

 

実際に直近でいくつかのジャンルでは、ヤフー知恵袋のページの順位が大きく上がった事例がありました。このことからも情報量よりもユニークさとシンプルな内容でもユーザーの役に立っているコンテンツが評価されていることがわかります。

まとめ

Googleは、AI社会の到来に向けて検索アルゴリズムの改善を続けています。以前なら数万文字あるだけで上位表示しやすいといった過去もありましたが、そのような記事はAIを使うことで簡単に生成できるようになりました。

 

しかし、AIにも唯一作成できないものがあります。それは、人間が得る独自の経験です。独自の経験は検索エンジン上に情報が存在せず、AIには作成できません。Googleはそういった情報こそ価値があると考えているため、今後はSEO対策のポイントとして意識していくべきでしょう。

オリエンシートダウンロード

採用サイト 絶対に外せない5つのチェックポイント

オリエンシートダウンロード

CONTACT

お電話でのお問い合わせ

03-5366-3277

受付時間:平日9:30〜18:30

メールフォームからのお問い合わせ

お問い合わせ(東京本社)

PAGETOP

Document資料請求

Contactお問い合わせ