ユーザーエージェントとは?なぜ必要なのか、役割について解説

ユーザーエージェント(User Agent)とは、WebサイトにアクセスするWebブラウザの種別やバージョンなどをWebサーバーに伝える情報の1つです。
ここでは、ユーザーエージェントの概要や、robots.txtにユーザーエージェントを記載して検索エンジンのクローラーを指定する方法について解説します。

この記事のポイント

  • ユーザーエージェントはWebブラウザの種別やバージョンなどを伝える情報のこと
  • ユーザーが各自の閲覧環境に適したWebページを閲覧するために必要な技術
  • ユーザーエージェントを指定することで、robots.txtで各検索エンジンのクローラーを制御することができる

\疑問や不明点はお気軽にご相談ください!/

ユーザーエージェントとは

ユーザーエージェントは、WebサイトにアクセスするWebブラウザの種別やバージョンなどの情報をWebサーバーに伝える役割を持ちます。

Webサーバーは、Webブラウザからの要求に含まれるユーザーエージェントの内容を基に、適切なWebページを選択して返します。

この技術により、ユーザーは各自の閲覧環境に適したWebページを閲覧することが出来ます。例えば、PCからアクセスしている場合はPC向けのWebサイトが表示され、スマートフォンからアクセスしている場合はスマートフォン向けに作成されたWebサイトが表示されます。

Webブラウザの種別やバージョンのみでなく、PCのOS種別などもユーザーエージェントにより伝えることが可能です。ユーザーエージェントの内容は、Webブラウザの設定により変更可能です。

ユーザーエージェントは、表示するWebサイトの選択のみでなく、Webサーバーのアクセス解析にも用いられます。

robots.txtへのユーザーエージェントの記載方法

robots.txtは検索エンジンのクローラーに対し、Webページへのアクセスを制限するためのファイルです。アクセスを制限することで、クローラにアクセスして欲しいページにアクセスを絞ることが出来ます。robots.txtではユーザーエージェントを指定して条件付けします。ここでのユーザーエージェントは、検索エンジンのクローラー種別を指します。

例えば、Googleモバイル用クローラー「Googlebot-Mobile」を指定して、全て「/」のページにアクセスさせない設定は以下のように記述します。

<User-agent: Googlebot-Mobile Disallow: / >

全てのクローラーに対して、「/private」ディレクトリにアクセスさせない設定は以下のように記述します。

<User-agent: * Disallow: /private/ >

参考:robots.txtとは

まとめ

ユーザーエージェントは、ユーザーの閲覧環境に応じて最適なWebページを表示するための技術であり、アクセス解析などにも利用されています。robots.txtでは検索エンジンのクローラーを指定して、クロールを制御することも出来ます。

SEO対策の全体像を知りたい方は以下の記事も読んでみてください!検索エンジンの仕組み、リスティング広告との違い、技術要件、コンテンツ制作について1つ1つ解説しています。

集客・コンバージョン数を増やしたい方へ

ナイルのSEOコンサルティングは流入数の改善はもちろん、売上に貢献するコンバージョンも増やします。予算未定でも構いません。ぜひお気軽にご相談下さい!

サービス紹介をダウンロードする

ナイルに無料相談する

ナイル編集部
監修:ナイル編集部

この記事は、ナイル株式会社のマーケティング相談室編集部が監修しており、わかりやすく役に立つ記事を目指しています。編集長青木がライティング、編集、入稿の全工程をチェックしています。記事内に気になる点がございましたら、こちらよりご連絡くださいませ。

関連記事

多言語・多地域サイトを初めて制作するには?国際展開で押さえておくべきSEO要件

PWAとは

PWA〈Progressive Web Apps〉とは?PWAの機能と導入するメリットを解説

URLパラメータとは?パラメータ使用URLでの注意点

URLパラメータとは?パラメータ使用URLでの注意点

新着記事

SEOで上位表示を目指す方法!

SEOで上位表示を目指す方法!検索エンジンの仕組みも解説

デジタルマーケティングの 全体像と成功の秘訣

【基本】デジタルマーケティングの全体像を3つに分けて解説!成功の秘訣も紹介

ローカルSEOとは? 具体的な取り組みを紹介

ローカルSEOとは?重要な理由や具体的な取り組みを紹介