Djangoでrobots.txtを設定する 問題解決技術

Djangoでrobots.txtを設定する 問題解決技術

Djangoでrobots.txtを設定する 問題解決技術

Djangoでrobots.txtを設定する 問題解決技術

技術Djangoでrobots.txtを設定する
問題Djangoでrobots.txtを設定して、グーグルクローラーにクロールしないように指示を出したい。グーグルクローラーがサイトページをすべてクロールしてしまっていた。不必要なページが、グーグルのアドポリシー違反となり、警告が繰り返された。

URLディレクトリの設定

from django.conf.urls.static import static
from django.urls import include, path
from django.views.generic import TemplateView

path('robots.txt', TemplateView.as_view(template_name='static/robots.txt', content_type='text/plain')),
TemplateViewを利用して、robots.txtへのパスを設定します

template/static/ディレクトリの設定
template/static/ディレクトリにrobots.txtを作成します。

robots.txtの記入例
User-agent: *
Disallow: /abcfile
Disallow: /abcfileと記入すると、abcfileにグーグルがクロールしないように指示を出せます。

探究資料

スポンサーさん

robots.txtとは 読み方 意味解説

解説robots.txtファイルとは、検索エンジンのクローラーへ、サイトのどのURLにクローラーがアクセスできるかを知らせるものです。
グーグルを始めとする検索エンジンは、データベース作成のために、ウェブサイトに定期的にアクセスして、データを収集しています。このデータ収集のためのアクセスが、あたかも動物の見回りのように感じたので、コンピューター分野ではクロール (Crawl)と呼ぶようになりました。クロールするプログラムをクローラー (Crawler)と読んでいます。
自分のサイトへ、クローラ―が来たときに、どのようにクロールするかを指示するのがrobots.txtファイルの役割です。
robots.txtファイルの目的は、サイトへのリクエストの過負荷を避けるためです。
robots.txtファイルによって、グーグル検索を完全に排除することではできません。もし全ウェブページを完全に排除したい場合には(つまり、他人に表示したくない場合には)noindexを指定して、グーグルのインデックスをブロックします。
日本語robots.txt (ロボッツドットテキスト)
英語robots.txt
多言語対応
韓国語한글 로봇배제표준 (ロボッぺジェピョジュン) 발음 로봇배제표준 (ロボッべジェピョジュン) RR2000 robotbaejepyojun MR1937 ropotpaechep’yochun
中国語繁体 robots協議 簡体 robots协议 拼音 xiéyì xie2yi4 假名 ろぼっとしえいぃ

Djangoでrobots.txtを設定する 探究資料

科目別 By Curriculum
大学受験  情報科学(Computer science)

単元別 By Subject
情報科学  プログラミング(Programming)

情報科学  ウェブ(Web)

情報科学  ウィンドウズ(Windows)

情報科学  ギットハブ(Github)

情報科学  ジャンゴ(Django)

対象児童生徒 By Age
中学数学(二次関数まで!)を履修し終えている生徒
コンピューターの基礎知識を学びたい生徒
自分でプログラム(program)を書きたい生徒
情報科学(Computer Science)を学びたい生徒
大学受験生(国公立高校生+私立中高一貫校生)
大学生+社会人(基礎からやり直したい生徒)


プロ家庭教師コンピューター教材で、重要語句の日本語訳・韓中英訳・別名・解説をまとめています。オンライン学習用で、生徒・保護者・教員・家庭教師のために、無料ダウンロードを提供します。

スポンサーさん