翻訳と辞書 |
ロボット排除の取り決め : ウィキペディア日本語版 | Robots Exclusion Standard Robots Exclusion Standard(RES) または Robots Exclusion Protocol は、クローラやボットがウェブサイト全体またはその一部を走査することを防ぐ規約である。ロボット排除規約、robots.txt プロトコルとも呼ばれる。こういったボットは検索エンジンがウェブサイトの内容を分類しアーカイブするために主に使ったり、ウェブマスターがソースコードを校正するために使ったりする。直接の関係はないが、逆にボットを案内する目的のSitemapsと組み合わせて使うこともできる。 == 歴史 == "robots.txt" は、1994年ごろWebCrawlerという検索エンジンで働いていた Martijn Koster が考案したとされている。1994年6月に robots-request@nexor.co.uk というメーリングリストのメンバーが合意して生まれた〔A Standard for Robot Exclusion 〕。"robots.txt" はその翌年AltaVistaなどの検索エンジンが登場すると共に一般化していった。 2007年11月30日、ACAP (Automated Content Access Protocol) v1.0 が Robots Exclusion Standard を補完するものとして登場した〔Information ACAP〕。ただしGoogleなど主要検索エンジンは、その採用を表明していない。
抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「Robots Exclusion Standard」の詳細全文を読む
英語版ウィキペディアに対照対訳語「 Robots exclusion standard 」があります。
スポンサード リンク
翻訳と辞書 : 翻訳のためのインターネットリソース |
Copyright(C) kotoba.ne.jp 1997-2016. All Rights Reserved.
|
|