Humans.txt とは

アクセスログを眺めていたら,一覧の中に /humans.txt というファイルのリクエストがありました。そのようなファイルはないので,404 が返されています。

これは少し奇妙なアクセスです。404 アクセスの大半は bot による悪意ある探査で,たいていは既知の脆弱性がある php ファイルや保護されていないバックアップファイルを探します。ところがこれは humans.txt なるテキストファイルを探しているだけで,場所もルート直下です。何らかのクローラでしょう。そして何より興味をひいたのはファイル名で,humans.txt というのは明らかに robots.txt を意識した洒落です。

残念ながらサーバログは参照できないのでクローラの自己申告は確認できませんが,検索してみるとそれらしきものはすぐに見つかりました。Humans TXT というプロジェクトです。

日本語版のページもあります。

想像の通り robots.txt へのアンチテーゼとして始まったプロジェクトであり,robots.txt にはロボットに対する指示を書くのに対し,humans.txt にはそのウェブサイトに関わっている人の情報を書きます(人間の訪問者に対し「こういうふうにして読め!」と指示をするわけではありません)。

実のところ,この機能は meta タグの author をはじめとした属性と重複しています。おそらくほとんどの商用サービスで humans.txt は考慮されないであろうことを考えると,本当に著者の情報を伝えたい場合は meta タグの対応を済ませるのが先でしょう。

しかしながら,ジョークとしてのおもしろさは humans.txt が圧倒していますし,humans.txt への対応はたったひとつのテキストファイルを追加するだけです。

humans.txt のチュートリアルは以下です。

実例として,humanstxt.org/humans.txt は以下のようになっています。

コメントを残す

投稿にあたり,完全な IP アドレスが保存されます(公開されません)。

コメントはスパムフィルタで処理され,承認後に公開されます。