Humans.txt とは
アクセスログを眺めていたら,一覧の中に /humans.txt
というファイルのリクエストがありました。そのようなファイルはないので,404 が返されています。
これは少し奇妙なアクセスです。404 アクセスの大半は bot による悪意ある探査で,たいていは既知の脆弱性がある php ファイルや保護されていないバックアップファイルを探します。ところがこれは humans.txt
なるテキストファイルを探しているだけで,場所もルート直下です。何らかのクローラでしょう。そして何より興味をひいたのはファイル名で,humans.txt というのは明らかに robots.txt を意識した洒落です。
残念ながらサーバログは参照できないのでクローラの自己申告は確認できませんが,検索してみるとそれらしきものはすぐに見つかりました。Humans TXT というプロジェクトです。
日本語版のページもあります。
想像の通り robots.txt へのアンチテーゼとして始まったプロジェクトであり,robots.txt にはロボットに対する指示を書くのに対し,humans.txt にはそのウェブサイトに関わっている人の情報を書きます(人間の訪問者に対し「こういうふうにして読め!」と指示をするわけではありません)。
実のところ,この機能は meta タグの author をはじめとした属性と重複しています。おそらくほとんどの商用サービスで humans.txt は考慮されないであろうことを考えると,本当に著者の情報を伝えたい場合は meta タグの対応を済ませるのが先でしょう。
しかしながら,ジョークとしてのおもしろさは humans.txt が圧倒していますし,humans.txt への対応はたったひとつのテキストファイルを追加するだけです。
humans.txt のチュートリアルは以下です。
実例として,humanstxt.org/humans.txt
は以下のようになっています。
投稿にあたり,完全な IP アドレスが保存されます(公開されません)。
コメントはスパムフィルタで処理され,承認後に公開されます。