humans.txt – Wir sind keine Roboter

20130604_humanstxt
Ich bin vor ca. einem Jahr auf das Projekt humans.txt gestoßen, welches das Internet ein kleines bisschen besser™ machen möchte.
Auf den meisten Internetseiten kommt heutzutage eine Robots.txt zur Verwendung, welche meistens im Root-Verzeichnis der Website liegt. Diese Datei ist eine (freiwillig interpretierbare) Anweisung an Suchmaschinen und andere Crawler, welche Dateien und Seiten eines Internetauftritts eingelesen werden dürfen/sollen.

Das Projekt humans.txt hat sich gedacht, dass das Internet doch eigentlich für Menschen sein soll. Daher soll neben der robots.txt eine weitere Datei erstellt werden, welche die Menschen, die bei der Entstehung einer Internetseite mitgeholfen haben, erwähnen und aufzeigen soll. Die humans.txt (Hier einmal meine Datei)

Von Vorteil an diesem Projekt ist, dass diese Datei den Besucher der Website nicht stört, da sie nicht direkt sichtbar ist. Es gibt jedoch verschiedene Plugins für z.B. den Firefox oder den Google Chrome, welche es euch einfach möglichen machen, über die humans.txt einer Website zu stolpern.

Übrigens haben selbst so große Webseiten wie Google und Unterprojekte von Pixar eine humans.txt, was mich doch ein wenig überrascht hatte.
Ich finde die Idee hinter humans.txt wunderbar und werde sie auch bei all‘ meinen Projekten verwenden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert