Hacking mit Google

aus dem Wiki des Entropia e.V., CCC Karlsruhe

Google-Syntax

Wie kann Google beim hacken helfen? Dazu muß man die erweiterten Suchbefehle von Google mal etwas genauer ansehen.

  • Mit einen - direkt vor einen Suchwort (ohne Space dazwischen) verhindert das dieses Wort im Ergebniss vorkommt.
  • Ein . entspricht einem beliebigen Buchstaben (z.B M..er findet Maier, Meier, Mayer, Meyer, aber natürlich auch noch ein paar weitere Treffer).
  • Ein * steht für ein beliebiges Wort.

Dann gibt es noch Operatoren der art: *operator:ausdruck*

  • site:www.entropia.de - Zeigt alle Seiten von www.entropia.de an die Google kennt.
  • filtype:vbs - Findet nur Visual Basic Scripte.
  • link:cgi-bin - Findet Links die den Term "cgi-bin" enthalten.
  • cache:www.entropia.de - Zeigt die Seite wie sie sich bei Google befindet, interessant wenn Webseiten geändert worden sind.
  • intitle:foo - Findet alle Seiten in deren Titel "foo" vorkommt.
  • inurl:foo - Findet alle Seiten in deren URL "zoo" vorkommt, das ist z.B dann interessant wenn man alle Webseiten finden möchte die ein bestimmtes Script einsetzen.

Was kann man jetzt damit machen?

Unfertig installierte Webserver finden

Server Version Query
Apache 1.3.0-1.3.9 Intitle:Test.Page.for.Apache It.worked! this.web.site!
Apache 1.3.11-1.3.26 Intitle:Test.Page.for.Apache seeing.this.instead
Apache 2.0 Intitle:Simple.page.for.Apache Apache.Hook.Functions
Apache SSL/TLS Intitle:test.page "Hey, it worked !" "SSL/TLS-aware"
Many IIS servers intitle:welcome.to intitle:internet IIS
Unknown IIS server intitle:"Under construction" "does not currently have"
IIS 4.0 intitle:welcome.to.IIS.4.0
IIS 4.0 allintitle:Welcome to Windows NT 4.0 Option Pack
IIS 4.0 allintitle:Welcome to Internet Information Server
IIS 5.0 allintitle:Welcome to Windows 2000 Internet Services
IIS 6.0 allintitle:Welcome to Windows XP Server Internet Services
Many Netscape servers allintitle:Netscape Enterprise Server Home Page
Unknown Netscape server allintitle:Netscape FastTrack Server Home Page

Directory Listings finden

Ich interessiere mich für ein paar Dateien die da so auf einem Server rumliegen, und würde gerne wissen ob es da noch mehr von gibt. Dann probiere ich es einfach mit *intitle:index.of*, wenn das zuviele falsche Treffer ergibt kann man es auch noch mit *intitle:index.of "parent directory"* oder *intitle:index.of name size* probieren.

Defekte CGI-Scripte finden

Es gibt einige CGI-Scripte die bekannte Fehler haben, z.B:

  • /cgi-bin/cgiemail/uargg.txt
  • /random_banner/index.cgi
  • /random_banner/index.cgi
  • /cgi-bin/mailview.cgi
  • /cgi-bin/maillist.cgi
  • /cgi-bin/userreg.cgi
  • /iissamples/ISSamples/SQLQHit.asp
  • /iissamples/ISSamples/SQLQHit.asp
  • /SiteServer/admin/findvserver.asp
  • /scripts/cphost.dll
  • /cgi-bin/finger.cgi

Man kann jetzt zum Beispiel nach *allinurl:random_banner/index.cgi* suchen und findet Webserver die dieses Script verwenden.

Automatisierte Google-Scans

Google verbietet die Benutzung seiner Suchmaschine mit Scripten, nichtsdesttrotz gibt es aber natürlich Programme die genau dies tun.

Gooscan

Gooscan ist ein Tool was automatisiert verschiedene Sicherheitslöcher sucht und richtet sich Webserverbetreiber und Admins. http://johnny.ihackstuff.com

Googledorks

Googledorks ist eine Webseite auf der viele der oben aufgeführten Suchterme aufgeführt und diskutiert werden. Dort gibt es z.B Abfrage die eine Liste von Webservern mit bestimmten Schwachstellen oder verschiedene Abfragen die nichtöffenliche Informationen zutage bringen.

GooPot

GooPot ist das equivalent eines HoneyPots für den GoogleHacker. Es besteht aus einer Sammlung von Scripten die wenn man die oben erwähnten Methoden anwendet zu Treffern führen. Greift nun ein User auf diese Seiten zu werden die Zugriffe inkl. dem Referer gelogt, so das man die versuchten Angriffe später nachvolziehen kann. GooPot ist leider noch nicht öffentlich zu beziehen.

Schutz vor GoogleHackern

  • Keine geheimen Daten ins Web stellen!
  • Verwenden der oben aufgeführten Techniken um seine eigene Webseite auf Schwachstellen zu untersuchen.
  • Verwenden eines robots.txt Files welches Google verbietet in bestimmte Verzeichnisse zu gehen.


URLs