Hacking mit Google: Unterschied zwischen den Versionen

aus dem Wiki des Entropia e.V., CCC Karlsruhe
(Automagically converted by twiki2mediawiki)
 
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
 
== Google Syntax ==
 
== Hacking mit Google ==
=== Google Syntax ===


Wie kann Google beim hacken helfen? Dazu muß man die erweiterten Suchbefehle von Google mal etwas genauer ansehen.  
Wie kann Google beim hacken helfen? Dazu muß man die erweiterten Suchbefehle von Google mal etwas genauer ansehen.  
Zeile 15: Zeile 12:
* intitle:foo - Findet alle Seiten in deren Titel "foo" vorkommt.
* intitle:foo - Findet alle Seiten in deren Titel "foo" vorkommt.
* inurl:foo - Findet alle Seiten in deren URL "foo" vorkommt, das ist z.B dann interessant wenn man alle Webseiten finden möchte die ein bestimmtes Script einsetzen.
* inurl:foo - Findet alle Seiten in deren URL "foo" vorkommt, das ist z.B dann interessant wenn man alle Webseiten finden möchte die ein bestimmtes Script einsetzen.
=== Was kann man jetzt damit machen? ===
 
==== Unfertig installierte Webserver finden ====
== Was kann man jetzt damit machen? ==
 
=== Unfertig installierte Webserver finden ===
 
| Server Version   | Query |
| Server Version   | Query |
|Apache 1.3.0-1.3.9   |Intitle:Test.Page.for.Apache It.worked! this.web.site! |
|Apache 1.3.0-1.3.9   |Intitle:Test.Page.for.Apache It.worked! this.web.site! |
Zeile 31: Zeile 31:
|Many Netscape servers  |allintitle:Netscape Enterprise Server Home Page |
|Many Netscape servers  |allintitle:Netscape Enterprise Server Home Page |
|Unknown Netscape server|allintitle:Netscape [[Main_FastTrack|FastTrack]] Server Home Page |
|Unknown Netscape server|allintitle:Netscape [[Main_FastTrack|FastTrack]] Server Home Page |
==== Directory Listings finden ====
 
=== Directory Listings finden ===
Ich interessiere mich für ein paar Dateien die da so auf einem Server rumliegen, und würde gerne wissen obs da noch mehr von gibt.
Ich interessiere mich für ein paar Dateien die da so auf einem Server rumliegen, und würde gerne wissen obs da noch mehr von gibt.
Dann probiere ich es einfach mit *intitle:index.of*, wenn das zuviele falsche Treffer ergibt kann man es auch noch mit *intitle:index.of "parent directory"* oder *intitle:index.of name size* probieren.
Dann probiere ich es einfach mit *intitle:index.of*, wenn das zuviele falsche Treffer ergibt kann man es auch noch mit *intitle:index.of "parent directory"* oder *intitle:index.of name size* probieren.
==== Defekte CGI-Scripte finden ====
 
=== Defekte CGI-Scripte finden ===
 
Es gibt einige CGI-Scripte die bekannte Fehler haben, z.B:
Es gibt einige CGI-Scripte die bekannte Fehler haben, z.B:


/cgi-bin/cgiemail/uargg.txt
* /cgi-bin/cgiemail/uargg.txt
/random_banner/index.cgi
* /random_banner/index.cgi
/random_banner/index.cgi
* /random_banner/index.cgi
/cgi-bin/mailview.cgi
* /cgi-bin/mailview.cgi
/cgi-bin/maillist.cgi
* /cgi-bin/maillist.cgi
/cgi-bin/userreg.cgi
* /cgi-bin/userreg.cgi
/iissamples/ISSamples/SQLQHit.asp
* /iissamples/ISSamples/SQLQHit.asp
/iissamples/ISSamples/SQLQHit.asp
* /iissamples/ISSamples/SQLQHit.asp
/[[Main_SiteServer|SiteServer]]/admin/findvserver.asp
* /[[Main_SiteServer|SiteServer]]/admin/findvserver.asp
/scripts/cphost.dll
* /scripts/cphost.dll
/cgi-bin/finger.cgi
* /cgi-bin/finger.cgi


Man kann jetzt zum Beispiel nach *allinurl:random_banner/index.cgi* suchen und findet Webserver die dieses Script verwenden.
Man kann jetzt zum Beispiel nach *allinurl:random_banner/index.cgi* suchen und findet Webserver die dieses Script verwenden.


=== Automatisierte Google Scans ===
== Automatisierte Google Scans ==
 
Google verbietet die Benutzung seiner Suchmaschine mit Scripten, nichtsdesttrotz gibt es aber natürlich Programme die genau dies tun.
Google verbietet die Benutzung seiner Suchmaschine mit Scripten, nichtsdesttrotz gibt es aber natürlich Programme die genau dies tun.


==== Gooscan ====
=== Gooscan ===
Gooscan ist ein Tool was automatisiert verschiedene Sicherheitslöcher sucht und richtet sich Webserverbetreiber und Admins.
Gooscan ist ein Tool was automatisiert verschiedene Sicherheitslöcher sucht und richtet sich Webserverbetreiber und Admins.
http://johnny.ihackstuff.com
http://johnny.ihackstuff.com


==== Googledorks ====
=== Googledorks ===
Googledorks ist eine Webseite auf der viele der oben aufgeführten Suchterme aufgeführt und diskutiert werden. Dort gibt es z.B Abfrage die eine Liste von Webservern mit bestimmten Schwachstellen oder verschiedene Abfragen die nichtöffenliche Informationen zutage bringen.
Googledorks ist eine Webseite auf der viele der oben aufgeführten Suchterme aufgeführt und diskutiert werden. Dort gibt es z.B Abfrage die eine Liste von Webservern mit bestimmten Schwachstellen oder verschiedene Abfragen die nichtöffenliche Informationen zutage bringen.


==== [[Main_GooPot|GooPot]] ====
=== GooPot ====
[[Main_GooPot|GooPot]] ist das equivalent eines [[[[Main_HoneyPot|HoneyPot]]]]s für den [[Main_GoogleHacker|GoogleHacker]]. Es besteht aus einer Sammlung von Scripten die wenn man die oben erwähnten Methoden anwendet zu Treffern führen. Greift nun ein User auf diese Seiten zu werden die Zugriffe inkl. dem Referer gelogt, so das man die versuchten Angriffe später nachvolziehen kann.
GooPot ist das equivalent eines [[HoneyPot]]s für den GoogleHacker. Es besteht aus einer Sammlung von Scripten die wenn man die oben erwähnten Methoden anwendet zu Treffern führen. Greift nun ein User auf diese Seiten zu werden die Zugriffe inkl. dem Referer gelogt, so das man die versuchten Angriffe später nachvolziehen kann.
[[Main_GooPot|GooPot]] ist leider noch nicht öffentlich zu beziehen.
GooPot ist leider noch nicht öffentlich zu beziehen.


=== Schutz vor [[[[Main_GoogleHacker|GoogleHacker]]]]n ===
== Schutz vor GoogleHackern ==


* Keine geheimen Daten ins Web stellen!
* Keine geheimen Daten ins Web stellen!
Zeile 72: Zeile 76:




=== URLs ===
== URLs ==


* http://johnny.ihackstuff.com/
* http://johnny.ihackstuff.com/
* http://www.informit.com/articles/article.asp?p=170880
* http://www.informit.com/articles/article.asp?p=170880

Version vom 9. Januar 2005, 20:48 Uhr

Google Syntax

Wie kann Google beim hacken helfen? Dazu muß man die erweiterten Suchbefehle von Google mal etwas genauer ansehen.

  • Mit einen - direkt vor einen Suchwort (ohne Space dazwischen) verhindert das dieses Wort im Ergebniss vorkommt.
  • Ein . entspricht einem beliebigen Buchstaben (z.B M..er findet Maier, Meier, Mayer, Meyer, aber natürlich auch noch ein paar weitere Treffer).
  • Ein * steht für ein beliebiges Wort.

Dann gibt es noch Operatoren der art: *operator:ausdruck*

  • site:www.entropia.de - Zeigt alle Seiten von www.entropia.de an die Google kennt.
  • filtype:vbs - Findet nur Visual Basic Scripte.
  • link:cgi-bin - Findet Links die den Term "cgi-bin" enthalten.
  • cache:www.entropia.de - Zeigt die Seite wie sie sich beo Google befindet, interessant wenn Webseiten geändert worden sind.
  • intitle:foo - Findet alle Seiten in deren Titel "foo" vorkommt.
  • inurl:foo - Findet alle Seiten in deren URL "foo" vorkommt, das ist z.B dann interessant wenn man alle Webseiten finden möchte die ein bestimmtes Script einsetzen.

Was kann man jetzt damit machen?

Unfertig installierte Webserver finden

| Server Version | Query | |Apache 1.3.0-1.3.9 |Intitle:Test.Page.for.Apache It.worked! this.web.site! | |Apache 1.3.11-1.3.26 |Intitle:Test.Page.for.Apache seeing.this.instead | |Apache 2.0 |Intitle:Simple.page.for.Apache Apache.Hook.Functions | |Apache SSL/TLS |Intitle:test.page "Hey, it worked !" "SSL/TLS-aware" | |Many IIS servers |intitle:welcome.to intitle:internet IIS | |Unknown IIS server |intitle:"Under construction" "does not currently have" | |IIS 4.0 |intitle:welcome.to.IIS.4.0 | |IIS 4.0 |allintitle:Welcome to Windows NT 4.0 Option Pack | |IIS 4.0 |allintitle:Welcome to Internet Information Server | |IIS 5.0 |allintitle:Welcome to Windows 2000 Internet Services | |IIS 6.0 |allintitle:Welcome to Windows XP Server Internet Services | |Many Netscape servers |allintitle:Netscape Enterprise Server Home Page | |Unknown Netscape server|allintitle:Netscape FastTrack Server Home Page |

Directory Listings finden

Ich interessiere mich für ein paar Dateien die da so auf einem Server rumliegen, und würde gerne wissen obs da noch mehr von gibt. Dann probiere ich es einfach mit *intitle:index.of*, wenn das zuviele falsche Treffer ergibt kann man es auch noch mit *intitle:index.of "parent directory"* oder *intitle:index.of name size* probieren.

Defekte CGI-Scripte finden

Es gibt einige CGI-Scripte die bekannte Fehler haben, z.B:

  • /cgi-bin/cgiemail/uargg.txt
  • /random_banner/index.cgi
  • /random_banner/index.cgi
  • /cgi-bin/mailview.cgi
  • /cgi-bin/maillist.cgi
  • /cgi-bin/userreg.cgi
  • /iissamples/ISSamples/SQLQHit.asp
  • /iissamples/ISSamples/SQLQHit.asp
  • /SiteServer/admin/findvserver.asp
  • /scripts/cphost.dll
  • /cgi-bin/finger.cgi

Man kann jetzt zum Beispiel nach *allinurl:random_banner/index.cgi* suchen und findet Webserver die dieses Script verwenden.

Automatisierte Google Scans

Google verbietet die Benutzung seiner Suchmaschine mit Scripten, nichtsdesttrotz gibt es aber natürlich Programme die genau dies tun.

Gooscan

Gooscan ist ein Tool was automatisiert verschiedene Sicherheitslöcher sucht und richtet sich Webserverbetreiber und Admins. http://johnny.ihackstuff.com

Googledorks

Googledorks ist eine Webseite auf der viele der oben aufgeführten Suchterme aufgeführt und diskutiert werden. Dort gibt es z.B Abfrage die eine Liste von Webservern mit bestimmten Schwachstellen oder verschiedene Abfragen die nichtöffenliche Informationen zutage bringen.

GooPot =

GooPot ist das equivalent eines HoneyPots für den GoogleHacker. Es besteht aus einer Sammlung von Scripten die wenn man die oben erwähnten Methoden anwendet zu Treffern führen. Greift nun ein User auf diese Seiten zu werden die Zugriffe inkl. dem Referer gelogt, so das man die versuchten Angriffe später nachvolziehen kann. GooPot ist leider noch nicht öffentlich zu beziehen.

Schutz vor GoogleHackern

  • Keine geheimen Daten ins Web stellen!
  • Verwenden der oben aufgeführten Techniken um seine eigene Webseite auf Schwachstellen zu untersuchen.
  • Verwenden eines robots.txt Files welches Google verbietet in bestimmte Verzeichnisse zu gehen.


URLs