Hallo vielleicht hat jemand einen Tip für mich?
Ich habe so gar keine Ahnung wie man das angehen kann.
Ein Linuxserver soll folgendes tun:
Eine Webseite aufrufen und den bzw. die Quelltexte der SEite(n)
nach SChlüsselworten durchsuchen (z.B. Geschäftsklimaindex) und die folgenden x zeichen in eine Datei schreiben.
Also das Scannen des Quelltextes mittels GNU-tools etc kriege ich hin.
*ehh* :oops: Aber wie bekommt man den Quelltext auf den eigenen Server?
Oder geht das irgendwie eleganter?
Ich kann ein bisschen c/c++,
bin Linuxeinsteiger,
und hab von Servern 0 Ahnung.
Bin für jeden Hinweis dankbar! (Buchtip!?)
Gruß Spacepilot
Webseiten scannen
Re: Webseiten scannen
man wget
man grep
man sed
man awk
man grep
man sed
man awk
PayPal.Me/JoeUser ● FreeBSD Remote Installation
Wings for Life ● Wings for Life World Run
„If there’s more than one possible outcome of a job or task, and one
of those outcomes will result in disaster or an undesirable consequence,
then somebody will do it that way.“ -- Edward Aloysius Murphy Jr.
Wings for Life ● Wings for Life World Run
„If there’s more than one possible outcome of a job or task, and one
of those outcomes will result in disaster or an undesirable consequence,
then somebody will do it that way.“ -- Edward Aloysius Murphy Jr.
