Robots oder Spider sind Programme von Suchmaschinen, die das Web durchsuchen. Sie folgen allen Links, und indexieren meist alle Seiten auf dem Server. Dies ist nicht immer der Wunsch des Webmasters, da z.B. nicht öffentliche Dateien vom Spider indexiert werden. Mit der Datei robots.txt kann man dies verhindern… Continue reading
Categories
Wie Viele Links zeigen auf ihre Website, das bedeutet mehr oder weniger der Begriff "Link Popularity". Viele Suchmaschinen beurteilen die Qualität einer Seite, mit der Anzahl der Links, die zu dieser Seite führen. Hier finden Sie einige Tips, wie Sie ihre Link Popularity steigern und überprüfen können.
Yahoo! ist das wohl bekannteste Webverzeichnis der Welt. Selbst einen Eintrag in diesem Webverzeichnis zu bekommen scheint oftmals schwierig, doch wenn man sich an die Regeln hält…
Die Techniken, mit welchen Suchmaschinen arbeiten sind sehr vielfältig. Zum einen werden grundsätzlich Strukturen der Seite untersucht, zum anderen wird der komplette Inhalt auf Relevanz untersucht. Doch wie bewerten Suchmaschinen diese Relevanz?
Mit einem Newsletter kann man die Besucher dazu veranlassen, die Seite öfters mal wieder zu besuchen, sie also zu binden,
Eine weitere Möglichkeit, Besucher zu binde, sie wieder auf die eigene Seite zu locken ist das Einbauen eines Forums, welches dem Besucher die Möglichkeit gibt, selbst zur Seite beizutragen.
Ein passwortgeschützes Verzeichnis ist dank dem Apache Server und seinen Möglichkeiten mit einer Datei .htaccess schnell gemacht. Wie Sie das anstellen erfahren Sie im Teil 2 Server Tuning.
Wie oft trifft man auf die Seite "404 – File Not Found". Wie man mit dem Apache Server diese Fehlermeldungen abfängt, und auf eigene Fehlerseiten umleitet erfahren Sie im Teil 1 – Server Tuning.
Haben Sie ein Verzeichnis umbenannt, und bekommen nun lauter Error404s
Die Website auch Zuhause anschauen, wie Sie im Web aussieht, oder eigene Skripte Offline testen? Dann sollte man zumindest den Apache Webserver mit PHP und MySQL installiert haben. Wie man das unter Windows macht erfahren Sie hier.
Schnellere Ladezeiten durch das Caching von Webseiten über den Apache Webserver dank der Datei .htaccess!
Das ER Modell beschreibt die Beziehungen zwischen einzelnen Datensätzen und ist die wohl die wichtigste Grundlage für die professionelle Arbeit mit Datenbanksystemen und dem Datenmanagement. Dieser Artikel soll einen Einblick in die komplexen Beziehungen von Daten geben, und die einzelnen möglichen Relationen anhand von Beispielen zeigen.
Viele Leute schrecken vor den praktischen Perl5-Modulen zurück, weil diese mit Objekten zu tun haben. Und das ist ja schon mal verdächtig und tönt nach etwelchen Schwierigkeiten ohne entsprechend nützlich zu sein.