Neuer Termin für meinen HTML 5-Workshop

Für meinen Workshop „Website-Optimierung für mobile Geräte“ gibt es einen neuen Starttermin. Der nächste Workshop läuft vom 10. bis 30. September 2013.

Mehr Infos: http://www.helma-spona.de/wp/online-seminare-und-e-learning/workshop-html-5-website-optimierung-fur-mobile-gerate/

Zur Anmeldung: http://www.akademie.de/online-workshops/html-5

Neuerscheinung: Microsoft Expression Web 4, Das offizielle Trainingsbuch

Cover-BildGerade ist ein neues Buch zum Thema Webdesign mit Expression Web 4 erschienen:

Titel: Microsoft Expression Web 4, Das offizielle Trainingsbuch
Verlag: MicrosoftPress
Autor: Helma Spona
Erscheinungsjahr: 2011

Das Buch behandelt Webdesign mit Expression Web 4. Sie erfahren, wie Sie von der Pike auf ein Seitenlayout entwickeln und mit Expression Web umsetzen und später die Seite veröffentlichen. Es führt dazu Einsteigergerecht und Praxistauglich in alle wichtigen Funktionen von Expression Web ein.

Neuer Workshop-Termin: HTML 5 – Website-Optimierung für mobile Geräte

Nachdem der nächste Workshop im Februar bereits ausgebucht ist, gibt es jetzt für den nächsten Start den Termin. Der Workshop beginnt am 5. April mit 3 Wochen dauer, wobei durch das Osterwochende die 3 Wochen um 2 Tage verlängert werden.

Mehr Informationen

Zur Anmeldung

Neues Buch erschienen: Mobile Webseiten mit HTML 5

BuchcoverGerade ist ein neues Buch zum Thema Webdesign für mobile Geräte und Smartphones erschienen:

Titel: Mobile Webseiten mit HTML 5
Verlag: Data Becker
Autor: Helma Spona
Erscheinungsjahr: 2010

Details und Bestellmöglichkeit

Es geht in dem Buch vorrangig darum, mit welchen neuen Features von HTML 5 Webseiten heute für mobile Geräte wie Smartphones, Handys und Tablet-PC fit gemacht werden können. Dabei wird auch auf einige schon brauchbare JavaScript-APIs eingegangen und Sie erhalten Informationen darüber, welche HTML 5 Features heute schon problemlos einsetzbar sind und bei welchen es noch an Browser-Unterstützung mangelt.

Neuer Workshop „Webseiten erstellen für Einsteiger, beginnt im Januar 2011

Im Januar beginnt ein neuer Workshop zum Thema „Webseiten erstellen für Einsteiger“. Sie lernen hier die Grundlagen von HTML und CSS und der Webseite-Programmierung kennen.

Zum Workshop
nächster Termin: 31. Januar 2011
Dauer: 2 Wochen

Weitere Infos

Suchmaschinenoptimierung mittels „robots.txt“

Autor: Helma Spona

Betrifft: Webdesign

Systemanforderungen: eigene Domain

Download: PDF

Mit einer kleinen Textdatei, der „robots.txt“ können Sie die Indizierung Ihrer Website durch Suchmaschinen beeinflussen. Dazu erstellen Sie einfach eine solche Textdatei und speichern Sie im Stammverzeichnis Ihrer Domain. Mit den passenden Einstellungen können Sie bspw. Verzeichnisse für die Indizierung sperren oder mit Hilfe einer zusätzlichen Sitemap-Datei angeben, wie oft die Dateien geändert werden.

Verzeichnis und Format der „robots.txt“

Die Datei „robots.txt“ ist ein Quasi-Standard, an den sich die wichtigsten Suchmaschinen halten. Daher können Sie damit auch recht gut die Indizierung Ihrer Seite steuern.
Zunächst erstellen Sie dazu eine leere Textdatei, die reinen Text (ohne Formatierungen) enthält und nennen diese Datei „robots.txt“. Ganz wichtig ist dabei, dass der Name komplett in Kleinbuchstaben geschrieben ist.
Haben Sie die Datei fertig gestellt (einschließlich der Inhalte) laden Sie diese in das Hauptverzeichnis Ihrer Domain, also das Verzeichnis in dem sich die Datei befindet, die angezeigt wird, wenn Sie „http://www.meinedomain.de“ im Browser als URL angeben.
Für jede Subdomain können Sie jedoch eine eigene „robots.txt“ erstellen und wiederum in deren Stammverzeichnis ablegen.
Heißt Ihre Domain bspw. „meinedomain.de“ und gibt es die Subdomains „www“ und „shop“ können Sie eine „robots.txt“ für die URL „www.meinedomain.de“ in dem Verzeichnis speichern, auf das die Domain verweist und eine „robots.txt“ für die Subdomain „shop.meinedomain.de“ erstellen und in dem Verzeichnis speichern, auf das die Subdomain „shop“ verweist.

Hinweis

Wichtig ist, dass Sie sich auch an den gleich noch beschriebenen Aufbau  der Datei halten und davon nicht abweichen. Schon kleine Fehler führen dazu, dass die Datei nicht von der Suchmaschine gelesen wird.

Grundlegende  Einstellungen

In der „robots.txt“ werden die Anweisungen für die Suchmaschinen in Datensätzen erfasst. Ein Datensatz umfasst dabei zwei bis beliebig viele Zeilen und wird durch eine Leerzeile von anderen Datensätzen getrennt.
Jede Zeile hat wieder einen spezifischen Aufbau. Sie beginnt entweder mit dem Schlüsselwort „User-agent“ oder mit „Disallow“. Danach folgt immer ein Doppelpunkt und ein Leerzeichen. Nach dem Leerzeichen folgt der Wert.
Kommentare können Sie zwischen den Datensätzen einfügen und mit einem „#“ gefolgt von einem Leerzeichen einleiten. Auch am Ende jeder Zeile darf ein Kommentar stehen.
Der folgende Inhalt, würde bspw. mit einem Kommentar beginnen, der definiert zu welcher Domain die Datei gehört.
Danach folgt eine Leerzeile und dann der erste und einzige Datensatz der Datei. Er beginnt mit der Angabe „User-agent“. Sie gibt die Suchmaschine an, für die die Anweisungen gelten soll. Als Wert müssen Sie den Namen des Robots angeben. Kennen Sie den nicht, oder möchten Angaben für alle Suchmaschinen machen, verwenden Sie stattdessen das Platzhalterzeichen „*“.

Hinweis

Sie können mehrere User-Agent-Angaben in einem Datensatz machen, allerdings nur dann, wenn Sie deren Namen angeben. Vewenden Sie das „*“ ist nur  eine Angabe zulässig.

In der nächsten Zeile folgt das Schlüsselwort „Disallow“.  Als Wert geben Sie hier ein Verzeichnis oder eine Datei an, die nicht indiziert werden sollen.
Diese geben Sie als relative Pfade ausgehend vom Stammverzeichnis aus.

  • / als Wert würde bedeuten, dass nichts indiziert wird.
  • /pfad/ würde bedeuten, dass das Unterverzeichnis „pfad“ nicht indiziert wird.
  • /pfad/index.html würde bedeuten, dass nur die Datei „index.html“ im Verzeichnis „pfad“ nicht indiziert wird.

Im folgenden Beispiel wird also das Unterverzeichnis „privat“ und alle darin enthaltene Dateien vom Suchrobot ignoriert.
Sie können mehrere „Disallow“-Angaben in einem Datensatz machen und somit mehrere Dateien und Verzeichnisse in einem Datensatz schützen.

Hinweis

Wenn Sie das Indizieren aller Verzeichniss explizit erlauben möchten, geben Sie keinen Wert nach „Disallow“ an, sondern bspw.
Disallow:

Beispiel

# robots.txt zu http://www.helma-spona.de
User-agent: *
Disallow: /privat/

Erweiterte Einstellungen


Momentan ist die Verabschiedung eines Webstandards im Gange, die eine verbindliche Richtlinie zur Syntax der „robots.txt“ sein wird. Einige Suchmaschinen beherrschen diese erweiterten Angaben schon, so dass Sie sie auch in der Praxis schon einsetzen können. Dabei gibt es nicht nur das Schlüsselwort „Allow“, mit dem Sie explizit auch bestimmte Verzeichnisse zum Durchsuchen erlauben können, sondern noch viele weitere Einstellungen.
Möchten Sie die Indizierung bestimmter Verzeichnisse explizit erlauben, können Sie dazu die „Allow“-Anweisung verwenden. Sie funktioniert wie „Disallow“ nur geben Sie als Wert dahinter das Verzeichnis oder die Datei an, das durchsucht werden soll. Wenn Sie bspw. das Indizieren aller Verzeichnisse bis auf „www“ verbieten möchten, können Sie dazu folgendes angeben:

Beispiel

# robots.txt zu http://www.meinedomain.de
User-agent: *
Disallow: / # verbietet erst mal alles
Allow: /www/ # erlaubt die Indizierung

Hinweis

Hier ist allerdings Vorsicht geboten. Spider, die die erweiterten Einstellungen noch nicht berücksichtigen, würden Ihre Seite gar nicht indizieren. Die großen Suchmachinen wie Google, und Yahoo kennen den „Allow“-Befehl allerdings, Bing jedoch nicht.

Mit den erweiterten Einstellungen können Sie auch verhindern, dass Seiten mit URLs indiziert werden, die ein „?“ enthalten. In diesem Fall würden Sie
Disallow: /*?
angeben. Darüber hinaus erlaubt der zukünftige Standard die Angabe einer „Sitemap“-Datei. Damit können Sie jede einzelne Seite und jedes Verzeichnis definieren, die durchsucht werden sollen und damit können Sie dann auch angeben, wie oft sich die Seiten voraussichtlich ändern werden.  Das ist eine gute Möglichkeit um zu steuern, wie häufig der Spider der Suchmaschine Ihre Seiten neu indiziert. Die „sitemap.xlm“-Datei können Sie in beliebigen Verzeichnissen ablegen. Wo sie dann liegt, geben Sie in der „robots.txt“ mit der „Sitemap“-Angabe an. Wenn Sie im Stammverzeichnis liegt und „sitemap.xlm“ heißt, geben Sie bspw. an:
Sitemap: /sitemap.xml

Sitemap-Dateien

Es gibt zwei Möglichkeiten Sitemap-Dateien zu erstellen. Sie können reine Textdateien erzeugen und dort nur eine Liste der Dateien angeben, die indiziert werden sollen, bspw.:

Beispiel

http://www.meinedomain.de/index.html
http://www.meinedomain.de/kontakt.html
http://www.meinedomain.de/service.html

Alternativ können Sie eine XML-Datei erstellen. Darin können Sie auch zusätzliche Angaben zu den Dateien machen. Wichtig ist, dass Sie die XML-Datei im utf-8-Format speichern und diese einen fest definierten Aufbau haben muss. Lediglich die nachfolgend definierten fett gedruckten Teile tauschen Sie gegen Ihre eigenen Angaben aus und ergänzen für jede Seite und URL ein Element „<url>“.

Beispiel

<?xml version="1.0" encoding="utf-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9
http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
<url>
<loc>http://www.helma-spona.de/</loc>
<lastmod>2010-06-20</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.helma-spona.de/kontakt.htm</loc>
<lastmod>2010-06-20</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
...
</urlset>

Jede URL die Sie angeben, geben Sie als eigenen „<url>“-Tag an, der zwingend das Element „<loc>“ mit der URL enthalten muss. Bei Pfadangaben sollte diese mit einem „/“ enden. Optional können Sie mit den Elementen „<changefreq>“ die Häufigkeit von Änderungen und mit „<priority>“ einen Wert zwischen 0 und 1 angeben, der die Priorität im Vergleich zu anderen Seiten Ihrer Website angibt. Auch die Angabe „<lastmod>“ mit dem Datum der letzten Änderung ist optional. Allerdings müssen Sie in der Sitemap-Datei wirklich jede Seite aufführen, die indiziert werden soll. Das ist extrem aufwändig, vor allem bei umfangreichen Websites. Eine Sitemap-Datei lohnt daher nur, wenn Sie die Möglichkeit haben, diese per Skript serverseitig erstellen zu lassen.

Hinweis

Weitere Infos zur Sitemap-Datei finden Sie auch auf http://sitemaps.org/de/.

<HS>

Rechtliche Rahmenbedingungen

Alle Inhalte wurden nach bestem Wissen und Gewissen zusammengestellt. Ich übernehme für Fehlerfreiheit allerdings keine Gewähr und hafte keinesfalls für Folgen, die sich aus Fehlern oder unsachgemäßem Gebrauch des Codes und der Inhalte ergeben.
Code und Beispiele dürfen für den privaten Gebrauch frei verwendet werden. Eine Veröffentlichung (auch auszugsweise) sowohl online wie auch auf klassischen Medien ist nur nach meiner ausdrücklichen Zustimmung möglich. Verlinkung der Artikel ist jedoch erlaubt und erwünscht, solange immer auf die Webseite und nicht die PDF-Datei verlinkt wird.