Jun 03 2007

phpBB – schlecht fürs Ranking

Veröffentlicht by . Filed under: Foren-Welt

Der Seoblogger hat einen interessanten Beitrag darüber geschrieben, warum phpBB – zumindest aus Sicht der Suchmaschinen – keine optimale Forensoftware darstellt: phpBB ist schlecht fürs Ranking.

So gut die Forensoftware sein mag (inzwischen sind die meisten Bugs hoffentlich behoben, man hört auf jeden Fall nicht mehr soviel), im Bezug auf Suchmaschinen muss ich dem Beitrag zustimmen.

statische URLs

Größtes Problem sind dabei natürlich erstmal: dynamische URLs. Google ist zwar in der Lage, dynamische URLs zu parsen, die Anzahl der Parameter hängt aber nicht unwesentlich vom vorhandenen PageRank ab. Auch habe ich im Strohhalm festgestellt, dass zwar alle Seiten indiziert werden, statische URLs aber wesentlich besser gerankt werden. Hier muss phpBB also erstmal erweitert werden. Hier bietet vBulletin mit dem Plugin vbSEO einen wirklichen Mehrwert. Aber auch diese kostenpflichtige Forensoftware kommt von Haus aus nicht suchmaschinenfreundlich daher. Ein wirkliches Manko!

Konzentration aufs Wesentliche!

Ein wirkliches Problem der meisten Forensoftware – darunter eben auch phpBB – stellt aber die Darstellung von Diskussionen dar. Schaut man sich den Quellcode einer beliebigen Diskussionsseite an, so sieht man, dass die meisten Systeme sehr viel Text mitliefern, der eigentlich nicht zur Diskussion gehört und auf allen Seiten vorhanden ist. Damit wird der Wert einer einzelnen Seite stark verwässert. Suchmaschinen können mit entsprechender Anpassung zwar erkennen, was Diskussion ist und was das übliche “BlaBla” drum herum ist. Aber warum sollte Google für eine Seite genau herausfinden, was Diskussion und damit wichtiger Inhalt ist, was Struktur-Elemente sind und was Avatare und Signaturen? Dazu sind die meisten Communities einfach nicht wichtig genug. Es gilt hier eben auch der Grundsatz: weniger ist mehr! Das machen Blogs recht gut vor, da sie meist mit sehr wenig “BlaBla” daherkommen und der Content den wirklichen Mehrwert darstellt. Die gute Positionierung von Blogs kommt also nicht von ungefähr. Auch sieht man in manch Forensoftware, dass die Konzentration aufs Wesentliche sehr hilfreich sein kann (z.B. im Strohhalm und als Paradebeispiel das SelfHtml-Forum, welches wirklich immer extrem gut platziert ist).

Eine Seite – eine URL

Und schließlich der letzte Punkt, den viele falsch machen: Eine Seite sollte stets immer unter derselben URL zu finden sein. Hier schwächeln sehr viele Forensysteme. Wenn man sich also die Mühe gemacht hat, das Forum auf statische URLs zu trimmen, dann sollte man auch sehr großen Wert darauf legen, dass eine Seite immer unter derselben URL zu finden ist. Der Grund ist offensichtlich: wenn identischer Inhalt unter unterschiedlichen URLs zu finden ist: warum sollte dann die eine URL wichtiger sein als die andere? Vielmehr dürfte doch gelten: der Inhalt kommt mehrfach vor, dürfte also insgesamt weniger wichtig sein. Man weicht also den Wert einer Seite auf, indem man ihn unter mehreren URLs vorkommen lassen will.

Neure Forensoftware wie z.B. Vanilla berücksichtigen schon stärker, wie Suchmaschinen denken. Man sollte sich also Gedanken darüber machen, ob die Darstellung von Foren, wie sie weitläufig benutzt sind, wirklich sinnvoll ist. Man muss berücksichtigen, dass Foren von Suchmaschinen in nicht unwesentlicher Weise leben, denn schließlich kommen die meisten neuen Benutzer über die Suchmaschinen.

11 responses so far

1 Star2 Stars3 Stars4 Stars5 Stars
Loading...Loading...
^

11 responses so far

  1. Marcoon 03 Jun 2007 at 4:37 pm

    In der Tat ist phpBB in der Standardversion gar nicht suchmaschinentauglich. Auch die vielen Modifikationen können nicht alle Probleme lösen, gerade Duplicate Content bleibt ein Problem. Auch in der neuen Version phpBB3 scheint man sich nicht bewusst zu sein, dass Suchmaschinenoptimierung heutzutage wichtig ist.

  2. Heiraten in Dänemarkon 04 Jun 2007 at 9:37 am

    Mit Typo3 gemachte foren sind sehr gut. (Xing, Gulli). Auch Drupal macht simples Foren betreibung möglich,

  3. Tobion 06 Jun 2007 at 7:53 pm

    Für phpBB gibt es SEO phpBB damit werden die Probleme von doppeltem Content gelöst, außerdem werden unwichtige Seiten wie Profile vor den Sumas versteckt. Wenn phpBB wirklich so schlecht für SEO ist, warum setzt es dann Abakus ein? Hat Webby keine Ahnung von SEO?

  4. Mathias Bankon 07 Jun 2007 at 9:30 am

    Das Abakus-Internet-Forum ist keine reine phpBB-Installation. Und darauf hab ich mich bezogen. So verwendet das Abakus-Forum schon mal statische URLs, auch hab ich bisher keine doppelten Einträge unter unterschiedlichen URLs gesehen. Hier wurde also manuell Hand angelegt. Ob hier SEO phpBB verwendet hat, weiß ich nicht.

    Ein Nachteil hat das Forum allerdings: es steht zuviel unrelevanter Text in den Beiträgen. Das mag für User sehr interessant sein (“Angemeldet seit”, “Beiträge”, etc.). Aber aus Sicht der Suchmaschinen ist dieser Text absolut unrelevant. Die klassische Forendarstellung ist – und das ist meine ganz persönliche Meinung – nicht mehr aktuell. Um mit der SEO-Fähigkeit von Blogs mitzuhalten, muss das Design geändert werden und man muss sich auf das Wesentliche konzentrieren.

    Ein Eintrag in einem phpBB-Forum (oder vBulletin-Forum, egal) mit Suchmaschinenoptimierung wie bei Abakus wird meiner Meinung nach immer schwächer bewertet als ein identischer Beitrag in einem Blog (beide Seiten mit gleichem PR). Und dieser Sachverhalt begründe ich wie folgt:

    In der Regel wird ein Begriff einer Seite mit dem tf*idf (Term Frequenz * invertierte Dokumentenfrequenz) bewertet. Und hier hat ein Blog schlicht bessere Ergebnisse. Das liegt daran, dass alle Terme eines Textes gezählt werden (gut, es wird gestemmt oder mit n-Grammen gearbeitet, aber das ändert nichts am Problem). Diese Zählung wird dann in einen n-dimensionalen Vektor gesteckt (jeder Term ist eine Dimension). Mit dem kann aber nicht gerechnet werden, sondern der Vektor muss normiert werden. Je mehr Terme im Text vorkommen, desto weniger wirkt sich also ein einzelner Term auf das Dokument aus.

    Ein Vorteil machen sich jedoch gut benutze Foren wie das Abakus-Forum zu nutze. Ich möchte aber darauf hinweisen, dass dieser Vorteil nicht für “kleinere” Foren gilt. Dieser Vorteil sieht so aus: Innerhalb einer Dokumentenkollektion (also alle Forenseiten z.B.) werden alle Wörter gezählt. Mittels zipfschen Gesetz ist es dann möglich, sogenannte Stopp-Wörter zu ermitteln. Es gilt nämlich die Regel, dass Wörter, die sehr oft vorkommen, unwichtig sind (typisch z.B. “der”, “die”, “das”) und Wörter, die sehr selten vorkommen, ebenfalls nicht wichtig sind (meist Rechtschreibfehler). Da im Forum aber die Texte “angemeldet seit” und Co. in jedem Beitrag auftauchen, werden sie von jedem besseren Such-Algorithmus als unwichtig erkannt. Das gilt aber eben erst ab einer bestimmten Größe.

  5. [...] Derzeit schreibe ich an meiner Diplomarbeit im Bereich Text-Mining und hab mich deshalb seit längerem damit beschäftigt, wie Texte analysiert und wie relevante Stellen innerhalb einer Text-Kollektion ermittelt werden können. Da mein letzter Beitrag phpBB – schlecht fürs Ranking recht viel Aufmerksamkeit bekommen hat, möchte ich kurz grundlegende Techniken vorstellen, die erklären, wie man Blogs und Foren (oder Seiten allgemein) suchmaschinenfreundlicher gestalten kann. Ich stelle diese Analyse nicht als Fakt hin (niemand außer Google weiß, wie Google arbeitet) und freue mich schon jetzt auf eine Diskussion. Bei den vorgestellten Techniken handelt es sich nur um Grundprinzipien, dass eine Suchmaschine feiner arbeitet, dürfte klar sein. [...]

  6. Matthiason 07 Jun 2007 at 10:42 pm

    Wenn phpBB eine schlechte Lösung ist, was ist denn dann eine gute (oder empfehlenswerte)? ;-)
    Ich habe gehört das neue Burning Board soll im Hinblick auf SEO ein paar Features enthalten…!?

  7. Mathias Bankon 07 Jun 2007 at 10:47 pm

    Wie im Artikel genannt, halte ich Vanilla aus SEO-Sicht für sehr gut gelungen. Das Forum gefällt mir auch sonst recht gut. Das Design mag ungewöhnlich wirken, aber ich denke, genau diese Richtung muss es gehen.

  8. Markus Merzon 14 Jun 2007 at 7:48 pm

    Ich bin Mitglied (nicht Admin!) bei einem Vanilla Forum. Mich nerven die mangelhaften RSS Fähigkeiten. Man kann zwar einzelne Beiträge per RSS verfolgen, aber es gibt keinen ‘Master Feed’, der alle Threads enthält.

    Drupal halte ich für eine sehr gute Community Lösung.

  9. Robert Hartlon 15 Jun 2007 at 10:22 pm

    Aus meiner Sicht ganz klar Jörg Kruses Forum und bbPress (in der neusten Beta-Version)!
    Eine Mischung aus beiden gibts beispielsweise zu sehen unter http://buerokratieabbau.eu/forum/. Meist braucht man nämlich den ganzen Schnickschnack drumherum gar nicht wirklich.

  10. Mathias Bankon 15 Jun 2007 at 10:29 pm

    @Robert: in verlinkten Forum sind die Beiträge leider als Tabellen realisiert. Das ist semantisch nicht sauber und entsprechend halte ich das auch aus Suchmaschinensicht für nicht optimal (ich würde Semantik als Suchmaschinenprogrammierer sehr wohl berücksichtigen).

    bbPress sieht recht gut aus, hat aber leider gern eine div-Wüste. Hier könnte man noch nachbessern, aber auf jeden Fall schon besser.

    Auch Jörg Kruses Forum ist nicht optimal, weil es für Beiträge keine Listen verwendet, sondern divs aneinanderschachtelt.

    Gut. Sind natürlich alles Template-Angelegenheiten, aber mit entsprechend Arbeit bekommt man phpBB auch optimiert.

  11. zayıflamaon 02 Apr 2011 at 10:41 pm

    Wie im Artikel genannt, halte ich Vanilla aus SEO-Sicht für sehr gut gelungen. Das Forum gefällt mir auch sonst recht gut.

Trackback URI | Comments RSS

Hinterlasse eine Antwort