Ohne Suchmaschinenoptimierung kommt heute kaum noch ein neuer Blog sehr weit in Google.
Dabei rede ich nicht von irgendwelchen fragwürdigen Methoden, sondern von Optimierungen, die selbst Suchmaschinen wie Google empfehlen.
Doch immer wieder werden auch Optimierungs-Fehler begangen, die dafür sorgen, dass es in Google eben nicht aufwärts geht oder von heute auf morgen nach unten geht.
Im Folgenden findet ihr 14 SEO-Fehler die man vermeiden sollte.
SEO-Fehler
Die folgend aufgeführten SEO-Fehler habe ich in meiner Arbeit schon mehr oder weniger häufig gesehen bzw. selbst am eigenen Leib durchgemacht.
Diese Liste ist sicher nicht abschließend, zeigt aber viele der häufigsten Fehler auf. Einige Punkte werden vielleicht auch für Diskussionen sorgen, da manches in der SEO-Szene auch nicht ganz unumstritten ist.
Ich freue mich auf eure Meinung.
Zu hohe Keyword-Dichte
Es gibt „Experten“, die hauen in ihre Texte an jeder dritten Stelle das Keyword, unter dem diese Seite bei Google möglichst vorn gefunden werden soll. Allerdings ist Google ja nicht doof und merkt recht einfach, wenn Keyword-Stuffing stattfindet.
Davon abgesehen ist es auch für die Leser der Seite sehr unangenehm, wenn das Keyword zu häufig auftritt. SEO-Experten sind sich zwar nicht einig, wie groß der Anteil genau sein sollte, aber ich fahre mit 5-7% ganz gut.
Mit dem Keyword-Dichte-Tool von Sistrix.de könnt ihr ganz einfach die Keyword-Dichte einer Seite ermitteln.
Zu niedrige Keyword-Dichte
Es gibt aber auch Texte, da taucht der maßgebliche Suchbegriff nur einmal auf. Das ist natürlich zu wenig.
Google ist eine Maschine und die verwendet verschiedene Auswertungsmethoden um festzustellen, worum es in einer Seite hauptsächlich geht.
Die vorkommenden Wörter sind zwar nicht mehr so entscheidend wie vor ein paar Jahren, aber natürlich hilft es, wenn das entscheidende Keyword ein paar mal vorkommt.
Da sollte man ruhig auch mal die Regeln vergessen, die man in der Schule gelernt hat und immer wieder den selben Begriff in den Text einbauen.
Keine Sitemap
Eine Sitemap hilft Google sehr dabei, wirklich alle Seiten eines Internet-Auftrittes zu erfassen.
Da gibt es z.B. für WordPress auch Plugins, die das erledigen. Die kommende Version WordPress 2.8 soll das aber wohl schon automatisch mit an Bord haben.
keine sprechenden URLs
Dieser Punkt ist sicher nicht ganz unumstritten. Manche schwören auf Keywords in der URL, andere halten das für überholt.
Es kann aber sicher nicht schaden, wenn man statt einer solchen URL „www.domain.de?page=222“ lieber die folgende URL-Struktur nutzt: „www.domain.de/suchmaschinenoptimierung/14-seo-fehler“.
Diese sprechenden URLs stellt man einfach in WordPress ein (Permalinks). Hat man allerdings schon länger die andere Version der URLs im Einsatz, sollte man nicht einfach umschalten, da sonst die bisherigen Backlinks verloren gehen. Hierzu gibt es ein Plugin, welches die Umstellung ermöglicht, ohne die Backlinks zu verlieren.
schlechte Nutzung der <H1>-<H6> Tags
Ein Text sollte mit den <H1>-<H6> Tags korrekt strukturiert sein. Leider gibt es Templates, die den H1-Tag an diversen Stellen einsetzen, aber nicht für das, was eigentlich wichtig ist.
Hier findet ihr einen Artikel über den korrekten Einsatz der Headline-Tags.
auf jeder Seite die selben Meta-Angaben und Title
Das sehe ich so oft. Auf jeder Seite die selben Meta-Angaben (Description und Keywords) und auch den selben Title.
Ebenso schlimm sind automatisch generierte Meta-Angaben und Title in Blogs.
Nehmt euch die Zeit und gebt jeder Seite die passenden Meta-Angaben und den passenden Title. Dabei sollten die 1-2 Hauptkeywords einer Seite natürlich darin vorkommen.
Mit dem Plugin „wpSEO *“ könnt ihr sehr gut die entsprechenden Einstellung vornehmen. Ich setzt das Tool auf allen meinen Blogs ein.
keine interne Verlinkung
Eine starke interne Verlinkung ist aus 2 Gründen sinnvoll.
Zum einen hilft es den Suchmaschinen wirklich jede Seite eures Blogs / eurer Website zu finden.
Zum anderen hilft es auch den Nutzern, da nicht jeder User den selben Weg durch eine Website nimmt. Siehe Buch „Don’t make me think“ von Steve Krug.



Baut also nicht nur eine Hauptnavigation sein, sondern nutzt auch andere Möglichkeiten, wie etwa „Ähnliche Artikel“, „Monats-Archive“, „Kategorie-Archive“, „Tag-Clouds“ usw.
keine Alt-Texte bei Bildern
Eine wunderbare Möglichkeit, die wichtigsten Keywords einer Seite zusätzlich unterzubringen sind die Bilder. Sorgt dafür, dass der Bilddateiname das Keyword enthält und dass ihr auch in den ALT-Text eines jeden Bildes einer Seite das Keyword unterbringt.
nur Nicht-Text Navigation
Es sieht toll aus, wenn eine Navigation blinkt, scrollt oder was auch immer macht.
Doch leider haben Suchmaschinen-Crawler große Probleme Flash- oder Javascript-Navigationen zu verwenden. Schon aus diesem Grund sollte man zumindest eine alternative Text-Navigation einbauen.
Aber auch aus Usability-Gründen sollte man den Einsatz einer Flash- oder JavaScript-Navigation überdenken.
Auf einer Seite X Themen abhandeln
Pro Seiten/Artikel ein Thema!
Verwurstet man auf einer Seite bzw. in einem Blog-Artikel zu viele verschiedene Themen, wird die Seite/der Artikel für Google irrelevanter und rankt schlechter.
Konzentriert man sich pro Seite aber auf ein Thema mit 1-2 Hauptkeywords, ranken diese Seiten in der Regel besser.
Duplicate Content
Duplicate Content ist so eine Sache. Teilweise hat das Google schon gut im Griff.
Trotzdem sollte man darauf achten, dass der eigene Blog nicht sowohl durch „domain.de“ wie auch durch „www.domain.de“ erreichbar ist.
Man kann z.B. in den Google Webmaster Tools einstellen, ob Google mit oder ohne www bevorzugen soll. Man kann es aber auch durch einen htaccess-Befehl automatisch lösen:
RewriteCond %{HTTP_HOST} ^domain.de [NC] RewriteRule ^(.*)$ http://www.domain.de/$1 [L,R=301]
Ebenso könnten z.B. druckfreundliche Versionen von Artikeln als Duplicate Content in Google auftauchen. Es ist schon ärgerlich, wenn in den Suchergebnissen die Druckversion angezeigt wird, statt die normale.
So eine Seite kann man z.B. mit dem nofollow-Attribut von der Indexierung ausschließen oder einfach den folgenden Meta-Tag in die betreffende Seite einfügen:
<meta name="ROBOTS" content="NOINDEX">
Framesets
Auch so was schlimmes aus einer anderen Zeit. Allerdings bei Blogs eher selten. ;-)
Framesets sind nicht nur Nutzer-unfreundlich (z.B. keine Lesezeichen auf Unterseiten möglich), sondern sie erschweren auch die Indexierung durch Suchmaschinen.
Das gehört in die dunkle Geschichte der Webprogrammierung.
Splash Screens / Flash
Ich habe erst vor ein paar Tagen einen Kundenwunsch erhalten, in den man gern ein Flash-Intro für seine Firmenwebsite haben will.
Abgesehen davon, dass im schlimmsten Fall der Suchmaschinen-Bot gar nicht bis zu eigentlichen Website kommt, ist sowas auch für Nutzer nervig.
Allerspätestens beim zweiten Besuch der Website nervt sowas.
Also auch in die Mottenkiste.
Nicht aus Sicht der Leser denken
Viele, viele Unternehmen und auch Blogger machen diesen Fehler.
Statt sich den eigenen Blog aus Kundensicht anzuschauen, darf sich die Marketingabteilung austoben bzw. man macht sich selbst zur Zielgruppe.
Dabei ist es extrem wichtig, dass man einen Blog für die Leser gestaltet und inhaltlich füllt.
Sehr kritisch ist dabei z.B. die Wahl der Keywords. Oft genug werden die Keywords verwendet, die der Blogger selbst verwendet. Das sind aber meist nicht die Keywords, die die Leser verwenden.
Hier heißt es also die richtigen Keywords finden und im Blog verwenden.
Das war’s
Das waren also die, in meinen Augen, schlimmsten SEO-Fehler im eigenen Blog.
Ein gutes Einsteiger-eBook zum Thema Suchmaschinen-Optimierung habe ich hier auch schon mal vorgestellt.
Weitere 15 Fehler, die Blog-Anfänger unbedingt vermeiden sollten.
Alles richtig. Diese Tipps helfen SEO Anfängern bestimmt. Ich sollte davon auch noch welche befolgen. Meine Suchmaschinenoptimierung ist noch nicht wirklich das Gelbe vom Ei. Am wichtigsten ist aber immer noch relevanter Content. Danach kommen die relevanten Backlinks, welche der Schlüssel zum Erfolg sind. Diese Backlinks zu bekommen ist leider sehr schwierig. Noch ein Tipp: Der Content sollte, soweit ich weiß, im Quelltext relativ weit oben stehen.
Auch ich bin dabei meine SEO zu optimieren.Ein paar Sachen mache ich sicher schon gut,aber vieles muss ich noch nachbessern.Danke für dein Artikel :)
@Lennart
Sicherlich ist Content wichtig, aber wie soll Google automatisch erkennen, ob der Text nun wirklich gut ist? Die Qualität eines Textes bzw. einer Seite errechnet Big G wohl eher aus den Backlinks. Ich bin der Meinung, dass Links mehr zählen als Inhalt.
website boostig 2.0 vom mario fischer kann ich auch als literatur empfehlen kostet geld ist nicht nur für blogger aber ebend auch für otto normalverbraucher zu verstehen.
Genau die alt-Texte der Bilder, find ich auch, ist eine effektiv nutzbare Sache.
@ Tom
Sind Backlinks wichtig? Natürlich, sehr. Aber ich habe auch schon sehr gute Erfahrungen mit der Onpage-Optimierung gemacht, in Verbindung mit ein paar guten Backlinks.
@ Marc
Ja das Buch ist gut, wenn auch in der aktuellen Ausgabe fast schon zu dick.
Zum Thema Duplicate Content hat Google dann vor einigen Monaten noch das sog. Canonical Tag eingeführt. Mit dessen Einsatz kann man Google einen wertvollen Hinweis darauf liefern, welche URL die „richtige“ für eine Seite ist, die womöglich über mehrere URLs erreichbar ist. Mit Rewrite-Rules allein kann man das oft nicht ohne weiteres und auch nur sehr unkomfortabel lösen.
Vor allem der letzte Punkt – die Keyword-Auswahl – verlangt viel an Erfahrung und Fingerspitzengefühl.
Diesen Punkt kann man stetig verbessern, und er geht immer leichter von der Hand, je länger und intensiver man im Thema ist.
Für mich ist dieser Punkt mit der Wichtigste. Was hilft eine noch so gute Seite, wenn Sie auf Keywords optimiert ist, nach denen kein Mensch sucht.
Schöne Grüße,
Sascha
Danke für den Artikel hilft mir als Anfänger sehr viel.
Eine Frage zur Keywortdichte:
Ich arbeite langfristig auf eine stabile Positionierung zu 3 bestimmten Keywords hin. Denn diese beschreiben einfach mal das Thema der Seite.
Ist es da sinnvoll diese(passen ja immer) als Tags in jedem Beitrag zuätzlich zu den 2-3 Kernwörtern mit einzufügen oder sollte man eher versuchen nur ab und an diese 3 Hauptkeywords mit einzufügen? Gibt es Abwertungen wenn ein Keyword zu oft vorkommt? Würde mich über ein paar Erfahrungswerte freuen.
@zu hohe Keyword Dichte: Das ist auch so ne Sache … in einem Bereich rankt eine Seite vor mir.. und der Spezialist .. .schreibt einen Absatz … irgendwelchen Text, dann haut der 5 verschiedene Keywords dahin..schreibt wieder einen fünfzeiler… haut wieder 5 mal diegleichen Keys hin .. und das ganze 5x… und dann rankt dieser Spezi auch noch damit…
nene.. *kopfschüttel* … ich meine ist dem seine Sache! Aber dennoch … Keywordspam Deluxe ..
~3 Minuten für die Aussage im Video zu brauchen der Tag darf nur einmal vorkommen ist auch keine schlecht Zeit :P.
Ich kann noch als Tipp geben, dass die Metadiscription nicht zu lang sein sollte und maximal 3 Keywords enthalten darf jedoch mindestens 1 welches auf der Webseite vorkommt.
SEO – SEO – SEO
Sicherlich ein wichtiges Thema, doch sollte man eine Webseite nicht der Google-Ideologie anpassen, sondern einfach nur versuchen, bestimmte Elemente so einzusetzen, wie sie auch Sinn machen.
Klar, Überschriften von H1 nach H6 vernünftig anzuwenden, macht man ja bereits seit Word-Zeiten. Auch die Sachen mit dem Seitentitel, den Descriptins usw. sind völlig in Ordnung.
Man sollte aus meiner Sicht eben nur aufpassen, dass eine Seite am Ende nicht für Robots gedacht ist, sondern für Menschen.
Habe gerade bei Seitwert gemerkt, dass es eben nur ein Tool ist… Dinge, die bei meinem Test angemeckert wurden, sind durchaus vorhanden, aber wohl nicht unter den Robot-Stichworten…
Sprechenden URLs und Valider Code sind für Google kein Kriterium ! Das ist ein SEO Mythos. ;-)
Also es gibt ja viele verschiedene Meinungen darüber, ob sprechende URLs nun besser gelistet werden als solche mit ?p=12321 und sonstigen komischen Anhängseln. Fakt ist jedoch: Wenn man bei Google sucht, welche Art von Links werden zu 90% oben gelistet? Richtig, solche mit sprechenden URLs. Zudem sind diese hauptsächlich nicht für Suchmaschinen, sondern auch vor allem für Menschen gedacht (welch Zufall :D ). Wenn du eine Seite hast mit http://www.domain.de/videos/ wird sich ein Besucher eher daran erinnern als wenn da gestanden hätte: http://www.domain.de/?category=videos. Wer stimmt da mit mir überein? ;)
Hi, ich beschäftige mich seit ca. 6 Wochen mit der Erstellung eines Blogs. Ich möchte gerne einen Nischen-Blog aufziehen, der mir sicher auch irgendwann ein Bei-Brot einbringen kann.
Dein Blog ist mehr als hilfreich für mich, bisher bin ich nur über englische Seiten zu dem Thema gekommen.
Für mich sieht es wirklich so aus, als wäre das Thema Bloggen, Affiliate etc. in Deutschland noch vollkommen unausgereift. Würdest du/ihr dem zustimmen?
Wie kann man am besten starten ;) ?
Sog. suchmaschinenfreundliche werden nicht per se besser gerankt. Sie haben ledglich indirekt eine Auswirkung beim Ranking, z.B. wenn sie einfach in Blogs und Foren gepostet werden, wo sie vom System als Links erkannt, mit A-Tag versehen und gleichzeitig als Linktext gesetzt werden. So erhält man Backlinks in denen in der URL enthaltene Begriffe zu Keywords werden.
Google selbst hat erst im letzten Jahr bekannt gegeben dynamische URLs statischen gar vorzuziehen: http://googlewebmastercentral-de.blogspot.com/2008/09/alles-ueber-dynamische-urls.html
Hi Peer,
zum Thema Keyworddichte runter kam auch das Thema Latent Semantische Optimierung auf. Also einen Text mit Synonymen verwendungen zu spicken, um ihn besser ranken zu lassen. Dazu gibt es auch Tools, die einem dabei helfen sollen, wie der RankingCheck von Semager. Ich habe einen Test dazu gefahren und festgestellt, dass trotz aller Nachhaltigkeit, die man in die Texte legt, eine hohe Keyworddichte immer noch das Non-Plus-Ultra ist. Auch der Johannes Beus von Sistrix hat dazu einen tollen Test gemacht, der besagt, dass bis zu 8 oder 9% KD kein Problem sind.
Grüße
Danke für den Tipp. Ja KD ist auch nach meiner Erfahrung noch immer ein sehr wichtiger Faktor.
Hallo Peer,
auf das WP-Seo Plugin wären deine Einstellungen vielleicht noch interessant :)
Oder sind die geheim?
Nein, die sind nicht geheim. Ich werde in einem kommenden Artikel wpSEO genauer vorstellen und da auch meine Einstellungen verraten.
Mal sehen ob mein Blog wirklich gefunden wird, wenn ich Deine Tipps alle berücksichtige.
Paar wirklich gute Tipps dabei. Das meiste ist allerdings schon auf vielen anderen Blogs beschrieben worden. Aber dennoch: Vielen Dank!
Guter post von dir
Guter Artikel mit nützlichen Infos. Vielen Danke dafür!
fantastisch diese seite, habe mir das buch runtergeladen und es leich weiter geschickt. ich hoffe, das angewandte wissen hilft mir zum sprung nach oben. danke für das teilen solch wertvollen wissens
„schlechte Nutzung der – Tags“
Ich habe einmal gelesen, dass es Vermutungen gibt, dass das h1-Tag eine um einiges geringere Gewichtung habe als das h2-Tag.
Ist da etwas dran?
Ansonsten schöner Artikel, wobei die Erwähnung der Frame-Sets in heutiger Zeit eigentlich nicht mehr nötig sein müsste, oder?
danke für die anti-seo hinweise :)
sollte klappen.
Also das thema ist sehr sehr umstritten weil google andauert die richtlinien ändert
Hallo,
ich habe gehört bzw.gelesen, dass ein sauberer Code (grünes „Licht“ beim W3C Validator) für SEO wichtig ist, da Google so erkennt, dass es sich um eine professionell gestaltete Site handelt.
Stimmt das? Und stimmt es, das die Ausgabe von RSS-Feeds schlecht ist, weil sie zu duplicate content führen können?
Schönen Gruß,
Jörg
Google legt vor allem Wert auf gute Inhalte. Ob diese nun von Profis kommen und oder Laien ist nicht so entscheidend. Das bedeutet nun nicht, dass es Google egal ist, wie die Technik aussieht. Aber mit Sicherheit muss eine Website nicht perfekt sein, um gut zu ranken. Es schadet aber natürlich auch nicht.
Mittlerweile erkennt Google doppelte Inhalte sehr gut, so dass die Angst vor Duplicate Content nicht mehr begründet ist. Gerade der RSS-Feed ist für Google sehr leicht zu erkennen und so intelligent ist Google mittlerweile.
Hallo Peter,
ich denken Du hast Recht, denn selbst sehr populäre Webseiten
welche unter sehr populären Suchbegriffen hoch ranken haben meist dutzende von Codefehlern.Selbst Googleseiten. Glaubst Du, dass Google auch doppelten Kontent auf Blogs abstraft, oder kann man darauf verzichten wie bei z.B. bei dem Allinoneseoplugin ein no index für Kategorien, Artikel und Artikeltags zu setzen zu Vermeidung von duplicate content?
Gruss,
Jörg
Hallo,
ich hätte da noch eine Frage.
Ich baue gerade einen Blog um ein Abnehmprodukt herum auf. Auf der Startseite
bewerbe ich das Produkt mit Affiliatelinks und in den Reviews für andere Abnehmprogramme
mache ich einen Hinweis im Text auf das Hauptprodukt incl. Affiliatelink.
Jetzt mache ich mir Gedanken wenn ich viele Artikel eingestellt habe und alle eine Affiliatelink auf dieselbe Merchantsite haben, ob Google das abstraft.
Wäre es nicht besser, eine Texthinweis(mit oder ohne Link auf die Startseite?) im Artikel zu machen (…Infos hierfür finden Sie auf unserer Startseite o.ä.).
Zum besseren Verständnis habe ich oben die URL eingegeben.
Besten Dank für Deine Meinung.
Gruss,
Jörg
Sehr gute Liste
Vielen Dank für die ausführliche Liste.
Super Übersicht, vielen Dank
Super damit wir mir schon ein wenig geholfen worauf ich so achten muss
super tipps von dir habe schon einige bei meiner seite angewendet
vielen dank für deine hilfreichen Tipps finde diese auch wirklich super klasse
Gute Übersicht über einige wichtige Punkte, die man unbedingt beachten sollte. Kompliment für den Artikel!
Geniale Übersicht. Das meiste ist zwar bekannt, aber so hat man alles auf einen Blick und kann es abarbeiten. Vielen Dank dafür!
Jo gute Übersicht!!!
Hab schon viele Übersichten gefunden. Aber die hier ist gut gegliedert! Wird es irgendwann einen 2.ten Teil geben?
Keywords als ALT-Texte sorgen auch für eine bessere Position in der Bildersuche. Sollte man auf jeden Fall machen.
Der Beitrag ist schon wirklich übersichtlich und für viele wahrscheinlich auch sehr hilfreich :-)
Meiner Meinung nach sind der Title Tag und die Description mit am wichtigsten für das Onpage Ranking. Auf alle Fälle kann ich dadurch auf meinen Seiten die größte Veränderung beobachten.
Da es ja keine genaue Angaben von Google gibt ist eh alles eine Sache die auf Erfahrung und Logik baut.
Mit der Anleitung hier kannn man aber die gröbsten Fehler von vornherein ausschließen.
Ach so -was natürlich ganz wichtig ist- Qualität,Qualität und nochmals Qualität des Content :-)
Gruß-Andreas
Eine auch nach 2 Jahren immer noch gute Einführung zum Thema Onpage-SEO. Urlrike’s Wunsch nach einem 2. Teil kann ich mich nur anschliessen. Im Übrigen werde ich mich nochmal etwas im Blog umsehen. Man liest sich !
gute beitrag die fehler darf ein seo nicht machen
Jep, denke aber das sollte jedem klar sein…. was in dem Artikel geschrieben wurde…
Danke für die nützlichen Hinweise. Vieles habe ich schon passend umgesetzt, doch zu wissen, dass man auf der sicheren Seite ist, ist immer gut ;)
Ich denke die Grundessenz wird in diesem Artikel sehr anschaulich dargestellt. Seiten, egal ob Blogs oder anderweitige Internetseiten, sollten wirklich für den Leser gemacht werden und nicht für Suchmaschinen. Wenn man dies in seinem Tun beherzigt, dann sollte sich auch der Erfolg einstellen.
Danke für die nützlichen Tipps! Vor allem das mit dem Sistrix Keyword-Tool ist ganz hilfreich.
Eine auch nach 2 Jahren immer noch gute Einführung zum Thema Onpage-SEO. Urlrike’s Wunsch nach einem 2. Teil kann ich mich nur anschliessen. Im Übrigen werde ich mich nochmal etwas im Blog umsehen. Man liest sich !
Hammer Artikel, hasts echt auf den Punkt gebracht !
Wirklich sehr gute Übersicht.
Habe selber am Anfang die Bedeutung von ,,Duplicate Content“noch schwer unterschätzt.
Es sind halt die vielen Kleinigkeiten die über Erfolg oder Misserfolg entscheiden.
Als Leitfaden ist der Beitrag wirklich sehr nützlich :-)
Ein sehr schöner Artikel, und gut für Anfänger.
Einen weiteren Punkt würde ich jedoch auch aufnehmen:
Kein black SEO. Also kein unnatürliches Backlinkwachstum, hidden Text und dergleichen. Auch habe ich schon gesehen, dass die Teilnahme an Linkfarmen zur Abstrafung von Seiten geführt hat.
Hallo, ich habe eine frage die mir den kopf zermürbt. Folgendes: ich habe eine website mit einem onlineshop mit einem spezifischen produkt. Die website habe ich auf das produkt un dessen keyword optimiert. Nun moechte ich einen blog in meiner webseite einbinden, um artikel ueber dieses produkt herum zu schreiben und hauptsaechlich mit gesunder keyworddichte bespicken. Der Blog soll in erster Linie nicht als blog fuer potenzielle Leser dienen, sonder einfach nur als Content und Keyword Spender. Habe schon etliche artikel geschrieben und vorbereitet und stehen auf den startlöchern. Meine Frage ist nun : Was macht SEO technisch mehr Sinn
1. Wirklich einen Blog wie oben beschrieben in meine Seite einbinden?, oder
2. Die geschriebenen Artikel in so ein Blogportal publizieren ( eines dieses wo man seine eigenen Artikel in einem fremden Blog publizieren kann, mir fällt der Name gerade nicht ein), und mit backlinks zu eigenen Webseite dann verlinken?
Wäre über Meinungen und Hilfe sehr dankbar.
Danke vorrab!
Lg
Daniel
@ Daniel
Ich bin zwar kein Shop-Experte, bin aber generell eher für eigenen Content.
Artikel-Verzeichnisse sind nicht wirklich die Zukunft und in der Vergangenheit hat Google immer wieder solche Verzeichnisse abgestraft.
Allerdings ist auch klar, dass viele SEOs auch solche Verzeichnisse zum Backlinkaufbau setzen.
Deshalb würde ich es an deiner Stelle vielleicht teilen und einen Teil der Artikel im eigenen Blog veröffentlichen und einen Teil woanders.
Ich denke nur mit Backlinks kommt man nicht voran…die Seite muss gut optimiert sein und dann eine gesunde Mischung an backlinks – so kommt man am Besten voran!
Gruß
Hannes
Hallo,
ich beschäftige mich auch gerade mit SEO. Mit dem All in one SEO Plugin komme ich alleine natürlich nicht aus. Daher bin ich auf der Suche nach so guten Tipps wie diesen hier. Es gibt zwar viele Artikel zu dem Thema, aber Deine Zusammenstellung finde ich sehr gelungen.
Grüße Saskia
Hallo,
ich habe dieses Keyworddichtetool mal versucht, allerdings bringt mir das ergebnis relatif wenig da ich keinen schimmer habe was nor mal was gut und was schlecht ist, ausserdem, was sind jetzt keywords ich mein als keyword „keine“ ist irgentwie seltsam