SEO Services  und Suchmaschinen Beratung aus der Hauptstadt

SEO Agentur Berlin
Beratung in der Hauptstadt

Wir bieten professionellen Service

Dienstleistungsservice SEO-Agentur-Berlin.com

Mit den richtigen Begriffen im WWW gefunden werden – Suchmaschinenoptimierung, abgekürzt SEO, bringt Ihre Internetseite bei Google, Bing & Co. nach oben.

Kunden in der Nähe auf sich aufmerksam machen: Das Internet hilft dabei! Local SEO bringt Kunden, die vor Ort nach Ihren Leistungen suchen, in Ihr Geschäft.

Mobiles Internet ist mittlerweile alltäglich, doch ist Ihr Marketing fit dafür? Mit unseren Services nutzen Sie die Möglichkeiten des mobilen Internets.

In sozialen Medien präsent zu sein, kann Ihren Umsatz nachhaltig stärken. Wir unterstützen Sie mit Kampagnen und bei der Pflege Ihrer Accounts.

Kostengünstiges Online Marketing, das Ihre Zielgruppe wirkungsvoll anspricht: Wir entwerfen und realisieren wirkungsvolle Kampagnen für Sie.

Ein Internetshop, der Besucher zum Kauf animiert, ist zentral für Ihren E-Commerce-Erfolg. Wir realisieren konversionsstarke Shops mit erstklassiger Usability.

Ob Sie Ihre erste Internetseite planen oder Ihre bestehende Präsenz auf den neuesten Stand bringen wollen – wir sind Ihre Partner für benutzerfreundliche Websites.

Benutzerfreundlichkeit auch auf mobilen Geräten ist heute ein Muss. Internetseiten mit Responsive Design lassen sich auf allen Geräten gut bedienen.

Visuelles Design, das die Identität Ihrer Marke vermittelt, macht Sie unverwechselbar. Wir entwickeln Markendesigns und Logos für Online und Offline.

Die Suchmaschinenoptimierung

Die Suchmaschinenoptimierung, auch unter dem Begriff "SEO" (search engine optimization) bekannt, ist ein wichtiger Marketingbereich, welcher aus der heutigen Internettechnologie nicht mehr wegzudenken ist. Im organischen Suchmaschinenranking dienen diese Optimierungsmaßnahmen dazu, Inhalte wie Videos, Websites und Bilder in den unbezahlten Suchergebnissen auf höheren Plätzen zu listen und somit eine breitere Masse zu erreichen.

Die Geschichte der Suchmaschinenoptimierung

Mit Fortschreiten des World Wide Webs für die Allgemeinheit, nahm auch die Arbeit der Webmaster immer mehr an Bedeutung zu. Als Mitte der 1990er Jahre die ersten Suchmaschinen damit begannen, das Web zu katalogisieren, wurde auch der Grundstein der Suchmaschinenoptimierung gelegt.

Anfangs schickten die Webmaster hierzu die URL der jeweiligen Website an die diversen Suchmaschinen, welche danach einen Webcrawler aussendeten, der die Seite indexierte. Hierzu lud der Webcrawler die Website auf den Server der Suchmaschine, wo die Informationen herausgelesen und katalogisiert wurden. Im Einzelnen bedeutet dies, genannte Wörter und Links zu anderen Seiten wurden gespeichert. Die Wichtigkeit dieses Bereiches wurde recht schnell deutlich, wodurch ein eigener Geschäftszweig entstand.

Aufgrund der Zurverfügungstellung von Seiteninformationen durch die Webmaster war zu Beginn der Suchalgorithmen eine Darstellung durch ggf. nicht eindeutig verwendete Schlüsselwörter nicht fehlerfrei, so dass irrelevante Seiten bei einer spezifischen Suche gelistet werden konnten. Gleichzeitig waren die früheren Suchalgorithmen manipulationsanfällig und es war Seitenerstellern möglich, aufgrund Veränderung diverser Attribute in HTML-Codes, die Suchergebnisse dahingehend zu manipulieren, dass ihre Seite im Suchergebnis weiter oben stand.

Um diesen Missbrauch zu verhindern, waren die Suchmaschinenbetreiber gezwungen, komplexere Algorithmen zu schreiben, welche von Webmastern nur schwer beeinflussbar waren. Auch, um zu vermeiden, dass Nutzer aufgrund unpassender Ergebnisse zu anderen Suchmaschinen abwanderten, war eine fehlerfreiere Analyse notwendig.

So entwickelten Larry Page und Sergey Brin eine Suchmaschine namens "Backrub", welche mithilfe eines mathematischen Algorithmus die "Prominenz" von Webseiten bewertete. Hierzu arbeitete die Suchmaschine mit einem Algorithmus, welcher auch "PageRank" genannt wird und die Stärke und Quantität von Backlinks berechnet und somit die Wahrscheinlichkeit wiedergibt, dass ein Benutzer beim Surfen durch das WWW beim Anklicken von Links auf der jeweiligen Seite landet.

Aus Backrub wurde 1998 die Suchmaschine "Google". Google verwendete, um Missbrauch auszuschließen, für das Page-Ranking "Off-Page-Faktoren" (z.B. "PageRank" und Hyperlinkanalysen), aber gleichzeitig auch "On-Page-Faktoren" (die Frequenz von Schlüsselwörtern, Seitenstruktur, Meta-Daten, etc.). Mithilfe der Off-Page-Faktoren sollten Manipulationen, welche bei Suchmaschinen, die ausschließlich mit On-Page-Faktoren arbeiteten, ausgeschlossen werden.

Trotzdem entwickelten Webmaster Strategien und Werkzeuge zur Suchmaschinenoptimierung, welche es ihnen erlaubten, das Ranking der Suchmaschine zu beeinflussen, so z.B. das Kaufen und Verkaufen bzw. Tauschen von Links, welches häufig in großem Stil betrieben wurde und auch als "Linkfarm" bezeichnet wird. Vor diesem Hintergrund wurden tausende von Seiten erstellt, welche alle nur das Ziel hatten, "Linkspamming" zu betreiben und ihre Seiten besser in den Suchergebnissen zu listen.

Um den Einfluss durch Linkmanipulationen aufgrund Suchmaschinenoptimierung weiter zu vermindern, arbeiteten Suchmaschinen ab 2004 mit einem weiten Spektrum an nicht veröffentlichten Faktoren für ihre Ranking-Algorithmen. Im Jahr 2007 nutzte Google bereits mehr als 200 verschiedene Signale, um das Listing von Webseiten in den Suchmaschinen zu bestimmen.

Auch die führenden Mitbewerber, Bing und Yahoo, arbeiten mit geheim gehaltenen Algorithmen. Einige SEO-Betreiber studierten aus diesem Grund die Algorithmen mit diversen Annäherungen zur Suchmaschinenoptimierung und teilten die Informationen mit ihren Kollegen.

Im Jahr 2005 wurden Suchergebnisse auf Basis früherer Suchanfragen von registrierten Nutzern durch Google personalisiert. Daraufhin erklärte 2008 Bruce Clay, ein auf SEO spezialisiertes Unternehmen, dass das Ranking keinen Sinn mehr habe und Diskussionen über Manipulationen beim Suchmaschinenranking hinfällig seien, da gleiche Suchanfragen bei personalisierten Ergebnissen unterschiedliche Ergebnisse liefern würden. 2007 wurde von Google eine Kampagne gegen gekaufte Links angekündigt.

Daraufhin entwickelte sich das sog "PageRang-Sculpting", welches bestimmten Links auf einer Seite mehr Gewicht verlieh und das Linkziel in Google somit höher gelistet wurde. Entgegengesteuert wurde von Google durch "nofollow-Attribute". Um auch diesem Attribut zu entgehen und das PageRank-Sculpting weiter nutzen zu können, wurde bei der Suchmaschinenoptimierung mit Java-Codes gearbeitet.

In 2009 begann Google, die Suchhistorie aller Nutzer für aussagekräftige Suchergebnisse heranzuziehen, woraufhin 2010 das neue Index-System "Google-Caffeine" folgte. Dieses ermöglichte Benutzern erstmals die Suche nach aktuellen Forenbeiträgen, Nachrichten und anderen Inhalten, was zur Folge hatte, dass die Indexierung sich änderte.

Ebenfalls in 2010 wurde die Echtzeitsuche "Google Instant" vorgestellt, welche Suchergebnisse noch zeitnaher und relevanter erscheinen ließ. Erfolgsversprechend war dies auch aufgrund der steigenden Popularität von sozialen Netzwerken und Blogs, so dass sich verstärkt darauf fokussiert wurde.

In 2011 lancierte Google "Panda". Hiermit war es möglich, Websites abzustrafen, welche Seiteninhalte von anderen Seiten kopierten. Ein Jahr später folgte "Google Penguin", welches auf die Abstrafung von manipulativen Techniken zum besseren Listing abzielte.

Arbeitsweise

Der erste Schritt bei der Suchmaschinenoptimierung ist das Einhalten bestimmter HTML-Standards, welche für das Aufsuchen und Einlesen der Websites erforderlich ist. Auch wenn dies laut Aussagen von Google keinen Einfluss auf das Ranking darstellt, können Seiten, welche besonders HTML-kongruent sind, vom Browser schneller geladen und verarbeitet werden, was Suchmaschinen in jedem Fall berücksichtigen.

Die Suchmaschinenoptimierung wird grundsätzlich in On-Page- sowie Off-Page-Optimierung unterteilt. Die Unterscheidungsmerkmale liegen hier in der Bearbeitung der eigenen Seite sowie, welchen Einfluss die Seite auf andere Webseiten hat.

Onpage-Optimierung

Eine On-Page-Optimierung bezieht sich immer auf inhaltliche Anpassungen der eigenen Website und geht der Offpage-Optimierung in der Regel voraus. Hierzu zählt z.B. die Optimierung von "Content" in Bezug auf Qualität, Formatierung, Textüberschriften usw. Aber auch technische Punkte, wie z.B. Header und Tags oder die interne Linkstruktur fließen in die Onpage-Optimierung mit ein.

Das sog "Keyword", welches als Meta-Element eigentlich für Suchmaschinen konzipiert wurde, wird von Google nicht mehr mit in die Suche einbezogen. Auch wenn Gleiches für "Description" gilt, sollte dieses Element nicht ignoriert werden. Abhängig von der Suche könnte der Textauszug in den SERPs angezeigt werden.

Zusätzlich sollten für die On-Page-Optimierung geeignete Suchbegriffe ("Keywords") ausgewählt werden. Hilfreich sind hier frei verfügbare Datenbanken, wie z.B. eine Keyword-Datenbank oder der MetaGer-Web-Assoziator. Auch eine Möglichkeit ist die Verwendung des Google-AdWords-Keyword-Tools. Dieses listet neben verwandten Suchbegriffen auch die Anzahl an monatlichen Suchanfragen pro Begriff auf.

Je nach Umfang der Seite rechnet man mit etwa ein bis drei Suchwörtern für die Suchmaschinenoptimierung. Je umfangreicher eine Seite ist, desto sinnvoller ist es, die Seite in Einzelteile aufzuteilen, um sie so für verschiedene Suchbegriffe optimieren zu können. Hier werde Haupt- und Neben-Keywords (auch als Primär- und Sekundär-Keywords bezeichnet) für die jeweiligen Seiten definiert und mit entsprechenden Inhalten verbunden. Eine Möglichkeit der Optimierung ist auch die sog. "Landingpage", welche speziell für SEO-Zwecke konzipiert ist und den Besucher durch Anklicken des Links direkt dorthin führt.

Hinsichtlich der Suchmaschinenoptimierung hat sich in diesem Bereich auch ein eigener Schreibstil entwickelt, welcher gewissermaßen durch die Mechanismen der Suchmaschine vorgegeben wird und nicht immer konform mit Grammatik oder Rechtschreibreform ist. Aufgrund der erwähnten Geheimhaltung der Suchalgorithmen, wird die Optimierung durch Erfolgsfaktoren rekonstruiert.

Die geheim gehaltenen Techniken wiederum werden mittels Reverse-Engineering-Methode untersucht und analysiert. Im Einzelnen bedeutet dies, es wird versucht, zu analysieren, wie Webseiten und deren Inhalte indexiert werden und nach welchen Kriterien diese von der Suchmaschine bewertet und sortiert werden. Im Übrigen erkennen Google und andere Suchmaschinen zunehmend falsche Schreibweisen, wodurch häufig falschgeschriebene Suchbegriffe weniger an Gewicht erhalten und eine falsche Rechtschreibung auf Internetseiten immer weniger lohnenswert wird.

Letztendlich sei erwähnt, dass bei der On-Page-Optimierung ein dauerhaftes Untersuchen von relevanten Keywords notwendig und sinnvoll erscheint, da das Nutzerverhalten stetigen Änderungen unterlegen ist und die Suchmaschinen-Mechanismen somit einer Entwicklungsdynamik unterliegen.

Auch die Berücksichtigung von Endgeräten wie Smartphones und Tablets ist für die Onpage- bzw. Suchmaschinenoptimierung essentiell. Denn auch diese nehmen bei der Suchmaschinenoptimierung einen immer wichtigeren Stellenwert ein. Eine Website, welche nicht für mobile Endgeräte programmiert ist, wird - vor allem bei der mobilen Suche - wesentlich schlechter gelistet als Websites, welche über ein "Responsive Design" verfügen.

Offpage-Optimierung

Die Offpage-Optimierung bezeichnet alle Maßnahmen außerhalb der zu optimierenden Website. Dies bedeutet, es genügt nicht, sich nur auf die Optimierung von Onpage-Maßnahmen zu konzentrieren. Viel wichtiger ist es, ebenfalls ein gutes Listing durch eingehende Links auf Webseiten - auch Backlinks (Rückverweise) genannt - zu erzeugen. Bei der Offpage-Optimierung geht es darum, sich mit Hilfe einer Linkstruktur in bestimmten thematischen Bereichen besser zu positionieren. Dies geschieht bei Eingehung einer Linkpartnerschaft mit thematisch passenden Internetseiten.

Passende Linkpartner lassen sich auch mittels Linkanalyse von Wettbewerbern finden. Auch geeignet sind spezielle Tools, wie z.B. das sog. "Link Research Tool", mit welchem sich gute Unterseiten einer Domain durchforsten lassen. Auch die Ausgestaltung von Linktexten der Backlinks ist von Bedeutung für die Platzierung bestimmter Suchwörter. Häufig lassen sich bereits mit kleinen Veränderungen größere Erfolge erzielen.

In Zeiten von Social Media wird auch vermutet, dass neben Backlinks zunehmend auch sog. "Social Signals" im Suchmaschinenranking berücksichtigt werden. Hiermit gemeint ist, die Vernetzung und Nutzung sozialer Netzwerke in Form von "Likes", "Shares" etc. auf Facebook oder "Tweets" und "Retweets" auf Twitter sowie den anderen sozialen Netzwerken. Wichtig für die Suchmaschine ist hier, wie intensiv sich Nutzer über eine Website austauschen.

Für das Ranking auch von Bedeutung sind sog. Nutzersignale. Hier zählt es, wie häufig ein Nutzer das Sucherergebnis anklickt, wie lange er auf der Trefferwerbseite verweilt oder wie schnell er zur Suche zurückkehrt. Bei Google werden positive Signale erzeugt, je länger sich der Nutzer auf der Seite, welche das Suchergebnis ausgeworfen hat, aufhält.

Akademische Suchmaschinenoptimierung

Die Suchmaschinenoptimierung in diesem Bereich ist noch sehr jung und wir derzeit noch stark diskutiert. Im Einzelnen geht es bei der akademischen Suchmaschinenoptimierung (Academic Search Engine Optimization; kurz ASEO) darum, wissenschaftliche PDF-Dateien für akademische Suchmaschinen wie "Google Scholar" und "CiteSeer" zu optimieren. Grundsätzlich wird hier auch wie bei anderen Websites gesucht und indexiert.

Berücksichtigt werden hier - neben weiteren Dingen - jedoch besonders die Suchwortdichte und - anstelle von Hyperlinks - die Erwähnungen in anderen wissenschaftlichen Publikationen. Wie bereits erwähnt, ist man sich nicht einig über diese Entwicklung. Gegner halte es für unmoralisch, wissenschaftliche Artikel auf akademische Suchmaschinen auszurichten. Verfechter halten dies wiederum für essentiell, um Inhalte von PDF-Dateien besser und genauer indexieren und gewichten zu können.

Ethische Regeln

Hier geht es darum, Manipulationen von Sucherergebnissen auszuhebeln, so z.B. das Suchmaschinen-Spamming, mit welchem nicht relevante Webseiten auf vorderen Plätzen der Suchergebnisse landen. Dieses Suchmaschinen-Spamming lässt sich mittels automatischer Umleitungen, welche auch als "Brückenseiten" bezeichnet werden erreichen. Diese sog. "Brückenseiten" enthalten speziell für die Suchmaschine erstellte Textseiten, wodurch sie in der Indexierung steigen. Wird dieser Missbrauch aufgedeckt, hat dies oft zur Folge, dass die Seite grundsätzlich aus dem Suchindex ausgeschlossen wird.

Die ethische Suchmaschinenoptimierung (auch "white hat search engine optimization") vermeidet Praktiken wie Einsatz von Brückenseiten oder einer Linkfarm, so dass das Risiko eines Ausschlusses oder einer Herabstufung in den Ergebnisseiten der Suchmaschine vermieden wird. Der Gegensatz dieser "White-Hat-Suchmaschinenoptimierung" nennt sich "Black-Hat-Optimierung".

Linkpyramide

Der Begriff "Linkpyramide" hat sich Ende 2000 entwickelt. Er versucht, einen natürlichen Backlinkaufbau darzustellen. Hierzu wurden die Backlinks verschiedener erfolgreicher Unternehmer ausgewertet, wodurch zu erkennen war, dass das sog. Fundament aus einfachen Links bestand und die Anzahl der Links abnimmt, je hochwertiger die jeweiligen Links sind. Hieraus ergab sich das Bild einer Pyramide, wodurch sich auch das Wort "Linkpyramide" ableitet.

Technische Grenzen

Rein mit Filmen und Bildern sowie grafisch eingebettetem Content ausgestattete Webseiten, z.B. Seiten, welche mit Flash programmiert sind, lassen sich von den Suchmaschinen nur schwer auswerten. Seit 2008 wurde Google und Yahoo zwar durch Adobe eine Technik bereitgestellt, welche darauf basiert, auf bisher nicht auswertbare Inhalte in Flash-Dateien zugreifen zu können, dynamisch geladener Content wird jedoch noch immer nicht erfasst. Auch Linktexte oder Unterseiten können noch immer nicht identifiziert werden. Aus Sicht der Suchmaschinenoptimierung ist eine Programmierung, welche ausschließlich mit Flash arbeitet, nicht empfehlenswert.