SEO Stammtisch 12.12.2007 -> jetzt anmelden

Ok, das Datum für den kommenden SEO Stammtisch steht fest – es wird Mittwoch, der 12.12.2007 sein!

Anmelden kann man sich ab sofort direkt über Amiando:

amiando

Erstmalig in der Münchner SEO Stammtischgeschichte wird ein geringer Eintritt von derzeit 25 Euro im Vorverkauf fällig. Neben unzähligen organisatorischen Vorteilen, dient der Ticketpreis in erster Linie zur Deckung des Catering und Location-Kosten. Das Event findet in München statt, die genaue Location wird allen Registrierten nach der Vorverkaufsphase via Email mitgeteilt.

Soderle, ab jetzt tickert die Vorverkaufsphase – das Event hat ziemlich genau einen Vorlauf von 4 Wochen und ich hoffe, die Hürde eines Eintritts hält euch nicht von der Anmeldung ab – Amiando stellt saubere , absetzbare Rechnungen aus 😉

Für weitere Fragen zum Event stehe ich euch gern zur Verfügung. Kommentare erwünscht.

Veröffentlicht unter Community | 23 Kommentare

Homepage beim eigenen ISP

Manchmal sieht man den Wald vor lauter Bäumen nicht. Soeben habe ich bemerkt, dass mein Provider M-Net jedem Kunden etwas kosten- und werbefreien Webspace offeriert und verschiedene Hosts zur Auswahl stellt. Eine dieser angebotenen Domains ist bereits seit 1998 aktiv am Netz und wird im Format www.altedomain.de/username/ angeboten. Ein Host, den man sozusagen nicht ungenutzt lassen sollte! Evtl. bietet sich ein solches Szenario auch bei anderen regionalen ISPs.

Veröffentlicht unter SEO | 9 Kommentare

SEO Stammtisch München

Da die Stimmen nach einem neuen SEO Stammtisch immer lauter werden und ansich, außer der Wintermüdigkeit, nichts dagegen spricht sich mal wieder zusammen zu setzen und auszutauschen, wird hiermit ein SEO Stammtisch im Dezember 2007 in München aufgesetzt.

Recht oberherzlich eingelanden sind neben den üblichen, gern gesehenen Verdächtigen:

  • Manfred / Creative Development – angemeldet
  • Sascha / Weblike – angemeldet
  • Andreas / Stadtbranchenbuch – angemeldet
  • Andreas / Seoblogger – angemeldet
  • Laura / Dejavu – noch offen
  • RentaMatthias – angemeldet
  • Daniel / Drisol – noch offen
  • Alan / Abakus – angemeldet
  • Kamillo / Abakus – zugesagt
  • Martin / Webformatik – schwebend
  • Georg / Skuub – angemeldet
  • Fridaynite-Ralf – angemeldet
  • Marcus / SEOmetrie – angemeldet
  • Remo / trigami – verhindert
  • Heiner / SEO-united – noch offen
  • Josef / Techdivision – angemeldet

Location & Anmeldung & genaues Datum werden in den kommenden 7 Tagen bekannt gegeben. Solong, Ungeduldige können entweder an der Umfrage rechts in der Sidebar teilnehmen sowie ihre unverbindliche Blindanmeldung via Kommentar abgeben.

Der Abend soll rein dem Networking und dem Erfahrungstausch dienen. Ich bemühe mich auch, einen oder mehrere Special Guests herbei zu zaubern.

[Update] – Der Termin steht fest. Das Event findet am Mittwoch, den 12.12.2007 statt -> jetzt anmelden.

 

Veröffentlicht unter Tratsch | 25 Kommentare

Sitelinks Update November 2007

Die Google Sitelinks wurden mal wieder geupdated. Dabei handelte es sich nicht, um Verschiebungen aufgrund des neu eingeführten Features in den Google Webmastertools, bei dem man die Möglichkeit hat, Sitelinks zu blocken. Bei diesem November Update wurden die Sitelinks komplett neu gewürfelt und haben m.E. eine schlechtere Qualität als das letzte Update. Bereits getätigtes Feedback seit Einführung der Sitelinks-Steuerung in den Webmaster Tools konnte ich nicht bemerken… gleiche, bereits gemeldete Links tauchten erneut wieder auf 🙁

Veröffentlicht unter SEO | 4 Kommentare

Content Contribution – Artikelverzeichnis 2.0

Ein klassisches Artikelverzeichnis ordnet eingehende Artikel in Kategorien und publiziert diese….als Dank für den kostenlos, bereitgestellten Inhalt gibt es eine festgelegte Anzahl an frei definierbaren Links aus dem Artikel. Der Nachteil der sich daraus ergibt ist, dass der Betreiber eines solchen Verzeichnisses die gelieferten Themen nicht wirklich beeinflussen kann und die Leute natürlich immer über Ihren eigenen Angelegenheiten / Projekte / Vorhaben schreiben.

Viel besser finde ich da das Konzept von Readers Edition, welches den Nutzer auffordert, selbst einen Artikel, zu einem vorgegebenen Thema zu verfassen. Der Vorteil dieses Konzepts, liegt in der Themenvorgabe und damit in der Steuerung des Contents. Der Betreiber hat so, zumindest was den groben Rahmen angeht, eine Möglichkeit weg von den typischen geld- & werbeträchtigen Themen zu kommen und bietet damit automatisch einen redaktionellen Mehrwert für die Besucher. Ich würde dieses Projekt mal als "Artikelverzeichnis 2.0" bezeichnen. Denn durch die gesteuerte Aktualität der Beiträge und inhaltliche Ausrichtung auf Themen die generelles Interesse wecken, ist ein solches Projekt sowohl für den Leser, als auch für die Suchmaschinen von höchstem Interesse. Auch einer redaktionellen Prüfung seitens der Suchmaschinen, sollte eine solche Plattform standhalten.

Grob genommen, besteht der Unterschied von Artikeln auf Readers Edition zu Artikeln auf heise.de, dem perlentaucher oder anderen Online Magazinen nur in der fehlenden journalistischen Referenz / Ausbildung und folgt m.E. dem Motto -> gute Texte von Ungelernten und Leuten die einfach nur Spass am Schreiben haben, sollen auch Ihre Chance bekommen, auf einer größeren Plattform die nötige Aufmerksamkeit zu erlangen.

Der Autor bekommt als Dank, neben der namentlichen Nennung und einem sauberen Link im Profil, die Möglichkeit sein Talent unter Beweis zu stellen und aus SEO-Sicht hat der Autor natürlich die Möglichkeit geschickt auf sein Business zu lenken.

Veröffentlicht unter SEO | Ein Kommentar

Rankingkriterium: Site-Performance

  • Ab wann spielt die Performance einer Website eine Rolle für das Ranking?
  • Spielt die Performance überhaupt eine Rolle für das Ranking?
  • Gibt es eine Site-Performance History bei Google und läuft diese ins Ranking mit ein?

Ansich eine klare Aufgabe für den Serps-Analyse-Spezialisten Johannes. Denn logisch betrachtet mindert  eine schlechte Site-Performance auch die Qualität der Ergebnissseiten und diese will man ja nachweislich auf einem hohen Niveau halten. Gerade wenn Suchspitzen entstehen nützt es einem recht wenig, wenn die Top-Ergebnisse den Traffic nicht händeln können und unter der Last zusammenbrechen. Beziehungsweise macht es durchaus Sinn, Seiten mit besonders schlechter Performance nicht in die Top 10 zu schieben.

Eine aktuelle Analyse der Top 10 Ergebnisse der Top 1000 Keywords mit Bezug auf die Hosting-Location wäre mein Weihnachtswunsch an Sistrix 😉

 

Veröffentlicht unter SEO | 5 Kommentare

Reissack

Sobald ein Reissack in China umfällt, bekommt man dies hier am ehesten mit.

Veröffentlicht unter Trendbarometer | Kommentare deaktiviert für Reissack

Verlinktes Google Logo

Hin und wieder wird zu einem besonderen Event das Google-Logo mit der entsprechenden Suchanfrage verlinkt. So zum Beispiel beim "Tag der deutschen Einheit" oder neulich beim Pavarotti-Tribut. Diese Verlinkung lässt den Suchtraffic für dieses spezielle Event in die Höhe schiessen und verfälscht damit das tatsächliche Suchvolumen.

Die Frage die ich mir letztens gestellt habe, lautete, wieviel Impact eine solche Logo-Verlinkung auf das Suchvolumen hat? Rein theoretisch müsste man ein und das selbe Event miteinander vergleichen können, einmal mit Verlinkung und einem ohne Verlinkung.

Rein zufällig trat diese Vergleichssituation dieses Jahr zu Halloween ein. Dieses Mal verzichtete Google auf die Verlinkung des Halloween-Logos und somit konnte man direkt die Volumen von Halloween 2006 mit Halloween 2007 vergleichen. Die Differenz der Suchanfragen basiert in erster Linie aus der Verlinkung des Googlelogos. Ich habe mal einen Chart aus Google Trends erstellt, in dem man diesen Unterschied besonders gut ablesen kann.

Google Trends Chart

Auch wenn die "Suchspitze" zu Halloween 2007 noch nicht ganz vorbei ist, kann man gut erkennen, dass es sich in einem ähnlichen Verhältnis wie 2004 bewegt. In den Jahren 2005 und 2006 war das Google-Logo entsprechend mit dem Suchwort "Halloween" verlinkt. Um eine gewisse Konstante zu erzeugen, habe ich das Keyword "auto" mit hinzugenommen, da dieses Keyword ein nahezu gleichbleibendes Volumen über das gesamte Jahr generiert. Man erkennt in diesem Chart, dass sich das Suchvolumen durch die Verlinkung knapp verdoppelt (2004 zu 2005). In diesem Jahr sieht der Trend sogar eher rückläufig aus, da der Peak noch geringer als 2004 erscheint.

Zusammengefasst kann man also festhalten, dass Google durch die Verlinkung des Logos das Suchvolumen um ca. 50% nach oben pushen kann und man bei der Ermittlung des tatsächlichen Suchvolumens eine Verlinkung des Logos berücksichtigen muss. Besonders interessant ist dieses Instrument im Bezug auf Adwords… denn wenn man zuviele Anzeigen zu einem Event in der Pipe hat, dann verdoppelt man halt mal eben das Suchvolumen (zB.: an Valentinstag), um so alle Anzeigenkunden effizient zu bedienen 😉

Update:

Nach dem Tim in den Kommentaren gemeckert, dass der oben gemachte Screenshot nicht aus der Zukunft stammt, habe ich mir gedacht als Update hier ein paar Wochen nach Halloween, die neue Grafik zu zeigen – diese belegt auch das o.g. Verhalten des zu erwartenden Suchvolumens – es wurde deutlich weniger nach Volumen auf dieses Keyword erzeugt. Grund dafür war die fehlende Verlinkung des Google Logos. Diese Verlinkung bewirkt einen signifikaten Ansteig für dieses Keyword – was sich natürlich auch auf die Anzeigen rund um dieses Thema auswirken kann.

Halloween 2007

Veröffentlicht unter SEO | 4 Kommentare

Endlich – Geolocation über Webmaster Tools

Ein lang ersehntes Feature ist nun endlich live! Ab sofort können Webmaster Ihre Seite einem Land zuordnen. Damit ist es nun endlich auch internationalen Hosts, unabhängig der IP und der TLD, möglich eine Seite einem speziellen Land zuzuordnen. Große Sites wie die Wikipedia, Dell oder Yahoo! wurden nie in den zum Content entsprechenden Ländern gelistet, da sie meist auf einer internationalen TLD (com, net, org) platziert sind und die Server-Locations oft nicht dem Land entsprechen der zum Content passt. Mit der Einführung der Möglichkeit, seine Domain oder seine Subdomain einem entsprechenden Land zuzuordnen, fallen diese Probleme weg.

Eine logische Schlussfolgerung ist demnach, dass die Inhalte zB.: von de.wikipedia.org nun auch bei der Option "Seiten aus Deutschland" angezeigt werden können, vorausgesetzt man entschliesst sich seine Seite über die Webmaster Tools verifizieren zu lassen.

[via Searchengineland]

Veröffentlicht unter SEO | 6 Kommentare

Gutes Beispiel wie weit man noch entfernt ist

… sinnfreie Texte von gehaltvollen Texten zu trennen. In der letzten Zeit stolpere ich immer wieder über das "Gerät-Schauplatz Blog" gadgetvenue.com, welches alle Beiträge und Kommentare automatisch aus dem Englischen in 12 weitere Sprachen übersetzt.

Was bei einer solchen automatisierten Übersetzung rauskommt, kann sich sicherlich jeder denken. Ein unlesbarer Text, gespickt mit orthographischen und grammatikalischen Fehlern, der die Texte gänzlich unleserlich erscheinen lässt. Dennoch rankt Google solche Seite, selbst bei gefragten Keywords, oft als relevantestes Ergebnis. Das liegt in der Natur der Maschinellen Verarbeitung diese Texte. Die Suchmaschinen verstehen die Texte eben nicht und analysieren auch nicht die Lesbarkeit dieser Texte. Wenn dann auch noch die vom Besucher generierten Kommentare in diesem Stil übersetzt werden, ist der Spach-Salat perfekt. Das erschreckende daran ist, dass bei der heutigen Leseschwäche und dem Verstumpfen der deutschen Sprache, die Leser im Zweifel diesen Mißstand gar nicht mitbekommen 😉

Bleibt die Frage offen – handelt es sich dabei nun um Spam oder bringt es dem Nutzer, trotz des oft unleserlichen Textes, doch einen geringen Mehrwert mit Daseinsberechtigung?

Veröffentlicht unter SEO | 6 Kommentare

PageRank Abstrafungen

Klasse Leistung von Google – wenn das mal nicht nach hinten losgeht und all die netten Content-Verlage bemerken, dass einem hier gerade vorgeschrieben wird, wie man sein Geld zu verdienen hat.

Interessant an den Abstrafungen finde ich, dass nicht nur Verkäufer sondern nach tieferer Analyse auch reine Käufer davon betroffen sind. Zudem erstrecken sich die Maßnahmen auch auf andere europäsische Länder aus, wie ich gerade erfahren habe.

Neben den bereits genannten Seiten hat es auch folgende "Links verkaufende" Sites erwischt:

  • oanda
  • chemdex
  • mamboserver
  • gobase
  • enc
  • ximbiot
  • cookiecentral
  • treemenu
  • sciencenews
  • madsci
  • arealvalidator
  • jalbum
  • archaeologynews
  • opensource.planetjava
  • webrankinfo
  • forum.snitz
  • aleksey
  • sharpreader
  • moinmoin.wikiwikiweb

An manchen Stellen liest man, dass es einem egal sei, ob man mit dabei ist oder nicht….doch allen Käufern dürfte klar sein, dass eine Abstufung des PageRanks ein klares Indiz dafür ist, dass die entsprechende Seite nun bei Google auf dem Radar in Sachen Linkverkauf / Linkkauf steht und eine logische Schlussfolgerung daraus ist, dass verkaufte & gekaufte Links damit ihre Wertigkeit verlieren.

Wer also weiterhin von solchen Seiten Links kaufen sollte, der sollte sich freiwillig den "nofollow" anziehen, um nicht Gefahr zu laufen in falsches Licht gerückt zu werden.

[Update]: Kurz nachdem die Abstrafungen durch waren, wurde der PagaRank neu kalkuliert und visuell ausgerollt was zu teilweise extremen Veränderungen  in der Landschaft der grünen Balken geführt hat.
Dazu kam meiner Meinung nach noch eine generelle infaltionäre Abstufung des PageRanks. Viele PR10 Seiten wurden so zu einem PR9 und 8er zu einem 7er usw.
Eine weitere Neuerung die ich meine analysiert zu haben, ist eine neue Art der Berechnung seinteninterner Vererbung. Nach den ersten Beobachtungen sieht es danach aus, als würde sich der PageRank nun auch stärker an der internen Navigation orientieren, sodass zB. ein Menüpunkt auf eine "charset=iso-8859-1" von links nach rechts anders vererbt und Hauptmenü-Punkte von Submenü-Punkten verschieden verwertet werden können, obwohl diese auf der selben Ebene liegen.

Zusammengefasst wird es aufgrund der Abstrafungen, inflationellen Abstufung und Neuberechnung mit neuen Features extrem undurchsichtig und für einen Laien kaum noch analysierbar.

Ein ebenfalls interessante Beobachtung sind die Geowerte von Alexa bei den einschlägig bekannten PageRank-Überprüfungstools. Da sieht man zum Beispiel auf der Seite eines englischsprachigen Überprüfungstool eines schwedischen Webmasters, welches mehrere Datencenter gleichzeitig abfragt, ganz klar, dass Deutschland mit Abstand die Nase vor hat. Auch in Sachen Paid-Links ist Deutschland ein Vorreiter und es gab kaum eine pagerank-starke Seite, bei der man nicht irgendwo auch einen gekauften Link eines deutschen Webmasters gefunden hat. Dementsprechend hat das letzte PageRank-Update besonders den deutschen Link-Käufer-Markt anständig aufgemischt.

[Update-2]. Für die Archive: PageRank-Vergabe wurde imho bis ca. 03.10.2007 – 12:00 CET berücksichtigt. Das heisst, alle URLs, welche nach dem 3.10. – 12:00 Uhr erstellt wurden und bis dahin keine sichtbaren Backlinks hatten, wurden bei dem aktuellen Update nicht berücksichtigt. Analysiert anhand von  unterschiedlichen Foren und Blogbeiträgen mit Zeitstempel im Web. Zudem fanden heute (29.10.) einige PR-Korrekturen statt (zB. youtube.com 3 auf 8).

Veröffentlicht unter SEO | 5 Kommentare

Sitelinks über die Google Webmaster Tools blocken

Sehr schön! Jetzt können Websites, welche über Sitelinks verfügen, diese über die Google Webmaster Tools zum Teil selbst bestimmen. Zum Teil bedeutet, dass Google eine Möglichkeit bietet, bestehende Sitelinks, welche einem nicht zusagen zu blocken. Durch das Blocken eines Sitelinks rutscht der nächste Sitelink, welcher vom Google Sitelinks Algo vorgegeben wird, einen Platz weiter nach oben. Dadurch hat man zumindest mal die Chance zwischem einem kleinen Set an Links zu wählen und die wirklich unpassenden Links können so entfernt werden. Auch wurde im neuesten Update die Anzahl der Sitelinlks von 4 auf maximal 8 angehoben.

Wie lang es dauert, bis die Änderungen für die neuen Sitelinks aktiv werden ist noch nicht sicher…Test läuft. [Update]: Laut Google sollte es ca. 1 Woche dauern bis die Links aktualisiert werden.

Interessant ist, dass ein geblockter Sitelink ziemlich genau 3 Monate diesen Status behält, sofern man es nicht manuell wieder abändert. Der Launch dieses Features, der Zyklus der vergangen Updates und die Dauer des Blockstatus eines Links lassen vermuten, dass der Updatezyklus für Sitelinks einer Dauer von ca. 3 Monaten entspricht. Demnach wäre im Oktober ein Update fällig.

Bleibt abzuwarten, wann man auch die entsprechenden Keywords bei denen Sitelinks aktiviert werden selbst steuern kann und wann eine Möglichkeit eingeführt wird, eigene, interne Links für die Sitelinks vorzuschlagen.

Beispiel für 8 Sitelinks:

Yahoo Sitelinks

Veröffentlicht unter SEO | Ein Kommentar

Linkaufbau in Relation zur Thematik

Gibt es eine thematisch abhängige Linkwachstumsrate?

Klar, Projekte, welche den Nutzer aktiv auffordern einen Backlink zu setzen (z.B. PageRank-Dienste, Template-Signaturen, Counter-Services, Webverzeichnisse mit Backlinkpflicht usw.) wachsen von Natur aus völlig anders als Projekte, welche sich "nur" rein redaktionellen Inhalten widmen.

Doch kann man davon eine optimale Wachstumsrate für sein spezielles Projekt ableiten? Linkaufbau ist eines der Kernthemen in der SEO-Welt und oft führt ein unnatürlicher Linkaufbau zum nachteiligen Effekt im Ranking. In Zukunft wird es immer wichtiger eine optimale Linkwachstumsrate für das entsprechende Projekt zu ermitteln.

Um eine natürliche Rate zu ermitteln sollte man sich folgende Fragen stellen:

  • Kann man das Zielpublikum auffordern / einen Anreiz bieten aktiv Backlinks zu setzen oder Badges einzubinden?
    • Sind die gesetzten Backlinks auch themenrelevant?
  • Mitbewerber-Analyse – wie stark wächst mein Mitbewerb, hebt man sich selbst evtl. zu stark im Wachstum ab?
    • Wächst der Mitbewerb evtl. durch eine unnatürliche Strategien schneller als normal?
  • Wie populär ist mein Produkt/Projekt – besteht ein Trend der zu verstärkter Presse oder Verlinkungen führen kann?
  • Wird mein Produkt oder Teile davon im Web verwendet – kann ich eine Backlink-Signatur einführen?
  • Gibt es Regelmäßigkeiten (z.B. Weihnachten, Messen, Ereignisse) bei denen man ein überdurchschnittliches Linkwachstum erwarten kann?

 …ansich alles logische Dinge, die zu einer sinnvollen, thematisch passenden Wachstumsrate führen. Wichtig bei der Durchführung ist die Beständigkeit der Linkaufbau-Maßnahme. Kurzfristig angelegte Kampagnen oder schlecht durchdachte Linkbaits sind meistens nicht nachhaltig und können zu einem negativen Rankingeffekt führen.

Oft reicht eine sehr geringe Anzahl an neuen, fortlaufend gesetzten Links / Monat aus, um sich vom Mitbewerb abzusetzen, da sich die natürliche Wachstumsrate oft nur im einstelligen Bereich bewegt. Webseiten mit redaktionellen Inhalten, welche durch ihre inhaltliche Qualität überzeugen wachsen in einem "normalen" Umfeld häufig schneller als z.B. ein Preisvergleichsdienst – denn wer linkt schon auf ein ständig wechselndes Produkt-Listing?

Doch die Realität ist nicht "normal" und so zeigt es sich, dass gerade im Bereich der Verbraucherportale und Preisvergleichsdienste eine überdurchschnittliche Linkwachstumsrate an der Tagesordnung ist. Eine Analyse der Art der Backlinks solcher Dienste ergibt im Schnitt mehr als 75% künstlich erschaffene Links oder anders gesagt -> nur jeder dritte Link ist ein natürlicher Link. Das heisst, auch mit einer am Mitbewerb angepassten Wachstumsrate ist es nicht ausgeschlossen, dass man unnatürlich wächst und somit sein Ranking auf’s Spiel setzt!

Veröffentlicht unter SEO | 2 Kommentare

Projektkonzept: 80% SEO Traffic = Erfolg?

Die großen Verlagshäuser in Deutschland drängen immer weiter ins Online-Business. Nichts wird ausgelassen, hier ein bisschen Web 2.0, da ein bisschen Preisvergleich und natürlich die klassische Strategie über die Werbefinanzierung. Doch zunehmend bemerkt man, dass bei einem neu aufgesetzten Projekt, welches aus einem Verlagsnetzwerk angelinkt wird, der Traffic aus den organischen Ergebnissen einer Suchmaschine schneller wächst, als man sich das dachte… Schnell überlegt man, wie man diesen Channel weiter optimieren kann, um noch schneller zu wachsen -> SEO.

Doch was entsteht durch eine solche einseitige Strategie? -> Projekte wie vielleicht das Mittelstandswiki, welche in Ihren Mediadaten angeben, dass bis zu 80% des derzeitigen Traffics über Google kommt…

Zitat: Bis zu 80 Prozent aller Besucher erreichen das MittelstandsWiki und seine Journale über die Suchmaschine Google (Quelle: Google Analytics). Quelle.

…und diese 80%, welche nach eigenen Angaben ca. 60.000 PVs entsprechen müssten,  versucht man für Liste 33,- Euro/TKP/468×60 zu verkaufen.

Dagegen stehen die Kosten für die Redaktion, Server & Optimierung…. und nicht zu vergessen das Risiko, dass man von ein auf den anderen Tag aus dem Index von Google fällt und einem dann 80% Traffic abgehen. Die Frage die nun daraus ergibt bezieht sich weniger auf die Rentabilität eines solchen Konzepts als vielmehr auf das Risiko und die Seriosität sowie die Zuverlässigkeit des Traffics die sich aus einer solchen Abhängigkeit ergibt. Seine Besucher vorwiegend aus organischem Google Traffic zu generieren mag für alle Beteiligten nur eher kurzfristig bzw. ergänzend anzusehen sein. Meiner Meinung nach ist ein Projekt, welches auschliesslich auf diesem Pfeiler basiert, langfristig eine wacklige Angelegeneinheit. Sicher gibt es derzeit viele solcher Projekte im Web die nach diesem Business-Modell funktionieren, doch die erfolgreichen Projekte unter Ihnen nutzen den Antrieb aus den Suchmaschinen, um den Besucher nachhaltig zu binden und zu branden, um damit weitere Standbeine zu sichern.

Veröffentlicht unter SEO | 10 Kommentare

Serps im Firefox nur zum Anschauen

…wenn das nicht mal ein Bug ist im FF ist… durch das Leerzeichen (%20) in der URL wird der href in den Serps zerstört und somit nicht mehr klickbar. Funktionierte bei mir nur im Firefox 2.0.0.7

Veröffentlicht unter Misc | 2 Kommentare

Google Trends jetzt mit tagesaktuellen Werten

Seit gestern gibt es die Keywordtrends von Google im 24 Stunden Takt. In der Vergangenheit hinkten die Trend-Charts von Google immer der Zeit hinterher. Eine Verzögerung von bis zu 6 Wochen galt als "normal". Doch das ist nun Geschichte, seit dem 24.09.2007 werden die Suchwort-Trends im Tagesrhythmus aktualisiert. Aktuelle Produkt-Launches oder regionale News-Events können nun wunderbar verfolgt und in kürzester Zeit ausgewertet werden.

Ein weiterer Vorteil des rasanten Updates dieser Werte ist eine verbesserte Keyword-Recherche, da zu den meisten Events einen gewisser Vorlauf von Branchen-Insidern existiert und man bereits in einem frühen Stadium ein Such-Rauschen erkennen kann.

Google Hottrends – Suchtrends auf Stundenbasis – gibt es leider von Google noch nicht für den deutschsprachigen Markt. Allerdings lässt der Länderhinweis (USA) darauf deuten, dass man in absehbarer Zeit auch diese Trends weiter lokalisieren wird.

Veröffentlicht unter Trendbarometer | 4 Kommentare

Yigg nich

Gerade höre ich mir den aktuellen Podcast von SEO FM an und was muss ich feststellen…!?!… eine IP Sperre wurde vor den User Login von Yigg gepflanzt -> 🙁

Es erscheint die Meldung:

Signup Error
The use of this website as registered user is limited to Germany, Austria, Luxemburg, Switzerland and Liechtenstein.
Questions? write to staff@yigg.de

 

Angestellte von großen Companies wie Siemens, GE oder Cisco, welche über UK oder US Proxies surfen (müssen) haben also keine Chance den Yigg-Diesnt zu nutzen…

Ok, dann halt nich! Nehmen wir eben Webnews 😀

 

Veröffentlicht unter Tratsch | Kommentare deaktiviert für Yigg nich

Suchen im TV & Radio – Bild v.s. Text

Spracherkennung, Transcripts, Dialekte verstehen… Dinge die in Zukunft immer wichtiger werden, wenn Videos, IPTV, Audio-Streams und andere Rich-Media Spielerein das Web überfluten. Jede Menge Content, welcher "duchsuchbar" gemacht werden muss, da ihn sonst kein Mensch findet. Persönlich stehe ich bei der Aussage…:

"Hochwertiger Rich-Media Content, welcher nicht in den Suchmaschinen auftaucht ist besser als minderwertiger Text-Content, welcher gefunden werden kann."

…auf der Seite des Text-Contents. Zumindest in der Hinsicht, dass es ohne diesen Content derzeit noch nicht geht und man diese Art Content zwangsläufig benötigt, um die Suche zu füttern, damit man für seinen hochwertigen Rich-Media Content auch die notwenidge Aufmerksamkeit erzeugt. Es sei denn, man bedient sich der von den Suchmaschinen bevorzugten Plattformen wie Youtube, Yahoo! Video oder Ähnlichen, um seinen Video-Content, herausgerissen aus dem ursprünglichen Kontext, für die Suchmaschinen auffindbar zu machen. Diese Lösung ist jedoch nicht zufriedenstellend, da man sich in ein Abhängigkeit der jeweiligen Plattform begibt und zudem den meist teuren und hochwertigen Content aus seinem Umfeld reisst.

Dazu ein Beispiel: Ein Filmproduzent setzt eine Website zu seinem Film auf und zeigt auf dieser Website den Trailer zum Film. Dieser Trailer muss nun, um in den Universal Serch mit einzufliessen, zwangsläufig aus der Filmseite herausgerissen werden und auf einem dieser Videoportale eingestellt werden. Damit wird der Trailer aus seinem Umfeld gerissen. In dem Fall bestimmt also das Format "Video" das neue Umfeld.

Eine grundlegende Aussage im Bezug auf die Zuordnung von Inhalten besagt: Thema vor Form und genau dieser Grundregel widersprechen die unzähligen Videoportale.

Ansich ist dieser Trend nur ein Eingeständnis dafür, dass die Technologie noch nicht den Ansprüchen dieser Inhalte entspricht. Den Spagat zwischen Text & Bild wird man noch solange weiterführen müssen, bis die Crawler dieser Welt in der Lage sind auch die eigentlichen Inhalte der Videos und Streams zu analysieren und zu verstehen. Einen guten Ansatz bietet da zum Beispiel die Suchmaschine Spactor, eine MediaClipping Produktion, welche die gescannten Daten aus TV und Radio für den Endverbraucher durchsuchbar macht. Zwar liegt der Fokus dieser Suche nicht auf dem Finden von Informationen, sondern nur auf dem Finden von Nennungen eines bestimmten Begriffs, um dessen Medienwirksamkeit zu messen…allerdings ist dies ein guter Ansatz in Richtung Tierfenanalyse von Video und Audio-Content. Der Knackpunkt bei dieser Suche liegt in der automatisierten Spracherkennung und deren digitaler Umwandlung. Gerade bei Eigennamen erkennt man in der dieser Beta-Suche recht gut, dass diese Spracherkennung noch in den Kinderschuhen steckt und oft schnelle, undeutliche oder dialektische Aussagen falsch ausgewertet werden. Nachdem MediaClipping nun erfolgreich die zweite Finanzierungsrunde überstanden hat, darf man gespannt sein, wie sich die Technologie in dieser Richtung entwickelt. Meiner Auffassung nach eine dringend notwendige Technologie im heutigen Web 2.0.

 

Veröffentlicht unter SEO | Ein Kommentar

Erweiterte Suche in Gmail

Einer der Gründe warum ich persönlich Gmail bevorzuge ist die Suchfunktion. Die Suche innerhalb eines großen Mailvolumens performant zu halten ist eine Herausforderung an der viele Webmail-Anbieter noch heute zu knabbern haben. Bei GMX zum Beispiel werde ich jedes mal bis zu 15 Minuten vertröstet, bis denn dann mal der Suchindex für meine Mails erstellt wurde und ich ein Ergebnis geliefert bekomme. Ich bin zwar schon heil froh, dass GMX nach ettlichen Jahren überhaupt eine Suchfunktion eingebaut hat, doch diese zeitverzögerte Suche ist schlicht unbrauchbar, da man im normalen Tagesablauf nicht die Zeit hat bis zu 15 Minuten zu warten, nur für eine Suche, die mir dann sagt "leider nicht gefunden…".  Gmail hingegen nutzt das Know-How und die Technologie der bekannten Suche, um die Mails schnell und präzise zu finden. Doch das eigentlich Interessante innerhalb der Gmailsuche ist meiner Erachtens die erweiterte Suche von Gmail. Diese lässt verschiedene Operatoren zu, die zum Beispiel auch das labeln einer größeren Anzahl von Mails im Nachhinein extrem einfach macht. Zu den speziellen Operatoren gehören zum Beispiel die bekannten Felder aus dem Mail-Header from:, to:, subject, cc: oder bcc. Eine ausführliche Liste der spezifischen Suchoperatoren findet man auf den Seiten des Google Supports.

Veröffentlicht unter Misc | 2 Kommentare

Google indexiert sich mal wieder selbst

Diesmal werden verschiedene Google Queries über eine .edu Domain wieder in den Index aufgenommen. Und das Dillema ist perfekt, wenn dann ein Suchpartner wie CNN als Linkspender für diese Queries dient. Dieser Edu-Mirror wird als "text only" Version mit der Software von Useablenet betrieben und wird direkt von der Startseite der Homepage der Universitäten des US Bundesstaates Georgia angelinkt und dient mit Sicherheit nur zur Betrachtung einer barrierefreien Version der Website. Dass dieser Mirror auch dazu verwendet werden kann, komplette Website zu in den Google Serps zu hijacken, ist den Betreibern sicher so nicht bewusst. Zudem hat es den Anschein, als würde man nur eine Demo-Version oder Edu-Version von Lift Assistive einsetzen, da hin und wieder und meistens bei nicht edu Hosts das Surfen über diesen "text-only" Modus unterbrochen wird und die Software von Usablenet darauf hinweisst, dass, wenn man weitersurfen will, die kostenlose Trail-Version nutzen kann. Diese Trail-Version beinhaltet dann Werbeeinblendungen.

Veröffentlicht unter SEO | Kommentare deaktiviert für Google indexiert sich mal wieder selbst