Probleme bei Suchmaschinen: Unterschied zwischen den Versionen
Janik (Diskussion | Beiträge) |
Janik (Diskussion | Beiträge) |
||
Zeile 13: | Zeile 13: | ||
==Die Internetseite ist zu versteckt== | ==Die Internetseite ist zu versteckt== | ||
Sehr umfangreiche Internetseiten besitzen oft eine sehr tiefe Hierarchie. Die Suchmaschinen-Crawler dringen aber nicht immer bis in die tiefsten Ebenen einer Internetseite vor und so bleiben einige Seiten verborgen, auch wenn ein Link auf die Seite führt. | Sehr umfangreiche Internetseiten besitzen oft eine sehr tiefe Hierarchie. Die Suchmaschinen-Crawler dringen aber nicht immer bis in die tiefsten Ebenen einer Internetseite vor und so bleiben einige Seiten verborgen, auch wenn ein Link auf die Seite führt. | ||
+ | |||
+ | ==Die Internetseite ist zu aktuell== | ||
+ | Ist die Internetseite sehr aktuell, kann sie nach ein paar Stunden schon wieder veraltet sein (Börsenkurse, Wetterbericht, aktuelle Nachrichten). Suchmaschinen brauchen aber in der Regel mehrere Tage, um eine Internetseite zu indexieren, damit die Seite auch auffindbar ist. Deshalb bleibt dieser Bereich auch unsichtbar. <br /> | ||
+ | Viele Webseiten werden häufig aktualisiert, was die Suchmaschinen zwingt, diese Seiten nach definierbaren Regeln (Robots) immer wieder zu besuchen. Dieses ist auch notwendig, um zwischenzeitlich aus der Datenbasis entfernte Dokumente zu erkennen und nicht länger als Ergebnis anzubieten. Das regelmäßige Herunterladen der mehreren Milliarden Dokumente, die eine Suchmaschine im Index hat, stellt große Anforderungen an die Netzwerkressourcen (Traffic) des Suchmaschinenbetreibers, | ||
+ | |||
+ | ==Spam== | ||
+ | Mittels Suchmaschinen-Spamming versuchen manche Website-Betreiber, den Ranking-Algorithmus der Suchmaschinen zu überlisten, um eine bessere Platzierung für gewisse Suchanfragen zu bekommen. Sowohl den Betreibern der Suchmaschine als auch deren Kunden schadet dieses, da nun nicht mehr die relevantesten Dokumente zuerst angezeigt werden. |
Version vom 13. Dezember 2008, 00:50 Uhr
Suchmaschinen müssen auch mit verschiedenen Problemen fertig werden, die nicht immer ohne weiteres überwunden werden können. Auch mit optimalen Suchstrategien lassen sich niemals alle relevanten Internetseiten auffinden, denn es gibt einige Grenzen in den Suchmaschinen. Keine Suchmaschine kennt alle Seiten, die es im Internet gibt.
Inhaltsverzeichnis
Mehrdeutigkeit
Suchmaschinen können nicht selbständig entscheiden welcher Begriff wirklich gesucht werden soll. Mann sollte auch immer Synonyme mit eingeben, damit der richtige Begriff gefunden wird.
Satzzeichen
Fachbegriffe und Produktbezeichnungen zu deren Eigennamen ein Satzzeichen gehört, können nicht effektiv gesucht und gefunden werden.
Auf die Internetseite führt kein Link
Es können nur Internetseiten indexiert werden, die über einen Link auch erreichbar sind. Gibt es keinen Link auf die Internetseite, kann sie auch nicht indexiert werden, landet nicht im Index der Suchmaschinen und ist bei der Suche in dieser Suchmaschine nicht auffindbar.
Die Internetseite ist zu versteckt
Sehr umfangreiche Internetseiten besitzen oft eine sehr tiefe Hierarchie. Die Suchmaschinen-Crawler dringen aber nicht immer bis in die tiefsten Ebenen einer Internetseite vor und so bleiben einige Seiten verborgen, auch wenn ein Link auf die Seite führt.
Die Internetseite ist zu aktuell
Ist die Internetseite sehr aktuell, kann sie nach ein paar Stunden schon wieder veraltet sein (Börsenkurse, Wetterbericht, aktuelle Nachrichten). Suchmaschinen brauchen aber in der Regel mehrere Tage, um eine Internetseite zu indexieren, damit die Seite auch auffindbar ist. Deshalb bleibt dieser Bereich auch unsichtbar.
Viele Webseiten werden häufig aktualisiert, was die Suchmaschinen zwingt, diese Seiten nach definierbaren Regeln (Robots) immer wieder zu besuchen. Dieses ist auch notwendig, um zwischenzeitlich aus der Datenbasis entfernte Dokumente zu erkennen und nicht länger als Ergebnis anzubieten. Das regelmäßige Herunterladen der mehreren Milliarden Dokumente, die eine Suchmaschine im Index hat, stellt große Anforderungen an die Netzwerkressourcen (Traffic) des Suchmaschinenbetreibers,
Spam
Mittels Suchmaschinen-Spamming versuchen manche Website-Betreiber, den Ranking-Algorithmus der Suchmaschinen zu überlisten, um eine bessere Platzierung für gewisse Suchanfragen zu bekommen. Sowohl den Betreibern der Suchmaschine als auch deren Kunden schadet dieses, da nun nicht mehr die relevantesten Dokumente zuerst angezeigt werden.