gelöschter Benutzer

Tool zum PR-Check aller Sites einer Domain

am 03.04.2010, 10:34 Uhr eröffnete folgenden Thread
Google    3813 mal gelesen    21 Antwort(en).

Kennt jemand ein gutes Tool mit dem man alle Seiten einer Domain nach dem PageRank durchchecken kann?

Gruß,
Claudio.


seitenreport
Avatar seitenreport
Inhaber
TYPO3 Senior Developer
Content Gott (1772 Beiträge)
am 03.04.2010, 10:46 Uhr schrieb seitenreport

Passe schrieb:

Kennt jemand ein gutes Tool mit dem man alle Seiten einer Domain nach dem PageRank durchchecken kann?

Gruß,
Claudio.


z.B. mit dem kostenlosen PaRaMeter von Cleverstat:

www.cleverstat.com/de/page-rank-software.htm



Gruß,
Matthias


SEO Analyse und Website-Check mit Seitenreport

der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 03.04.2010, 10:52 Uhr schrieb der_booker

Ich mache das immer bei www.slavssoft.ru mit einer sitemap.xml. Nachteil ist eben, dass die ein Limit eingebaut haben, doch mit mehreren sitemaps, hat man keine Probleme.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com


gelöschter Benutzer
am 03.04.2010, 11:37 Uhr schrieb

seitenreport schrieb:

Passe schrieb:

Kennt jemand ein gutes Tool mit dem man alle Seiten einer Domain nach dem PageRank durchchecken kann?

Gruß,
Claudio.


z.B. mit dem kostenlosen PaRaMeter von Cleverstat:

www.cleverstat.com/de/page-rank-software.htm



Gruß,
Matthias



Super, das hat auch eine Importfunktion. :thumbup:

Gruß,
Claudio.



gelöschter Benutzer
am 03.04.2010, 13:03 Uhr schrieb

ui, das ist ja wirklich ein nettes kleines Tool, gefällt mir sehr.


der_booker
Foren Moderator
selbständig
(2762 Beiträge)
am 03.04.2010, 13:58 Uhr schrieb der_booker

Ja, das Tool kan richtig was. Bin weg von Slavssoft und arbeite nun auch mit dem kleinen Tool. Vorteil ist, wie schon von Claudio gesagt, dass es eine Importfunktion besitzt und dass man seine Seiten so verwalten kann, wie man will. Super nettes Ding.
Danke Matthias.


Heiko Jendreck
personal helpdesk
http://www.phw-jendreck.de
http://www.seo-labor.com

klaus_b
Avatar klaus_b
Er ernährt mich ;-)
Content Meister (328 Beiträge)
am 03.04.2010, 14:31 Uhr schrieb klaus_b

der_booker schrieb:
Vorteil ist, wie schon von Claudio gesagt, dass es eine Importfunktion besitzt und dass man seine Seiten so verwalten kann, wie man will.

Noch besser als der Import, gefällt mir die Funktion Extract URLs. Du gibst die Start-URL an und bekommst sämtliche URLs bis zur angegebenen Tiefe zurück.
Dann auf den Speichern-Button gedrückt und du hast alle URLs im Fenster für das Monitoring.
Sehr gute Usability.

Servus,
Klaus


klaus_b@.NET über alles was an .NET und C# Spass macht.

Infidel
Avatar Infidel
Webdesigner
Guru (122 Beiträge)
am 03.04.2010, 15:14 Uhr schrieb Infidel

Wirklich ein feines Tool!

Dabei fällt mir auf, dass Goo ein paar meiner Einzelseiten gar nicht bewertet hat. Einige davon haben bessere Stats als andere, die einen PR bekommen haben - weiß jemand, woran das liegen kann? Backlinks kann ich schonmal ausschließen, interne Verlinkung ist auch quasi identisch.


Die Begrenzung deiner Sprache ist die Begrenzung deiner Welt.
Ludwig Wittgenstein

http://www.design-72.de Webdesign


gelöschter Benutzer
am 03.04.2010, 16:02 Uhr schrieb

klaus_b schrieb:

der_booker schrieb:
Vorteil ist, wie schon von Claudio gesagt, dass es eine Importfunktion besitzt und dass man seine Seiten so verwalten kann, wie man will.

Noch besser als der Import, gefällt mir die Funktion Extract URLs. Du gibst die Start-URL an und bekommst sämtliche URLs bis zur angegebenen Tiefe zurück.
Dann auf den Speichern-Button gedrückt und du hast alle URLs im Fenster für das Monitoring.
Sehr gute Usability.

Servus,
Klaus



Gut das du´s sagst! Ich Blindfisch war gerade dabei die wichtigen Unterseiten einzeln einzutragen

Schönes Tool, dankeschön!



gelöschter Benutzer
am 03.04.2010, 16:03 Uhr schrieb

klaus_b schrieb:

der_booker schrieb:
Vorteil ist, wie schon von Claudio gesagt, dass es eine Importfunktion besitzt und dass man seine Seiten so verwalten kann, wie man will.

Noch besser als der Import, gefällt mir die Funktion Extract URLs. Du gibst die Start-URL an und bekommst sämtliche URLs bis zur angegebenen Tiefe zurück.
Dann auf den Speichern-Button gedrückt und du hast alle URLs im Fenster für das Monitoring.
Sehr gute Usability.

Servus,
Klaus



Im Grunde schon, nur ist hier das Problem, dass er alle Seiten verfolgt, auch solche die aus einem Kalender oder einer Tag-Cloud erzeugt werden - derzeit bin ich bei 20.000 und das Teil hört nicht auf...


Gruß,
Claudio.


klaus_b
Avatar klaus_b
Er ernährt mich ;-)
Content Meister (328 Beiträge)
am 03.04.2010, 16:21 Uhr schrieb klaus_b

Passe schrieb:
<snip>
- derzeit bin ich bei 20.000 und das Teil hört nicht auf...

Dafür gibt es die Angabe der Linktiefe, über die man vorher sehr gur nachdenken sollte

Servus,
Klaus


klaus_b@.NET über alles was an .NET und C# Spass macht.



« zurück zu: Google

Das Seitenreport Forum hat aktuell 5274 Themen und 36108 Beiträge.
Insgesamt sind 48346 Mitglieder registriert.