Hallo kann es sein, wenn man die Robots.txt so wie ich :
User-agent: *
Disallow:
erstellt habe das ich zu viele Interne Links habe? denn ich habe eine menge an interne Links und ich gehe davon aus das Google mich deshalb abgestraft hat. Wie würde den eine optimale txt datei aussehen?