Zdravím,
- pro crawlování používáme Xenu (hledá neplatné linky apod).
- pro hledání zátěže logujeme časy jednotlivých stránek podle uživatelů.
Pak víme jak často se které URL volá.
Takže lze pak použít jen wget a sosat navštívené URL uživateli.
On problém simulování je, že některé stránky uživate
Zdravím konferenci,
Mám dynamické webové stránky a potřeboval bych nějaký nástroj, který by mi
1) prošel dle odkazů postupně všechny stránky z dané cesty (např.
localhost:80/mojestranky)
2) simuloval zátěž na serveru,... 10, 100 připojených uživatelů
3) spočítal propustnost serveru, průměrné a m