Mały opis, co poddaję badaniom. Na mojej stronie poświęconej grafice komputerowej mam taki zbiór małych prac graficznych, nazwałem sobie go Morceau – po fr. kawałeczki. Tych kawałeczków jest jednak aż 500 sztuk. Są rozbite na 10 podstron, po 50 grafik, w nazwach podstron są liczby 50, 100, 150, …500. Jeśli aktualizuję, a zdarza się to częściej jak raz na miesiąc, dodaję coś na pierwszej stronie, a to co było spada na następne strony. Zatem jak coś aktualizuję to tego samego dnia na wszystkich podstronach.
| Data | strona WWW | Działanie |
| 17.IX | 350 | |
| 16.IX | mapa strony | |
| 15.IX | 150 | |
| 13.IX | 400 | |
| 13.IX | 500 | |
| 12.IX | aktualizacja | |
| 5.IX | 450 | |
| 3.IX | 300 | |
| 2.IX | 50 | |
| 30.VIII | aktualizacja | |
| 28.VIII | 250 | |
| 10.VIII | 100 | |
| 11.VII | 200 | |
| 13.V | najdawniej zaktualizowana w całym serwisie |
Wnioski.
- Różnica między datami indeksacji to troszkę więcej jak 2 miesiące, mimo ze daty aktualizacji są te same.
- Nie ma związku między indeksacją, a statystykami odwiedzin.
- Nie ma sensu robić aktualizacji częściej jak co 1,5-2 miesiące.
- I warto za 2 miesiące zrobić ponowne takie badanie, wtedy więcej będzie widać, sposób działania robotów indeksujących Googla. Dziś mamy 18.IX więc ustawiam alarm na 18.XI.
Minęło 2 miesiące, kontynuuje badanie
| Data | strona WWW | Działanie |
| 13.XI | 400 | |
| 7.XI | mapa strony | |
| 6 XI | 50 | |
| 3.XI | 500 | |
| 3.XI | 450 | |
| 2.XI | 250 | |
| 2.XI | 100 | |
| 30.X | 150 | |
| 27.X | 350 | |
| 20.X | 300 | |
| 7.X | aktualizacja |
Wnioski.
- W ciągu 2 miesięcy zostało zindeksowane na nowo, czyli potwierdza się poprzedni wniosek
- Kolejność indeksowania mniej więcej powtarza poprzednią sekwencję
- wyjątek strona 200 czemuś nielubiana, nie zindeksowana od 4 miesięcy. Chciałbym znać odpowiedź czemu jak wszystkie podobnej budowy, to ta gorsza wg Googla