Ceo problem SEO optimizacije je resen pravilnom upotrebom ajax poziva, kao i 'javascript sajtova' kako ih ti nazivas. To sto je tebi bilo daleko lakse da tako pravis sajt, ne znaci da je sad to defakto standard rada pa ce sad da search engini prave poseban algoritam zbog 5 sajta koje ljudi imaju napravljene komplet (da ne kazem neispravno) u JSu.
Ako malo razmislis o poenti SEO sadrzaja, kad se budes detaljnije pozabavio SEO mogucnostima, kako bi google linkovao ka tvom sadrzaju onda? stavio link ka home uz koji bi dopisao i sve tvoje JS funkcije koje bi browser pozivao kad dodje na tvoj sajt, a sve to iz url-a ili kako? Sad je to i nedostatak browsera sto ne mogu da prate sta je tvoj sajt zamislio da se desi kad odes na neku stranu sa googla?
Ako pogledas samu poentu JS jezika, ona nije da se prave celi sajtovi u jednoj stranici. To sto ti imas 200 strana koje trebas da linkujes i pravis nije problem kolicine, vec nepromisljene organizacije aplikacije. Svaki sajt sa iole vecim brojem stranica je ili dinamicki ili ima html templejte da ih tako nazovem.
Mogu da se kladim da ne postoje 20 sajtova 'out-there' koji imaju potrebu da imaju sve u JS i da pritom svaka strana i link bude optimizovana za SEO.
Sledece bi se postavilo pitanje, a sto ne pretrazuju flesh sadrzaj, a sledeci korak bi najverovatnije bio (posto je sad brz internet mnogo dostupniji) a sto pa uopste HTML, mozemo samo iz fotoshopa nacrtati sta nam treba, mapirati linkove i sve super radi i izgleda, to se ucita ocas posla na jacim vezama.
Na kraju krajeva, treba nekad poci i od toga zasto SVI pretrazivaci na manje-vise isti nacin indeksiraju sadrzaj stranica, i nikom do sada nije palo napamet da napise takav algoritam koj prati takav sadrzaj, a toliko pametnih ljudi u tim firmama. Sigurno je nekom palo napamet.