Google er for dårlig, i følge «søkeekspert Roar Eriksen» og Digi.
Google har nemlig ikke indeksert hele Webben. Nå er det vel egentlig aldri noen som har gjort det, da – og det er neppe mulig, webben forandrer seg for fort til det. Eksperten tipper at Google kun finner «60% av informasjonen som er lagt ut på Internett» (jeg regner med han mener webben), og dette er for dårlig, mener eksperten. På tross av at absolutt ingen gjør det bedre.
Men det som er mer interessant, er den videre argumentasjonen:
Googles spider (nettside-innsamler) imponerer lite selv om den er desidert blant de beste i markedet. Den stopper opp på sider som man må velge gjennom Javascript-menyer. Det samme gjelder Flash-sider og den er heller ikke perfekt når den møter sider med frames. Alt dette gjør at den ikke kommer videre og går glipp altså av veldig mye.
Her bommer eksperten totalt, etter min virkelighetsoppfatning. Sider med all navigasjon pakket inn i javascript eller all informasjon presentert som Flash, vil selvfølgelig ikke indekseres av Google. Det er en av de viktigste grunnene til at man aldri skal lage slike sider dersom de er tenkt for Internett. Flash og Javascript er tillegg til *ML-koding av websider, informasjonen på WWW skal være tilgjengelig med en webbrowser som støtter oppmerkingsspråkene som er standarisert for dette. Flash er forøvrig et proprietært format med sterk fokus på grafikk, og det vil nok ikke være problemfritt å indeksere dette.
Videre nevnes rammer. Og igjen, der eksperten ser et problem med Google, har stort sett alle seriøse aktører i bransjen for lengst sett problemet med rammer. Rammer bryter en-til-en-relasjonen mellom ressurs og URL, og vil derfor alltid gi søkeroboter problemer. Spesifikasjonen for rammer har «noframes»-taggen som løsning på dette, men den blir bare sporadisk brukt på en riktig måte (tips: Prøv dette søket …).
Problemet er altså slik jeg ser det, ikke at all verdens nettside-innsamlere er for dårlige. Disse forholder seg så langt jeg har kunnet bedømme meget godt til de relevante spesifikasjonene. Problemene er at websidene ikke gjør det. Så, istedet for å prøve å få alle spidere til å forstå alle feil – noe som fremstår omtrent som definisjonen av en Sisyfosarbeid – bør man heller jobbe for å få webutviklere til å følge standardene. Det er slettes ikke umulig, og jeg kan ikke se en eneste grunn til at man ikke skal gjøre dette.
Men det er klart – det blir mindre penger på innleide søke-konsulenter på denne måten 🙂