Google har da intet imod urls med get-variabler, og da msn nærmest er en kopi, tror jeg heller ikke den brokker sig. Hvad skulle det så være godt for?
Søgemaskiner gør alt for at indeksere hjemmesiderne bedst muligt, og der er ret mange sider, som fungerer med getvariabler (udv.dk for eksempel), så det ville jo være dumt af søgemaskinerne at udelukke dem.
Fra Google selv:
We're able to index dynamically generated pages. However, because our web crawler could overwhelm and crash sites that serve dynamic content, we limit the number of dynamic pages we index. In addition, our crawlers may suspect that a URL with many dynamic parameters might be the same page as another URL with different parameters. For that reason, we recommend using fewer parameters if possible. Typically, URLs with 1-2 parameters are more easily crawlable than those with many parameters.
Men - jeg anser det stadigvæk for at være irrelevant, da jeg formoder ZachariasDks mål, med at undgå de 'rigtige' URL'er fungerede, var at søgemaskinerne ikke skulle indeksere samme side to gange. Lad mig skære det ud i pap, så godt som jeg nu formår: Når han i forvejen havde læsevenlige URL'er, er det jo ikke ligefrem sådanne han får ud af at 'deaktivere' de 'rigtige' URL'er. Han sikrer sig blot at de læse- og søgemaskinevenlige URL'er altid bliver brugt, hvilket - om noget - er til gavn for søgemaskiner, og måske eksterne links til siden (plus som sagt muligvis sikkerheden, hvis det hjælper til at holde sitets struktur skjult; ser dog ikke ud til at være ideen i dette tilfælde).
Og forresten vil jeg gætte på dit løsningsforslag ikke hjælper meget, selvom jeg ikke har gidet afprøve det, da det velsagtens bare ændrer problemet til at være
http://domæne/nyheder?id=10 der fungerer i stedet?! Så er man jo lige vidt.
----
Weblog:
http://skalske.dk