Quais são os problemas com os identificadores de sessões em URLs?
As sessões são muito práticas, até mesmo essenciais, em muitos casos (rastreamento de publicidade...). No entanto, quando os seus identificadores são usados em URLs, isso representa um grande problema.
A cada nova visita, uma nova sessão é iniciada, um parâmetro contendo o documento de identificação da sessão é adicionada a cada URL. O conteúdo do site não muda, é claro.
Portanto, potencialmente, obtemos milhares de URLs diferentes para o mesmo conteúdo. A cada visita, os mecanismos de pesquisa continuarão encontrando novas URLs, representando, assim, tantas duplicações.
Cada vez mais, os mecanismos que não queiram encher os seus servidores com dados idênticos (o famoso «conteúdo duplicado») estão limpando e perdendo cada vez menos tempo para penetrar na arquitetura do seu site, se esse último não for «Google-friendly».
Uma das regras de ouro para se lembrar é a seguinte:
Um conteúdo - uma URL (indexada)
Existem diversas soluções de contornar esse problema:
- Não use a URL para memorizar sessões, preferir cookies (não depositáveis em robôs).
- Não crie uma sessão para os mecanismos.
- Somente abrir uma sessão quando o visitante (no seu espaço privado, sem referenciador) se conectar e não a partir da primeira exibição.
- Alterar o comportamento da URL do seu site se um robô for detetado (cloaking ou camuflagem)
- De acordo com os servidores IIS (Microsoft), o problema às vezes pode ser resolvido diretamente, configurando-o corretamente. Mas cuidado e testes são essenciais!