Arquivos de August, 2008

Todo mundo sabe SEO: questione

Assistindo uma apresentação do Páris Neto, ele fez uma analogia muito interessante entre web analytics e sexo. Em ambos, muita gente diz que já está fazendo, que faz bem e que entende muito do assunto, mas na verdade o povo só fala que faz. Fazer direito mesmo, poucos.

O Marcelo Sant’Iago twittou a mesma coisa, agora associando a SEO. Eu já vinha pensando nisto, principalmente com a explosão de empresas que prestam serviço SEO no Brasil. Claro que SEO não é ciência para foguetes (tá, algumas vezes é), mas não é por que você colocou o título da página entupido de palavras é que você sabe SEO.

Só para deixar mais claro, existe o que podemos chamar de SEO básico. Ele ficaria naquela parte de “crie títulos e meta tags descritivos” e “cadastre em diretórios”. Típico artigo reescrito e traduzido em diferentes formas. Vale lembrar que isto já garante resultado em mercados pouco competitivos, mas mesmo no SEO básico tem gente que faz as coisas sem nem entender o que está fazendo. A pessoa leu um artigo com algo que funcionava antes do Florida Update e continua fazendo até hoje. Simplesmente por que foi escrito e não por que foi testado.

A proposta que faço aos leitores é questionar a informação. Inclusive a que eu passo aqui no site. Se eu digo que sites em vermelho são melhores para SEO, questione o porquê. O pensamento crítico é importante para quebrar paradigmas e destruir mitos. Continuo pregando que SEO é associar as boas práticas ao seu site e facilitar a vida do seu público. Se você leu em uma revista ou livro que colocar uma imagem transparente de 1 pixel por um 1 pixel usando o atributo alt cheio de palavras-chave é o que há de melhor em SEO, pare um minuto e questione isto. Com esta atitude você pode evitar uma bela punição.

Pretendo desdobrar este assunto em outros posts. Para ter uma idéia o questionamento é apenas uma das facetas.

Comentários (21)

Google Search Masters 2008 Brasil

O Pedro Dias divulgou e eu aproveito para aumentar a divulgação. Acontecerá dia 24 de setembro em São Paulo o Google Search Masters 2008. O Motivo do evento como o próprio site afirma, é mostrar a você, webmaster, ferramentas e recursos que o Google oferece para elevar o seu site a outro nível.

Serão sessões interativas para aproveitar o máximo da Central do Webmaster, Webmasters Tools e vários outros recursos. Além do Pedro, os outros palestrantes serão Alexandre Hohagen, Adam Lasnik, Rajat Mukherjee, Ben D’Angelo, Francisco Gioielli e Daniel Loreto. Quem acompanha o mercado de search já sabe o que esperar. Parabéns ao Google por promover um evento deste tipo. Ainda mais por ser gratuito.

Dica útil: corra pois as vagas são limitadas.

Comentários (19)

Resultado do SMX São Paolo

Terminou o SMX São Paolo e você vai poder conferir a cobertura dele pelo site Busca Diária.  Lá estarão as fotos do Flickr, principais twittadas e cobertura de diversos blogs.

Como algumas pessoas no evento perguntaram, o curso de Otimização de Sites em São Paulo será nos dias 23 e 24 deste mês. Soube inclusive que alguns palestrantes citaram.

Quanto a minha cobertura do SMX, vou evitar conteúdo duplicado e sugiro o post do Bruno Torres. Só acrescento que tem palestrantes muito fracos (eles gereciam um setor de SEM?) e outros fortes que podiam ser explorados.

Comentários (8)

Seminário Internacional de Web Analytics

A área de Web Analytics é muito importante para a Web e complementa perfeitamente o Marketing de Busca, pois precisamos medir o resultado de uma campanha, verificar o ROI de uma peça ou analisar o comportamento do visitante no site para facilitar a tomada de decisão.

Então aí vai uma boa notícia. Acontecerá em São Paulo (12/08), no Distrito Federal (13/08) e no Rio de Janeiro (14/08) o Seminário Internacional de Web Analytics. Além de falar de Web Analytics, terão tópicos como Web 2.0, buscas e cases. O evento conta também com Colby Cavanaugh, Sean Browning e Virginia Carcavallo como palestrantes.

Outra boa notícia é que os leitores do Marketing de Busca tem um grande desconto. Na inscrição, informe o código MKTBUSCA, que deverá ser digitado no campo “código promocional”. O desconto concedido será de 50% (o valor será R$ 400). Este código pode ser passado aos seus amigos ou divulgado em seu site ou blog.

Participarei do evento do Rio de Janeiro e se você aparecer por lá, me pare para um olá.

Comentários (4)

HTTP Headers – o cabeçalho oculto

Em uma simples visita a uma página, muita gente não tem noção de quantos processos acontecem até a sua página ser totalmente carregada. Cada página, imagem e CSS gera uma requisição por parte do navegador ao servidor de um site. Esta conversa é feita com o protocolo HTTP. Um robô de busca também usa o mesmo protocolo para se comunicar e varrer um site. Esta conversa fica oculta aos nossos olhos, mas ela é importante para SEO. A conversa acontece pelo cabeçalho HTTP. Ele tem a parte de requisição que é feita pelo user-agent ao host e tem a parte da resposta que é a mensagem retornada referente a requisição com um código de status. Vamos ver um pouco o processo.

Requisição HTTP

Quando você digita uma URL no seu navegador e aperta enter, sem você ter noção, o navegador faz um pedido ao servidor que responde a solicitação. Veja abaixo um exemplo de requisição ao servidor:

GET / HTTP/1.1
Host: www.marketingdebusca.com.br
Connection: close
User-Agent: Googlebot/2.1 (+http://www.googlebot.com/bot.html)
Accept-Encoding: gzip
Accept-Charset: ISO-8859-1,UTF-8;q=0.7,*;q=0.7
Cache-Control: no
Accept-Language: de,en;q=0.7,en-us;q=0.3
Referer:

Neste exemplo o pedido é feito pelo método GET para o host (URL) marketing de busca pelo user-agent Googlebot. No lugar do User-Agent Googlebot poderia ser o Internet Explorer, o Firefox ou qualquer programa que você inventar. É possível informar um User-Agent sem confirmar se ele é realmente é verdadeiro. Isto serve para identificar se um servidor está passando páginas para os Robô de busca diferentes das páginas para os usuários. O servidor pode inclusive apresentar conteúdo diferente baseado no User-Agent. Esta é uma técnica comum de Black Hat SEO onde o criador da página pode apresentar apenas para o Googlebot um página otimizada enquanto os outros visitantes recebem uma página diferente como Flash por exemplo.

Resposta HTTP

A requisição HTTP que fizemos acima, gera uma resposta do servidor. Veja um exemplo de resposta à requisição:

HTTP/1.1 200 OK
Date: Wed, 30 Jul 2008 19:41:57 GMT
Server: Apache/1.3.37 (Unix) mod_throttle/3.1.2 ...
X-Pingback: http://www.marketingdebusca.com.br/xmlrpc.php
X-Powered-By: PHP/5.2.6
Connection: close
Content-Type: text/html; charset=UTF-8
Content-Encoding: gzip
Content-Length: 9631

Está é a resposta HTTP. A primeira linha tem um código. Neste caso é o código 200. Este código responde ao User-Agent que a página foi encontrada com sucesso e será enviado a quem pediu. Também são informados dados do servidor que no caso é o Apache e seu módulos instalados como o PHP. Tem vários outros dados também como o tamanho do conteúdo e o tipo dele.

Existem vários códigos de retorno possíveis a cada requisição. Os códigos tem sempre três dígitos e o primeiro digito mostra a que grupo de código de Status ele pertence.

Vamos ver os grupos e os códigos mais importantes para SEO.

Códigos de Status

1XX Informacional
Não há necessidade de se preocupar com este, serve apenas para informar que a informação foi recebida e que o processo continua.

2XX Sucesso
Significa que o pedido foi recebido com sucesso. É o que sempre acontece quando suas páginas são carregadas

200 – OK. O pedido ao servidor foi atendido com sucesso. A página web existe e será enviada ao user-agent (navegador, robô de busca…).

3XX Redirecionamento
Serve para avisar direto no cabeçalho HTTP uma mudança de página. Diferente de um Meta Refresh ou usar javascript, ele permite um redirecionamento “suave” e importante para SEO.

301 – Movido Permanentemente. Muito útil para redirecionar páginas. Serve para redirecionar suas URLs que foram movidas permanentemente. Assim você evita páginas de código 404 ou pode tornar URLs dinâmicas com em URLs limpas.
302 – Movido Temporariamente. Serve também para mover, mas com função temporária. A vantagem é que você pode reverter isto. Funciona bem para manutenções ou alteração não definitiva. O robô de busca continua visitando o endereço original.

4XX Erro do Cliente
Deve ser tratado com atenção pois o conteúdo não estará acessível para o visitante nem para o site de busca. Problema para indexar.

401 – Não autorizado. O acesso a página não esta autorizado pois possivelmente a pessoa não está logada. Isto impede de uma página ser indexada por exemplo.
403 – Proibido. Neste caso o robô de busca também não terá como indexar o conteúdo.
404 – Não encontrado. É o código de retorno pode ser uma página ou arquivo que não existe no servidor, como um arquivo apagado. Pode ser usado para apresentar uma página com conteúdos relacionados à URL procurada.

5XX Erro do Servidor
O servidor não consegui atender o pedido por algum erro. Também não permitirá a indexação da página.

500 – Erro interno do servidor.
503 – Serviço indisponível. Pode ser um erro temporário. Uma manutenção ou uma grande quantidade de acessos pode derrubar o servidor.

Testando cabeçalho HTTP e User-Agent

Agora que você já tem uma idéia do processo de “conversa” no HTTP, aproveite para simular como ele funciona. Um serviço online interessante é o web sniffer. Ele permite que você veja o cabeçalho HTTP e troque o user-agent. Também é possível utilizar plugins para Firefox. Um deles é o Live HTTP Header que permite monitorar o cabeçalho HTTP. Outro plugin interessante é o User Agent Switcher que permite que você altere o User-Agent do Firefox para outros como o Googlebot ou o até o Safari no Iphone. Agora você vai poder aproveitar melhor esta conversa oculta.

Comentários (8)