seo - search engine optimization

Post on 01-Nov-2014

13 Views

Category:

Technology

2 Downloads

Preview:

Click to see full reader

DESCRIPTION

Neste Webcast serão abordados os seguintes temas:Conteúdo, meta tags e urls amigáveisTécnicas ( Black Hat SEO, White Hat SEO)BacklinksRobôs de BuscaAjudando os robôs de busca a indexar o seu site (sitemap.xml)Analizando dados de acesso ao seu site.

TRANSCRIPT

SEO

Search Engine Optmization

SEO - Search Engine Optimization

Neste Webcast serão abordadosos seguintes temas:

Conteúdo, meta tags e urls amigáveis

Técnicas ( Black Hat SEO, White Hat SEO)

Backlinks

Robôs de Busca

Ajudando os robôs de busca a indexar o seu site (sitemap.xml)

Analizando dados de acesso ao seu site.

Introdução

SEO é sigla que se dá para o termo "Search Engine Optimization“, que nada mais é do que adequar o seu site para que fique mais facilmente visível aos mecanismos de busca.

Iniciando

Estudos mostram que sites melhores posicionados nas buscas, recebem mais cliques.

Ao iniciar o trabalho de SEO no seu website, deve-se focar nos seguintes itens:

Conteúdo

Meta-tags

URLs amigáveis

Conteúdo

Um site com grandes chances de sucesso de ter um bom posicionamento nos sites de busca é aquele que consegue ter um conteúdo que seja relevante ao título e as meta tags (Descrição e Palavra-Chave)

Mais importante que ter estes itens relevantes, é ter um conteúdo que agrege valor aos usuários que acessam o site.

Conteúdo

Uma prática bastante comum, porém não recomendada, é gerar conteúdos com inúmeras ocorrências da mesma palavra-chave.

Esta prática poderá indexar seu site mais rapidamente nas páginas de busca, porém se o conteúdo for sem sentido e repetitivo, os bots (Robôs de Busca) tem capacidade de detectar o spam de palavras-chave e rebaixar seu site no posicionamento ou até mesmo excluí-lo dos resultados da busca.

Conteúdo

Os termos para identificar tais técnicas são chamados de White Hat SEO e Black Hat SEO.

Ainda há sites que procuram mesclar as duas técnicas acima e estes são denominados Gray Hat SEO.

Black Hat SEO

• Sites que tem um número excessivo de palavras em seu conteúdo somente com o objetivo de atrair cliques nas busca mas que não agregam nenhum valor aos usuários que o visitam.

• Em geral são indexados mais rapidamente, porém tem vida curta pois os robôs de busca tem como identificá-los e removê-los dos resultados de busca.

Black Hat SEO

Veja este exemplo:Neste site utilizei Black Hat SEO, repare que o número de acessos aumentaram significativamente, porém não duraram muito tempo.

Repare também na Taxa de rejeição que está relativamente alta, isto significa que o site não apresenta o conteúdo esperado pela maioria dos usuários que o acessaram através de uma busca por determinada palavra nos sites de busca.

Os acessos subiram de 120 visitas / dia

Para 1.800 visitas / dia.

White Hat SEO

• São sites que tem como objetivo oferecer conteúdo com qualidade e relevância aos usuários.

• Estes sites não fazem spam de palavras e geralmente quando são acessados à partir das buscas mostram realmente o que os usuários estavam procurando.

White Hat SEO

Neste site foi utilizado White Hat SEO.Repare como os gráficos de acessos são mais estáveis e tendem sempre a subir.

A taxa de rejeição também é menor e consequentemente o tempo médio do visitante no site é maior.

Pode-se concluir que a grande maioria dos usuários que acessaram este site realmente encontraram exatamente o que estavam procurando.

Black Hat SEO

• Se você estava utilizando estas técnicas mesmo sem saber que elas existiam e foi excluído dos resultados de busca, não se preocupe pois os robôs de busca irão te reindexar novamente se você ajustar seu conteúdo e palavras-chave.

• Uma dica para tentar acelerar o processo é solicitar um pedido de reconsideração no Google. A solicitação pode ser feita na área principal do serviços “Google Webmaster Tools”

https://www.google.com/webmasters/tools/reconsideration?hl=pt-BR

Backlinks

• Além de deixar seu conteúdo limpo e relevante, seu site precisa também que outros sites apontem (link) para ele.

• Quando um site faz link para o seu, isto é chamado de backlink.

• Vários sites relevantes (White Hat SEO) apontando para o seu, tendem a aumentar seu page rank e melhorar o seu posicionamento nas páginas de busca.

Backlinks

• Sites que vendem backlinks, assim como os que se enquadram no Black Hat SEO, também não são bem aceitos pelos robôs de busca e tendem a ter um page rank baixo.

• Por isso a maneira mais correta de se conseguir backlinks é tendo um conteúdo relevante para que naturalmente, bons sites passem a recomendar o seu.

• Notem que novamente menciono o termo “Conteúdo Relevante”, pois este é o grande trunfo de sites de sucesso, eles tem conteúdo rico e relevante.

Backlinks

• Através dos backlinks também é possível medir o sucesso de suas ações e campanhas de marketing.

• Para se obter um bom retorno no trabalho de SEO você deve periodicamente verificar quem está linkando seu site e quem não está mais e com base nisso adotar estratégias diferentes ou aprimorar o seu conteúdo.

• Você terá a visão de como está sendo visto pelos outros, quais palavras estão associando ao seu site e qual tipo de site/usuários estão sendo seu público alvo.

Backlinks

• Uma maneira de você saber quem está fazendo backlink para seu site é utilizar o site http://www.backlinkwatch.com, nele é possível ver até o texto (âncora) que estão linkando o seu site.

Robôs de Busca

• Para seu site ser indexado nas páginas de busca, além das técnicas mencionadas, ele deve ser amigável aos robôs.

• Um site amigável aos robôs é aquele que utiliza semântica no código e faz o uso correto dos atributos “alt” para imagens e “title” para links.

Robôs de Busca

• Um bom exemplo de semântica é você utilizar a tag H1 para descrever o tema principal da página e H2 para títulos secundários.

• Por exemplo:<h1>Hospedagem de Sites</h1><h2>Hospedagem de Site em ambiente Linux</h2>

Resumindo, seu site deve ser amigável aos robôs de busca, lembre-se que os robôs não enxergarm seu layout e nem as imagens, eles só enxergam o código html.

Robôs de Busca

• Site da Locaweb visto sem layout, simulando como um robô de busca enxerga o site.

Robôs de Busca

• Uma maneira muito útil de ajudar os robôs a indexar as páginas do seu site, é utilizar um arquivo XML informando para cada uma de suas URLs a data de alteração, prioridade e a frequência das modificações daquela url.

• Também é importante que este arquivo seja gerado com periodicidade, pois novas urls podem existir em seu site e algumas podem estar descontinuadas.

Sitemap

• Exemplo de um arquivo sitemap.xml

<?xml version="1.0" encoding="UTF-8"?><urlset xmlns="http://www.google.com/schemas/sitemap/0.84"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://www.google.com/schemas/sitemap/0.84

http://www.google.com/schemas/sitemap/0.84/sitemap.xsd">

<url><loc>http://www.locaweb.com.br</loc><lastmod>2009-03-13T17:53:01-03:00</lastmod><changefreq>weekly</changefreq><priority>0.9</priority></url>

</urlset>

Este bloco deverá ser repetido para cada URL que você desejar incluir no sitemap.xml

Sitemap

Depois que você gerou seu arquivo XML, você tem que dizer aos robôs de busca onde encontrá-lo.

No Google, por exemplo, você precisa acessar a página do Google Webmaster Tools, cadastrar seu site, confirmar a propriedade do site fazendo um simples upload de um arquivo para a raiz do seu site ou incluindo uma meta tag na página principal do site.

Dica: No Painel de Controle da Locaweb você tem acesso a algumas ferramentas SEO e também ao Google Webmaster Tools.

Sitemap

Confirmada a propriedade do site, você clica em Sitemap e depois em Adicionar, digita a url do seu sitemap, por exemplo http://www.site.com.br/sitemap.xml e é só esperar o robô ler o arquivo e começar a indexar as páginas discriminadas lá.

Em outros sites de busca, o processo é similar, você confirma que é dono do site e informa onde os robôs podem encontrar as informações do sitemap.

Robots.txt

Você também pode optar por não indexar seu site em alguns buscadores, ou por exemplo não querer que os robôs de busca de imagens indexem as imagens do seu site, ou até mesmo barrar alguns robôs que ficam acessando seu site em busca de conteúdo ocasionando em aumento de tráfego e de hits.

Para isso, você tem a opção de criar um arquivo com nome “robots.txt” e publicá-lo na raiz do seu site com as regras que você estipular.

Robots.txt

Abaixo temos um exemplo de um arquivo robots.txt configurado para permitir que todos os Robôs de Busca tenham acesso ao site, exceto ao diretório “/javascript” e configurado também para Bloquear o acesso do Robô de imagens do Google a qualquer diretório do site:

User-Agent: * Disallow: /javascript/ User-Agent: Googlebot-Image Disallow: /

Analisando o relatório de acessos

• Exercer “SEO” em um site não é apenas um trabalho que deve ser feito uma única vez e ficar esperando resultados.

• É um trabalho contínuo e constante, você sempre deve saber quais as palavras que estão direcionando as pessoas para o seu site e tomar atitudes para que você também seja encontrado por palavras que ainda não atingiu.

• Isto é possível analisando os dados de acesso ao seu site, você terá como mapear os sites que indicam, localidade das pessoas que acessam, tipos de navegadores, sistemas operacionais, etc.

Analisando o relatório de acessos

• Este itens são importantes pois te ajudam a entender o público que acessa seu site e um bom trabalho de SEO também é feito deixando seu site acessível para todos os browsers ( Cross Browser ), pois imagine que você somente testou seu site no Firefox e por azar alguma funcionalidade do seu site não funcione corretamente no Internet Explorer e quebre seu layout ou gere algum erro tornando o site inacessível. Um usuário do Internet Explorer ao acessar seu site a partir de uma página de busca, irá sair na mesma hora, esta ação te gera uma rejeição e um possível futuro usuário a menos que poderia falar bem do seu site, ou até mesmo uma propaganda indireta no “blog” dele, pelo contrário, ele terá uma má impressão.

Analisando o relatório de acessos

• Neste exemplo, vemos que neste determinado período, grande partes dos acessos deste site vieram através do google.

• As principais palavras-chave de acesso foram as que condizem com o conteúdo do site.

• Uma análise neste relatório seria por exemplo buscar por cada palavra-chave e verificar o posicionamento do site em cada uma delas.

Analisando o relatório de acessos

• Se você não aparece entre os primeiros no resultado da busca, você deve estudar seus concorrentes para ver o que eles oferecem de conteúdo que você não oferece e ajustar isso no seu site.

• Se você sentiu falta de alguma palavra-chave que gostaria que seu site aparecesse, crie um conteúdo relevante para o assunto, gere e publique seu sitemap.xml e aguarde o resultado.

Analisando o relatório de acessos

• Lembre-se que um site não é indexado no Google e bem posicionado da noite para o dia.

• Este trabalho exige esforço e conteúdo relevante e de qualidade.

• Uma das principais funções dos robôs de busca é encontrar sites que tenham conteúdos relevantes ao assunto procurado para que os usuários do mecanismo de busca sempre encontrem com mais facilidade o que procuram.

Héric TillyHeric.tilly@gmail.com

http://www.herictilly.com.br

top related