Del.icio.us | Perfil | Contato

Carregando...
Mostrando postagens com marcador motores de busca. Mostrar todas as postagens
Mostrando postagens com marcador motores de busca. Mostrar todas as postagens

domingo, maio 20, 2007

Oportunity Leiloes: Visitantes Paraquedistas, Visitas Eternas, CTR e Motores de Busca

Como já mencionado anteriormente, a Otimização em Sites de Busca confere uma boa fonte de visitantes gratuitos ao site ou blog. Por essa razão, no English-Speak Enviroment (sites ou blogs em inglês, mas que não se restringem à USA ou Inglaterra) existe a teoria da SEM (Search Engine Marketing). Ou seja, um marketing de , que traz um público altamente qualificado (leia-se, consumidores em potencial, que vão se utilizar dos serviços ou produtos dos anunciantes que patrocinam o seu site ou blog) e que é totalmente gratuito.

O Cardoso, em seu post Tutorial: Como garantir visitas eternas dá uma boa noção de como o número de visitas orgânicas está diretamente alinhado à qualidade do conteúdo do site. Como sempre, o Cardoso fez um post belíssimo, mas como todo ser humano ele errou, e pecou em apenas um ponto. O título do Post. Em se tratando de Motores de Busca, não existem visitas eternas. Isso, porque nenhum site ou blog, detém a titularidade de uma palavra ou de uma expressão1.

Um fato interessantíssimo que aconteceu essa semana e que demonstra claramente essa teoria, é a explosão de visitantes que o E-Opportunities recebeu essa semana.

Após um longo período de banimento do Google, o E-opportunities, a partir da semana retrasada, retornou à média de visitantes advindos do Google que costumava ter em 2006. Esse fato, foi recebido com entusiasmo por mim, que já vinha a muito tempo tentando tecer uma teoria acerca da razão de isso ter acontecido2. Na busca por uma razão lógica, me prendi ao fato do E-Opportunities falar e esclarecer muitos assuntos "Negros ou Underground" do ambiente virtual. Porém, graças à Deus, a equipe tão querida do Google, deve ter entendido o foco do E-Opportunities, e com isso, me retiraram da caixa de areia do Maior Motor de Busca do Planeta.

Retornando ao fato inusitado dessa semana, foi a explosão de visitas que as palavras chaves abaixo me trouxeram essa semana:

leilões opportunity
oportunity leilões
oportunidades leilões
leilões oportunity
opportunity leiloes

Esses visitantes, buscavam informações sobre um site de uma empresa organizadora de leilões em uma cidade portuguesa chamada Odivelas. O nome do site é Oportunity Leilões, e trata de leilões em Geral. Provavelmente, essa semana a empresa vai dar um outro leilão, e deve estar fazendo publicidade em televisão ou rádio, ou outra forma de marketing (gostaria até, que algum visitante relacionado, deixasse um comentário esclarecendo o que queria quando chegou aqui). O fato, é que essa publicidade externa, gera o interesse das pessoas, as quais vão no Google buscar informações.

Como no passado, fiz ótimos posts (modéstia à parte) sobre Oportunity (oportunidade) e sobre Leilões (virtuais), essas duas palavras chaves ficaram marcadas no corpo do meu blog. Porém, o meu blog não tinha qualquer conexão com o sentido que esses visitantes queriam, portanto teoricamente essa visita, segundo a minha própria teoria, seriam de "má-qualidade" pois os visitantes estariam descontextualizados e assim sendo, não clicariam nos anúncios. Segundo outros teóricos, como o Noronha e o Cardoso, os visitantes paraquedistas clicam em tudo. Então o que aconteceu? Eu obtive uma explosão de receita, acompanhando a explosão de receita? Ou eu não tive uma explosão de receita, o que demonstra a teoria do Conteúdo Contextualizado?

Eu não obtive uma explosão de receita.

Então a teoria do Conteúdo Contextualizado está corroborada. Porém, o que aconteceu foi um aumento significativo na receita. O que teoricamente explicita uma contradição.

O fato, é que com a explosão de visitantes non-contextualized, a receita aumenta normalmente, progressivamente ao número de visitantes. A razão pelo pensamento de que paraquedistas clicam em tudo é o fato deles constituírem, geralmente, mais de 70% de visitantes de determinados sites. Isso não implica que eles clicam em tudo. Mas sim que clicam, como qualquer outro visitante clica. Como os visitantes procurando oportunity leilões, chegaram aqui e clicaram em anúncios, os visitantes de buscas mais contextualizadas clicaram mais efetivamente. É uma questão mais estatística do que de tendência. Uma porcentagem de usuários, dependendo da sua otimização de , do conteúdo do anúncio, das idiossincrasias do visitante, clica nos anúncios.

No que diz respeito às visitas eternas, esses visitantes, infelizmente, não são meus. Quando o Google, atribuir um bom pagerank ao Oportunity Leilões, quando o site for melhor indexado, o E-Opportunities se verá sem esses visitantes. Outro fator ponderante, é a sazonalidade dessa busca. Pode ser que essa busca, assim como RBD o foi no passado, seja interrompida, pela extinção da empresa, ou por desinteresse do público, etc.

O oportunity Leilões seria uma busca que não mais teria o E-Opportunities no ranking da Lista Orgânica.

Quando eu digo teria, é porque agora o E-Opportunities não é mais OFF-TOPIC à essa busca. Como o site deles, toda hora está fora do ar, talvez esse post seja a única informação disponível sobre o Oportunity Leilões3 na internet. Então acredito que o Google vai manter o E-Opportunities na lista orgânica.

Essa talvez é a maior dica que o Cardoso quis dizer com seu post Visitas Eternas. Faça posts de qualidade e por demanda. Assim, você não dará motivos ao Google para se ver fora de determinada palavra-chave.

Mas atenção, a minha prática não incentiva nem denota KeyWord Stuffing! Pelo Amor de Deus...caixa de areia de novo nãaaao!

Abraços



NOTAS:

1 - salvo raras exceções, as quais estão compreendidas em buscas personalíssimas, ou seja, quando eu por exemplo digito no Google a expressão Cardoso Contraditorium, ou www.contraditorium.com; Nesse momento, estou sinalizando perfeitamente que eu quero chegar ao site do Cardoso, então quando faço essa Busca Navigacional, estou usando o Google como uma ponte para me levar ao blog do Cardos.

2 - aqui me refiro ao banimento - ou quase banimento, pois as visitas "paraquedistas" de 1 de Janeiro até semana retrasada, não passavam de 1 ou no máximo 2 por dia.

3 - Oportunity Leilões Lda
Rua Heróis de Chaimite, 7 Rc
2675-376 Odivelas
Telefone 219 388 262

- Oportunity Leilões Lda - Endereço atualizado:
Estrada do Cabreiro
Rua Manuel Henrique, Armazém 2
2645-398 Cascais Alcabideche

segunda-feira, janeiro 15, 2007

Dmoz está recebendo novos cadastros - Janeiro 2007

O Open Directory Project (Dmoz) está (desde o dia 13 de Janeiro) novamente aceitando submissões de novos sites ao seu diretório. Para submeter um site ao diretório mais importante de toda a internet, basta se dirigir ao site oficial, adentrar no seu nicho e clicar em submeter novo site na categoria em que você melhor se enquadra.

O cadastro no Dmoz é de extrema importância, porque além dele ser o caminho inicial trilhado por milhares de na indexação de sites, ele também possui um alto PageRank. Então a sua listagem no Dmoz impactua de forma altamente positiva no que condiz ao aumento do . Então, assim você aumentará seu pagerank, tendo um maior número de qualificações boas na lista orgânica do Google.

O Dmoz vem passando por graves problemas técnicos e ficou fechado à novos cadastros por muito tempo. Diga-se de passagem, já estavam especulando o fim do Open Directory Project.

Porém, os editores do Dmoz já podem ter acesso aos painéis de edição, e novos sites já podem ser submetidos.

Uma das principais reclamações dos profissionais da web se dá com relação à demora do em listar os sites. Mas essa demora sempre exisitiu, e é uma derivação da própria estrutura do Dmoz. Fazer avaliações de milhares de sites por categoria é uma tarefa muito morosa.

Só atentando que se você é um spammer, nem precisa perder o seu tempo tentando listar o seu website/blog lá. Os Editores do Dmoz constantemente usam o E-Opportunities como fonte de identificação de , e vocês não tem a menor chance de ver seus sites serem autorizados.

Abraços

Pagerank Update - Atualização em Janeiro de 2007

Uma das melhores armas para melhorar o desempenho nos é ter um bom Pagerank. E nessa semana o Pagerank do Google está sendo atualizado. Segundo consta, desde o início desse mês já conseguíamos observar algumas alterações em determinados datacenters do google.

Segundo o SeoLog a atualização ocorreu dia 10 de Janeiro. Porém a alteração não foi observada por muitos webmasters/bloguistas brasileiros. Então acredito que a atualização ainda não está concluída.

Que a atualização dos BackLinks foi feita, disso não há o que se questionar. Efetivamente pude ver em fóruns para bloggers e webmasters americanos que muitos tiveram seus rankings alterados. Porém o SeoLog menciona que o processo de atualização foi concluído, o que eu ainda não pude constatar.

O fato é que em muitos sites dos EUA já podemos ver uma nítida alteração de Pagerank.

Cabe agora torcermos para termos os nossos pageranks atualizados (e se possível, aumentados).

Abraços

P.S.: Se você se utiliza da barra do google para vizualizar o Pagerank, saiba que pode existir uma alteração com relação aos valores encontrados. Mas use um desses sites que possibilitam o usuário ver o Pagerank, como o iWebTool, para ter a visão efetiva do PR.

quinta-feira, dezembro 21, 2006

Estudo de Caso: Scraping - Scraper Sites - Sites sugadores de conteúdo

Este é um post que compõe os Estudos de Casos, e que analisa um caso de SPAM de conteúdo: Um Scraper Site.

Vou pedir que se dirija ao site:
http://www.ronaldofansite.com/cristiano/

Ao chegar no site você vai ver uma foto do Cristiano Ronaldo, algumas notícias à sua esquerda e um Arranha-céu (120x600) do AdSense™ (Bloco de anúncios).

Gostaria que você desse um refresh no site (Atualizar) para perceber o seguinte elemento:



Na barra de ferramentas podemos notar que o site convert-rss-to-javascript.com é carregado. O Pagerank do site é 2, indicando que possivelmente (e eu tenho certeza que sim) esse site é parte de uma Fazenda de Links.

As notícias são recentes e isso dá uma falsa percepção de utilidade. O Arranha Céu do AdSense é presença marcante no site, dividindo o palco com o "conteúdo". O usuário fica na dúvida sobre o que é mais informativo. O conteúdo ou os anúncios.



Analisando mais a fundo a página temos a referência da fonte de conversão do RSS em html. Se trata do já mencionado, Convert-RSS-to-Javascript.com. Ao olharmos abaixo dessa referência vemos um link de afiliados do Commission Junction. Ou seja, o usuário é convidado a procurar por mais informações sobre o Cristiano Ronaldo no eBay.



Ao passarmos o mouse por cima do link da notícia podemos ver a verdadeira fonte da notícia: O Site SportNetwork (uma boa fonte de notícias em inglês sobre esportes).



Se você notar o canto inferior direito do site você vai ver os seguintes dizeres:

Copyright © 2005. ExodusSearch.com Team

Esse suposto time, é a Link Farm que eu mencionava anteriormente. O site analizado pertence ao ExodusSearch.com


Considerações


No caso analisado pudemos ver a técnica spâmica conhecida como Scraping. Ela se baseia na captura de informações advindas de outros sites. O site só exibe uma snippet (um curto fragmento textual) porque o feed liberado pelo Sport Network é incompleto. Esse é o argumento que servirá de base para o meu próximo post no qual eu analiso se a liberação de feeds completos é viável ou não.

O spammer do nosso Estudo de Caso se utiliza, como já enfatizado, de um conversor de RSS para HTML em JAVASCRIPT. Felizmente, os motores de busca já aperfeiçoaram as suas técnicas, e esse tipo de site não tem qualquer relevância em termos de busca orgânica. o Spammer desse estudo de caso é iniciante (ou metido a esperto), pois o scraping via JAVASCRIPT é obsoleto. O Spider não lê o texto que o usuário lê. Ele apenas segue o link de origem do texto, ficando o scraper site a ver navios. Ou seja, esse spammer não deve estar ganhando nada com esse site, pois os mecanismos de busca não indicam o site dele na lista de resultados. Quem vai ganhar o crédito com a notícia, é efetivamente o site que correu atrás da notícia: o SportNetwork.

Podemos identificar elementos do estudo da MicroEconomia através da possível externalidade positiva que a notícia gera. Ao liberar a notícia ou liberar um conteúdo grande, algum FreeRider pode fazer uso dele pra obter ganhos.

Infelizmente eu trago a vocês o que acontece na Web. A realidade é essa. Eu não escolho as técnicas de SEM (Search Engine Marketing) e de SEO que as pessoas usam. Eu, com o E-Opportunities, tento ajudar você a seguir o caminho mais correto, justo e efetivo para conquistar o seu espaço na internet e assim auferir ganhos.

quarta-feira, dezembro 20, 2006

Scraper sites - Sites capturadores ou sugadores de conteúdo

Um Site Capturador ou Sugador (Scraper site) é um website que obtém suas informações e conteúdo através de técnicas de web scraping (captura dinâmica de conteúdo). Em essência nenhuma parte de um Site Capturador (Sugador) é original. Mas encontramos sites que capturam a maior parte do seu conteúdo, e que cria uma parte infinitamente inferior. Um motor de busca não é um exemplo de site capturador. Sites como o Yahoo e o Google™ puxam o conteúdo de outros sites e fazem o indexamento desse conteúdo para que você possa ter acesso ao índice através de palavras chaves. Motores de Busca podem exibir breves descrições (snippets) do conteúdo original de um site, o qual o spider acessou, em resposta a determinada busca. Como o Motor de Busca faz esse serviço de organização de conteúdo, ele de forma alguma pode ser considerado um scraper.
Nos últimos anos, e com o advento do programa de afiliados AdSense, os sites capturadores proliferaram em um nível altíssimo através de práticas de spamdexamento. Sites com conteúdo livre, incluindo Wikipedia, são fontes comuns de material para sites capturadores.


Feito para o AdSense™


A maioria dos sites sugadores foi criada para obter rendimentos através do uso de programas de afiliados, como o AdSense. Nesse caso, eles foram chamados de sites Feitos para AdSense ou MFA (Made For AdSense™). Esse também é um termo pejorativo utilizado para se referir a sites que não tem outro objetivo que não o de conseguir visitantes para o propositu (existe algum?) de clicar nos anunciantes.

O problema com os Feitos para AdSense™ é que eles são considerados sites que spameiam os Motores de Busca, diminuindo a usabilidade e utilidade dos resultados, através da provisão de resultados poucos satisfatórios para os usuários. O conteúdo capturado é considerado reduntante pois o Motor de busca vai exibir um outro site com o mesmo conteúdo de outro (acarretando em uma limitação de conteúdo diferenciado, que o usuário poderia ter acesso, pois se o mecanismo de busca exibisse outro site - que não fosse scraper - o usuário poderia obter mais informações).

Esses tipos de sites estão na mira dos vários mecanismos de busca, sendo banidos ou apenas mostrados como resultados suplementares ao invés de aparecer nos primeiros lugares da lista orgânica.


Legalidade


Uma vez que os sites capturadores pegam o conteúdo de outros sites sem a permissão dos criadores originais, eles frequentemente violam termos de Direito de Propriedade Intelectual. É ilegal reproduzir material protegido por CopyRight sem a permissão do criador. Isso se aplica tanto se o material foi publicado originalmente em um Blog, em uma lista de e-mails, ou em qualquer outro meio menos formal, quanto como se fosse publicado comercialmente.

Até mesmo se o conteúdo foi originado de Sites Open Source, pode ser considerado uma quebra de copyright, se ele não respeitar a licensa de publicação. As licensas GNU FRee Documentation License (GFDL) e Creative Commons Share Alike (CC-BY-SA) requerem que a pessoa que reproduz o conteúdo, informe aos leitores das condições da licensa e dê crédito aos autores originais. A maioria dos sites capturadores que copiam conteúdo licensiado por GFDL ou CC-BY-SA não faz isso, ferindo então as leis de proteção aos direitos autorais.


Técnicas Scraper


Muitos capturadores vão puxar descrições e textos de sites com alto ranking de palavras chaves para o que eles objetivam. Dessa forma eles esperam ser melhor rankeados em páginas de resultados de motores de busca. RSS Feeds são altamente vulnerável aos scrapers.

Atualmente as técnicas scrapers que mais se desenvolvem são as baseadas em scripts dinâmicos que exibem o conteúdo liberado através de Feeds. Sem muita dificuldade é possível encontrar na Internet muitos scripts, à venda, de sites feitos para adsense que sugam automaticamente conteúdo de diversas fontes (dentre essas Wikipédia é claro). Então, o abuso de Feeds atualmente é o carro chefe do Scraping no Planeta.

No passado, sites Scrapers colocavam apenas anúncios e parágrafos de palavras selecionadas aleatoriamente de um dicionário. Assim um visitante clicava sempre no anúncio por que era a única parte que ele entendia no texto da página. Os Webmasters desses sites capturadores obtiam ganhos monetários advindos desses clicks. Redes de afiliados como o AdSense™/AdWords™ alegam estar em constante trabalho para remover esses sites de seus programas apesar de haver uma profunda polêmica sobre esse assunto, uma vez que essas redes se beneficiam diretamente dos clicks gerados por esse tipo de site. Sob o ponto de vista dos anunciantes os programas de anúncios de clicks (Google AdWords™, Yahoo Search Marketing, MSN adCenter) não parecem estar se esforçando para coibir esses tipos de sites.

Scrapers tendem a se associar através de Fazendas de Link, por isso, muitas vezes a técnica spammica de Scraping é confundida com Link Farm.



Fontes em inglês:
Wikipédia
Search Engine for Dummies - Peter Kent - Editora Wiley Publishing, Inc.

sexta-feira, dezembro 15, 2006

Clicks automatizados no Adsense™ - Clicador automatico - Fraude de Clicks

Conheça em primeira mão o Clicador do Adsense™

Problemas relacionados à Fraude de Clicks



Muito se fala na internet em aumentar a receita proveniente do AdSense através de Otimização do seu site em Motores de Busca (SEO), através da Otimização da alocação dos anúncios, através da tentativa de chamar atenção do usuário e tudo mais. Porém, o E-Opportunities traz a vocês em primeira mão uma foto (Ultra-secreta) do único Clicador automático do AdSense ainda em atividade.

O clicador automático foi construído na Suíça. Acredite ou não, o Google, Yahoo!, MSN e Altavista ainda não conseguiram desenvolver uma técnica para superar o caráter fraudulento desses clicks.

A fraude de clicks é um problema seríssimo para os Motores de Busca, uma vez que os clicks fraudulentos abaixam a efetividade do marketing, afastando a clientela de anunciantes dos mecanismos de busca. Para os anunciantes esse problema é tão ruim quanto, porque eles perdem seus anúncios (uma vez que o click não era direcionado) e assim, terão que buscar ser resarcidos. Muitas vezes esse resarcimento não é só o valor do click. Vamos supor uma loja, que se utiliza do AdWords para fazer propaganda de artigos natalinos, e passa uma semana sendo vítima de clicks falsos. Ela vai ver em sua receita (com vendas de artigos natalinos) o alto impacto dessa prática negativa.
Essa dificuldade de mensuração de dano, gera ao Google um grande problema. O último litígio envolvendo o Google nesse issue, foi em agosto, onde um promotor de justiça dos EUA entrou na justiça contra o Google visando ser indenizado pela fraude de clicks que afetou suas duas empresas. No caso Lane's Gift versus Google, esse teve que desembolsar a singela quantia de 90 Milhões de Dólares em resarcimento aos utilizadores do AdWords.

Em seu artigo - Problema da fraude de clicks em anúncios pagos - José da Silva descreve várias técnicas que os mecanismos de busca usam para detectar possíveis clicks inválidos:
  • Restrição de clicks por IP/Visitante único. Dessa forma, se restringe a 1 ou um número pequeno de clicks válidos por IP.
  • Rejeição de validade de clicks, realizados por usuários que não permitem a utilização de cookies. Porém o autor argumenta, que essa prática não recebeu respaldo da comunidade, devido à questão de privacidade que os cookies estão atrelados.
  • Consideração do cabeçalho enviado pelo navegador (browser) onde os atributos USER AGENT servem como identificação. Essa prática não foi muito efetiva porque alguns Bots possuem mecanismos de multi USER AGENT, enganando a validação.
  • Limitação da exibição dos anúncios em um determinado território. Evitando outros países, ou regiões onde o tráfego poderia ser descartado.
Esse clicador de "AdSense™" é o que há de mais hi-tech na tentativa de burlar essas estratégias (de coibição de clicks fraudulentos). O mecanismo dele permite que se efetuem tantos clicks por minuto ou hora. Em um determinado intervalo de tempo ele conclui o loop (laço de repetição), volta e clica de novo no anúncio, como se fosse um pêndulo. Ainda não foram desenvolvidas nem uma técnica para a supressão dessa fraude, porque o clicador possui uma mobilidade espacial muito grande. Os clicks podem ser gerados de múltiplas máquinas. Não se restringe a um só lugar. Daí o caráter móvel do clicador.

Você quer ver a foto do automatizador em ação?
A foto segue abaixo:

Clicador de AdSense

quinta-feira, dezembro 07, 2006

Estudo de Caso: SPLOG - Blogspot

Assim como dito anteriormente, vamos fazer aqui hoje um estudo de caso sobre SPLOG.

O primeiro site analisado será o de domínio Zikyb.info.

Vou pedir para você acessar essa página dele:

http://adlig.zikyb.info/

Agora vamos passo a passo analisar o Blog.

1 - Primeiro Passo

Podemos notar que o blog é gratuito. É um blog do Blogger.
A princípio não notamos nada de anormal. O blog não possui Reflinks (Links de referências de programas de afiliados) então não temos nem idéia do que se trata. Perceba, que os links (citados no corpo da página), indicam domínios sem strings de referências: "click=id, ?ref=id, etc.." Os links favoritos da sidebar indicam possíveis sites parceiros. Na verdade são outros sites iguaizinhos a esse que estamos analisando. Então já começamos a identificar que isso se utiliza da técnica Link Farm. O(s) Spammer(s) fizeram (fez) com que se criasse um cíclo de votos, onde esse site vota para aqueles e aqueles votam pra esse, aumentando falsamente o Pagerank™ deles.

Passo 1 - Página aparentemente normal

2 - Segundo Passo

Ao investigarmos mais um pouco a página, vamos encontrar outra técnica black-hat: Hidden keywords, ou seja, palavras chaves escondidas.

Passo 2 - Texto Oculto - Hidden keywords

3 - Terceiro Passo

Continuemos a analisar a página, ao descermos o scrollbar, vamos vendo comentários de incentivos...como Bom trabalho, Ótimos links...
Perceba que essa tática tenta transparecer que o blog não é fake. Pois se tem comentários de humanos então o teoricamente não seria um SPLOG.

Passo 3 - Comentários aparentemente normais

4 - Quarto Passo

Ao descermos mais um pouco, temos acesso ao outro post do cidadão.
Se você sabe ler inglês, você de cara já percebeu que esse blog se utiliza de bombardeamento de palavras (stuffing keywords). Esse texto não tem qualquer sentido. É um bando de palavras em ingles combinadas de tal forma que pareça ser mesmo um texto. Mas não é. Note que ele tenta transparecer uma possível utilização da estratégia white-hat Link Bait, mas no caso nada mais é que uma tentativa de manipulação do Motor de Busca. Ao juntarmos um link à uma palavra, damos uma sinalização ao Motor de Busca que essa "possível busca" pode ser sanada pelo link em questão. Se conseguirmos alastrar por toda a internet essa "citação linkada do mal", o Google, Yahoo, MSN, etc vai crer que esse link é mesmo uma ótima alternativa para a busca da palavra. Isso já foi conhecido no passado como Google Bombing.

Passo 4 - Possível Link Ísca - Nada mais nada menos que uma Link Farm

5 - Quinto Passo

Vamos nos perguntar pra que esse cara fez isso. Porque perder o tempo fazendo isso? Bem, nós sabemos que assim como a economia neo-clássica doutrina, os seres humanos são movidos por incentivos. E no caso o incentivo financeiro é o grande motivador de todas as ações apresentadas aqui. Você, no caso, provavelmente não pegou a grande sacada desse SPLOG do caso. Duas são as alternativas pra esse Blog ter sido criado. As duas se conjugam com Cloaking. Uma é ganhar com afiliados e a outra é de, uma vez indexada a página pelos Motores de Busca, trocar o conteúdo da página para exibir outra página com outra cara, outro conteúdo, e com links de afiliados (claro!).

A segunda alternativa vamos analisar no próximo estudo de caso, porque a primeira alternativa é o objetivo do SPLOG.

Ao selecionarmos o texto do link WEBMOTORS, e ao clicar com o botão direito do mouse e selecionar a opção visualizar código fonte da seleção, vamos ver para onde a pessoa que clicar no link será direcionada.

Passo 5 - Página de compra do site do Webmotors

6 - Sexto Passo

Ao clicarmos, notamos que fomos redirecionados para uma página de compra de carros. Essa página com certeza vai oferecer uma comissão, sobre a venda realizada, para aquele Webmaster que através da publicidade do seu site deu origem à venda.
Assim como o link do Webmotors, todos os links que estão presentes naquela lista vão redirecionar a pessoa que clicá-los, até um site onde o webmaster estará ganhando algo.

Ao selecionar o corpo da página (main) e clicar com o botão direito do mouse, visualizando assim o código fonte da seleção, vamos ver a existência de dois comando de javascript que vão dar esse efeito. Um é o onmouseover e o outro é o onclick. Um mostra o link do webmotors, uma vez que passamos o mouse sobre o link. O outro é a página para onde o usuário será levado ao clicar no link. Perceba que a id de afiliado do nosso spammer é 158948.

Passo 6 - Código fonte da seleção

No passado, como disse no post Spam - Isso gerava dinheiro antigamente? , as atividades spammicas rendiam muito dinheiro. Dependendo da sua personalidade, provavelmente você vai achar que ninguém pôde ter ganhado algum dinheiro com esse tipo de site. Porém, devo alertá-lo que a pessoa (como vimos anteriormente) não fazia 1 ou 2 desses blogs. Ela fazia um número muito grande. Hoje em dia, existem scripts que fazem sites fakes como esse que você viu em questão de 10 minutos. Ou seja, isso impreguinava nos motores de busca. Existem muitas buscas com palavras digitadas erroneamente, e/ou palavras que não existem, etc etc...
Imagina que se o cara tivesse 1 visita em cada blog dele por dia, e tivesse uma média de 10.000 blogs (porque tem script que faz mais que isso em 10 minutos) ele teria muito mais visitas que muitos sites de ótima qualidade que existem por aí.

Porém, atualmente, o investimento em combate à esse tipo de coisa é muito grande. Então, dificilmente (acredito) que montar um site assim gere algum dinheiro. Acredito que é muito mais fácil investir em um site de qualidade, etc etc para obter vantagens financeiras.

Espero que tenha sido útil a apresentação que eu fiz aqui. Com esse tópico eu consegui mostrar como algumas das técnicas, que já mencionei aqui, são utilizadas. Acredito que fiz o post de forma didática de forma a agradar a novatos e a experts no assunto.

Comentem!

quarta-feira, dezembro 06, 2006

O que é SPLOG? E qual o problema dessa praga?

O que é SPLOG?

Uma das mais difundidas formas de Spam de conteúdo é o SPLOG. Nada mais que um Blog falso, o SPLOG combina várias técnicas Black-Hat. Ou seja, chapéu-negro pouco é bobagem. Geralmente os três elementos (black-hat) mais evidentes nos SPLOGS são:
  • Keyword Stuffing - Ou seja, bombardeamento de palavras chaves irrelevantes
  • Link Farm
  • "Redirecionamentos não autorizados" - Essa tradução porca é um oferecimento da equipe do Google Brasil na nossas Diretrizes para Webmasters. A versão em inglês é Sneaky Redirect
Cada elemento desse vai ser analisado mais a frente com exemplos práticos, no próximo estudo de caso.

Não devemos confundir Blogs Spâmmicos (SPLOGS) com Spam em Blogs. Nós sabemos que um blog, não precisa ser fake (falso) para se utilizar técnicas black-hat. Até a própria utilização indevida do comentário do blog pode ser caracterizado como spam em blog. Por exemplo, aqueles black-hats que se utilizam de Scripts automaticos para bombardear os blogs de mensagens e comentários spamicos, nos quais eles divulgam os reflinks de afiliados deles, ou até mesmo o próprio link do blog ou site dele (com o fim de ludibriar o Pagerank - falseando possíveis votos recebidos)1. O Caso do Splog é que ele é todo falso. Não possui qualquer conteúdo, qualquer relevância, etc... Você pode falar que o Blog do Cardoso é Spâmmico , mas jamais pode falar que ele é um SPLOG porque ele não é fake (eu acho)2.

História do SPLOG

O termo SPLOG ficou popular em Agosto de 2005, quando foi utilizada publicamente por Mark Cuban, mas parece que já em 2003 já constavam as primeiras utilizações dessa técnica. Vários linkblogs foram utilizados para tentar influenciar os Motores de Busca e tentar fazer um Google Bombing com cada palavra do dicionário.

Problemas

Uma das maiores vítimas desses Spammers é o nosso querido Blogger. Uma estimativa diz que 20% dos blogs do Blogger se tratam de SPLOGS. Esse tipo de Spam é um problema sério para o Blogger uma vez que os blogs gastam espaço em disco rígido nos servidores do Google, poluindo também, a lista de busca orgânica do Google. O Flood de links não tem limite, queimando literalmente o filme da Blogosfera do Blogspot.

Abuso do uso de Feeds/RSS

Mas apesar do alto índice de blogs do blogspot serem spamicos, os SPLOGS não se limitam ao Blogger. O Wordpress também não fica atrás. Por ser uma ótima ferramenta, com muitas particularidades e facilidades o wordpress se mostra umas das mais visadas plataformas para a perpetuação desse tipo de spam. Atualmente está rolando uma discussão sobre a utilização ou não de feeds completos, mas esse tipo de spam é uma das principais adversidades da liberação dos feeds. O wordpress, assim como outros scripts dinâmicos, oferecem a alternativa de complementar o conteúdo do blog/site com conteúdo de outros sites. Aí os spammers deitam e rolam. Alocam o feed no site, e vivem de conteúdo dos outros, colocando os afiliados deles pra gerar quanto dinheiro eles puderem sugar (e recebendo visitas de onde? de onde? Motores de Busca é claro hehehe).

Mecanismos de coibição

Vários mecanismos foram lançados no último ano para tentar diminuir o número de SPLOGS. Um deles foi a opção SINALIZAR BLOG que o Blogger colocou em sua barra superior. Clicando lá, você sinaliza pro Blogger que o blog em questão é um SPLOG.
Além disso vários sites foram criados com o intuito de coibir os SPLOGS. Dois dos mais famosos são o Splog Reporter e o SplogSpot


Notas:
1 - Essa estratégia de enviar comentários remotos e automáticos com o objetivo de bombar de links o blog do outro é uma tática bem furada. Isso porque o Blogger, Wordpress e outras plataformas, atualmente inserem a tag rel="nofollow" nos comentários justamente pra evitar isso.

2 - Aqui apenas uma piada com relação ao Blog do Cardoso. Um Blog de altíssima qualidade e que eu me habituei a ler. Recomendo-o muito. Não é Spam (porque ele lê o E-Opportunities) hehehe hehehe.gif hehe he

quinta-feira, novembro 02, 2006

Link Bait - Link Isca - Estratégia de marketing em motores de busca

A expressão Link Bait denota uma estratégia de marketing muito eficiente. A tradução para essa expressão é "Link Ísca" (citação linkada). A mecânica dessa estratégia gira em torno da inovação, criatividade, e qualidade dos textos, matérias, posts, que estão em um determinado site. Ao criar um artigo com um ótimo conteúdo, o seu artigo vira alvo de várias pessoas através de citações. Ou seja, você será citado em muitas fontes, e essa propagação, joga o link da matéria em várias outras fontes na internet. Assim o PageRank™ da página aumenta, e como consequência, a probabilidade de suas visitas advindas de motores de busca.
A técnica (White-hat) Link-ísca tem o mesmo elemento central que a técnica (Black-hat)
Fazenda-de-links. Em ambas a propagação dos links visa aumentar o PageRank™, e também, atrair visitantes para a sua página (ao ver o link, geralmente a pessoa clica, visitando a página). Essa visita, tem um alto grau de qualidade, porque ela já vem contextualizada. Vamos à um exemplo prático para ilustrar.



A citação linkada ao mesmo tempo que apresenta um voto à página (e como já mencionado aumentando o PageRank™ da página) te dá uma visita de qualidade, pois o usuário já sabe do que se trata o assunto, e visitará pois tem interesse no assunto.

Essa prática é
White-hat (Chapéu-Branco) e totalmente fantástica, pois ela permite um rankeamento bom e duplo. O site que oferece o link citação dá ao usuário a oportunidade de obter mais informações sobre o assunto, e ao mesmo tempo dá um voto e outra visita ao webmaster do outro site. Temos apenas que lembrar que é recomendável incluir o código target="_blank" no link para não tirar o visitante do seu site, apenas proporcionar a ele que se contextualize no assunto do post/texto lendo o outro, sem abandonar a sua página. Eu tenho uma teoria de que o PageRank™, considera mais, sites que fazem citações às fontes. Ou seja, citar outras fontes aumenta não só o PageRank™ de quem está sendo citado, como de quem está citando. Nós sabemos que a estrutura do PageRank™ é mais complexa que um sistema simples de votos. Eu acho que existe uma proporcionalidade entre votos recebidos e votos dados. Se você dá muitos votos, recebe muitos. Já reparou que muitas páginas inserem no meio do texto links sobre diversos assuntos? Isso é muito comum em blogs. Muitos sites/blogs fazem essas citações/contextualizações inserindo, às vezes, links de páginas do próprio site. Essa prática é benéfica para o site pois quando o PageRank™ se altera (aumentando) ele aumenta em efeito cascata (vai aumentando o das páginas internas linkadas). Porém acredito que se um site se limita tão somente a oferecer links internos e não externos, ele não recebe tantos votos quanto podería receber. Entenda o meu raciocínio: Vamos supor que o meu blog, tem dois links internos em cada texto para artigos que eu escrevi no passado e só um para artigos de outrem. Então, quando o PageRank™ for atualizado, eu receberei somente pontos co-relacionados à votos que eu dei (no caso 1 voto). Então acredito que existe uma reciprocidade entre votos dados e recebidos. Esse é o estímulo a você linkar páginas externas com conteúdo útil e contextualizado. Então a magia do Link-Ísca se faz nascer. 1

Então, a melhor forma de ser citado é pesquisar, procurar, se informar, fazer bons textos e bem embasados para ser citado em outras fontes. Essa é uma estratégia que é ao mesmo tempo SEM (Marketing em Motores de Busca) e SEO(Otimização em Motores de Busca).




1. Esse raciocínio, é ainda, uma teoria não testada e comprovada empíricamente, ela se baseia em uma vivência, mas ainda não sofreu testes empíricos rigorosos para determinar sua completa veracidade.

terça-feira, outubro 31, 2006

Link Farm - Fazenda de Links

Link Farm (Fazenda de Links) é um grupo de páginas que se linkam mutuamente, para aumentar artificialmente o PageRank™ das páginas. Geralmente algumas Fazendas de Links são criadas manualmente, mas a maior parte são criadas por programas ou serviços de criação de Fazenda de links. Link Farm é uma forma de Spammear uma search engine, e assim sendo, é uma forma de Spamdexamento. Porém, sistemas de trocas de links, que são feitos para permitir que o usuário possa consultar sites relacionados ao tema (objeto do site) e que são feitos de forma analítica (ou seja, não é predatório, o cara analisou o site que ele está linkando) não são consideradas como formas de Spamdexamento.
Inicialmente, as Fazendas de Links surgiram como uma forma de alguns Webmasters tirarem proveito da fragilidade do sistema de busca chamado Inktomi, que era baseado em popularidade de links. Esse sistema foi alvo de manipulação, porque na época (1999) ele era utilizado por famosos sites de busca como o Hotbot. O Yahoo!, o mais popular na época, também usava os resultados do Inktomi para complementar o seu Diretório de Sites. O impacto da utilização de Fazendas de links, foi reduzir a discrepância entre sites que já estavam a mais tempos consolidados na internet e sites que eram recentes no sistema de index do Inktomi (esse em 2002 fora adquirido pelo Yahoo).
As trocas em Link Farms foram, em um primeiro momento, baseadas em um sistema informal, mas em um momento posterior várias companias foram fundadas para prover registros automáticos, categorização, e linkagem de páginas.
Quando o Google™ se tornou popular, os otimizadores de mecanismos de busca aprenderam que o algorítmo de rankeamento do Google™, é em parte, dependente de popularidade de links. O PageRank™ se baseia em um sistema de votos onde um site com o PageRank™ elevado que linka um outro site com menor pagerank, sinaliza que esse site menorzinho é bom e vai ficar grande.
Porém, a elevação de linkagem de links artificalmente, tenta manipular o motor de busca, dando uma falsa percepção da realidade. Scripts geram milhares de páginas que linkam para outro site aumentando artificialmente o PageRank™ do site.
Várias tecnologias foram criadas pelos Motores de Busca para evitar essa elevação artificial de rankeamento. Então, não perca seu tempo tentando enganar os motores de busca, pois você sabe que será pego e a sanção para técnicas black-hat é o banimento.
A troca de links entre sites relacionados, não é, como dito anteriormente, black-hat. Então trocar links é saudável, uma vez que você possibilita que o seu usuário conheça outras fontes de informação sobre o nicho do seu site. Nas diretrizes para webmasters do google você pode esclarecer essa dúvida e ficar tranquilo com relação à trocas relacionadas.

[Dica:] Afaste-se do Black-hat ou a sanção será terrível. Os benefícios que os mecanismos de busca trazem ao site em termos financeiros é infinitamente superior à uma tentativa esdrúxula de enriquecimento fácil e rápido. Já alertei antes e reitero: Não existe dinheiro rápido na internet. A busca por isso está fadada à terminar com frustração. Todos os sites/blogs da internet que proporcionam boas remunerações foram construídos com tempo. Ninguém fez um site do dia pra noite gerar uma boa receita. Então fique calmo e não se deixe seduzir pelo lado negro da força.
akuma gif

segunda-feira, outubro 30, 2006

Metodos Chapeu Negro (Black-hat)

Métodos Chapéu Negro de SEO são técnicas de otimização de ranking, os quais são desaprovados pelos Motores de Busca, tipicamente porque são considerados meios depreciativos, e não comprometidos em propiciar conteúdo de alta qualidade aos usuários. Os Motores de Busca geralmente penalizam os sites que eles pegam se utilizando dessas técnicas, através da redução do PR (ou do Ranking) ou da eliminação da URL do site dentro das páginas já indexadas (ou remoção para a caixa de areia). Geralmente as penalidades são implementadas automaticamente pelos algorítmos dos motores de busca, uma vez que a remoção manual se tornaria morosa e onerosa, dado o tamanho que a Internet alcançou.
Spamdexamento é a promoção de páginas irrelevantes e geralmente comerciais (ou que visam lucro) através de técnicas excusas que enganam os motores de buscas.
Ainda não foi gerado um consenso entre os "entendidos" do assunto sobre quais meios são aceitáveis ou não aceitáveis quando falamos em aumentar violentamente o tráfego advindo de Motores de Busca.
Spamdexamento, algumas vezes, é confundido com práticas Chapéu-Branco (White-hat), o que não tem nada a ver. Spammear, envolve conseguir uma maior exposição do site do que ela merece (pela qualidade e conteúdo que a página tem), gerando resultados não satisfatórios. Otimização envolve conseguir o ranking que o site merece considerando as palavras e o objeto ao qual ele trata, gerando satisfação ao usuário quando ele busca determinado assunto.
Quando descobrem, os motores de busca geralmente tomam ações bruscas e rígidas contra aqueles que tentam usar métodos antiéticos de SEO. Em fevereiro de 2006, o
Google removeu tanto o site alemão da BMW quanto o site alemão da Ricoh, por usarem essas práticas.
Cloaking, remete à camuflagem, e representa a prática de apresentar uma página aos spiders e apresentar outra versão para os visitantes humanos.
Se os sites da
BMW e da Ricoh foram punidos severamente o que inibe o seu de também o ser?
Talvez você apresente um contra argumento da infinidade de sites na internet (já falado) e que porque o Google se preocuparia com você. Muito cuidado ao ter esse pensamento, pois sabemos que em um mundo competitivo, existe o grande incentivo à denúncias de webmasters que possuam sites concorrentes à você se ele descobrir que você faz uso dessas técnicas. A concorrência é que permite ao Google ficar tranquilo quanto a isso. Se você investe tempo, recursos pagando publicidade, etc... e um espertão desses começa a bombar e jogar você no buraco se utilizando de técnicas sujas, o que te impede de botar a boca no trombone?
Nada.
Se você se interessou sobre o assunto Black-hat, conheça o artigo sobre spamdexamento, tradução de um artigo do
wikipédia que eu publiquei no verdinhas.

O que é Spamdexamento?

Para denunciar aos tres principais motores de busca eis os links:

Google -
Clique aqui
Yahoo -
Clique aqui
MSN -
Clique aqui

Abraços e até mais! Se cuida.

sábado, outubro 28, 2006

Métodos Chapeu-Branco (White-hat)

Métodos Chapéu Branco (White-Hat), são métodos honestos de Otimização do site, e que, não descumprem de forma alguma as diretrizes de cada Motor de Busca. As diretrizes, geralmente, seguem a mesma linha de conselhos tais como: Criar o conteúdo para o usuário (e não para o mecanismo de busca); fazer o conteúdo ser facilmente acessível para os spiders; e, claro, NÃO tentar tapear o sistema. Geralmente, webmasters cometem erros críticos quando vão desenhar ou configurar os seus sites, de tal forma que mesmo sem querer, acabam envenenando inadvertidamente o site, acarretando em um mal desepenho nas buscas. Técnicas Chapéu Branco (white-hat) tentam descobrir e corrigir erros como: menus que não são lidos pelos spiders (geralmente menus em frames), links quebrados, redirecionamentos temporários, ou uma estrutura de navegação pobre.

Uma vez que os Motores de Busca são texto-centradas, muitos dos mesmos métodos utilizados para acessibilidade da web são também vantajosos para SEO. O
Google estreitou ainda mais o relacionamento do SEO e a acessibilidade através do lançamento do: Google Accessible Web Search que prioriza sites mais acessíveis.

Alguns métodos são possíveis para a otimização de conteúdo gráfico, incluindo atributos ALT, e adicionando captação de texto. Até animações em
Flash podem ser otimizadas através da adaptação da página para incluir conteúdo, no caso do visitante não poder ler Flash.

Eis algumas técnicas consideradas adequadas pelos Motores de Busca:

  • Usar títulos únicos e relevantes para nomear cada página.

  • Editar as páginas para conter terminologia mais específica e adequada ao assunto da página, em detrimento ao uso de palavras vagas.

  • Prover conteúdo útil, único e interessante aos interesses dos usuários.

  • Usar meta tags de descrição atualizadas e contextualizadas para tornar as descrições (snapets - aquelas descrições que aparecem nas buscas orgânicas) mais informativas

  • Assegurar que todas as páginas ancoradas por hyperlinks estejam acessíveis (evitando links quebrados).

  • Permitir aos spiders capturar páginas sem sessões de ID, cookies, ou que precise logar (esses elementos se constituem barreiras para o avanço do spider no interior do site).

  • Desenvolver estratégias de "Link Bait". Sites de alta qualidade e que oferecem conteúdo interessante e uma gama de atrativos, tendem a acumular um número elevado de links de retorno.

  • Escrever artigos informativos e uteis sob a licensa da Creative Commons ou de outra licensa open source, para ter, sempre que reproduzido os seus artigos, a retribuição em forma de hyperlink (citação da fonte).

Então temos acima o que é a prática SEO ipsis litteris, que é a aceita pelos principais motores de busca. O lado negro da força é chamado de Técnicas Black-hat. A utilização de técnicas brancas de otimização proporciona um satisfatório retorno financeiro, pois assim como dito anteriormente, ela não só aumenta o número de visitas do site (porque o seu site fica melhor rankeado) mas trás um tráfego que tem afinidade com o seu conteúdo. Ou seja, tráfego de qualidade que aumenta o número de clicks no seu site, e consequentemente seu retorno financeiro.

Fontes:
Wikipédia, Google (Diretrizes de SEO), Google (Diretrizes para Webmasters), MSN/Live Guia para o Webmaster, Yahoo! - Diretrizes de Qualidade e ASK! Diretrizes de Edição.

terça-feira, outubro 17, 2006

SEO - Search Engine Optimization - Otimizacao em Motores de Buscas

Search Engine Optimization é um arranjo de métodos utilizados com o objetivo de melhorar o número e a qualidade de visitantes (para um determinado site) advindos de uma lista “natural” ou “orgânica” de um Motor de Busca. SEO é uma subdivisão do Marketing em Motores de Busca, o qual também inclui a parte de links patrocinados. O termo SEO também pode se referir à “Search Engine Optimizers” (Otimizadores de Motores de Busca) uma indústria de consultores que constroem projetos de otimização para seus clientes. Alguns especialistas, e até os Search Engine Optimizers, distinguem métodos usados pelos praticantes entre “white hatsmurf giff giff white hat (Chapéu Branco) SEO (métodos geralmente aprovados pelos Motores de Busca, como uma alocação eficiente de conteúdo no site tal que facilite ao spider indexar a página), ou “black-hatpirate gif giff black hat (Chapéu Negro) SEO (truques como cloaking e spamdexing – spamdexamento). White hats alegam que métodos black-hat são uma tentativa de manipular os rankings dos mecanismos de busca de forma suja e desleal. Já os Black Hatters dizem que qualquer prática SEO é uma tentativa de manipular o ranking das buscas, e que os métodos que os White-Hatters usam são totalmente irrelevantes. Existem outros SEOs que rejeitam a existência de uma dicotomia entre Black e White hat .

Os Motores de busca exibem diferentes tipos de listagem na página de resultado de busca, incluindo Anúncios em Pay Per Click, inclusões pagas (inclusive o Ask Jeeves até pouco tempo atrás aceitava a listagem paga de sites em seu sistema) e a lista de resultados orgânicos. SEO objetiva principalmente alcançar os objetivos de um website, através da melhoria do número de vezes que o site aparece na lista principal, e da melhoria do ranking que o site aparece na lista de busca orgânica (para as palavras que mais se encontram ao objetivo – nicho – do site). Estratégias SEO, podem aumentar tanto o número, quanto a qualidade dos visitantes. Um visitante de qualidade é o que toma a atitude pretendida pelo webmaster, como efetuar uma compra, requisitar mais informações sobre determinado assunto, assinar um feed, clicar em um anúncio, etc. Search Engine Optimization é algumas vezes oferecido como um serviço isolado, ou como parte de uma estratégia de Marketing maior, que pode, muitas vezes, ser muito efetivo se incorporado ao processo inicial de desenvolvimento e desenho de um site. Quão mais os webmasters se tornam familiares aos benefícios do SEO, mais a demanda sobre serviços de SEO aumenta. Alguns SEOs “profissionais” atestam que SEO eventualmente poderá vir a integrar definitivamente o processo de desenvolmento de sites em um futuro próximo.

Em termos de competição, para algumas palavras chaves (que são muito buscadas) o custo de anúncios em Pay Per Click pode ser bem elevado. Através de um bom posicionamento na parte orgânica da lista de resultados, podemos ter o mesmo tráfego de qualidade, à um custo zero greedy giff gif ganancia dinheiro. Webmasters podem escolher otimizar os seus sites para a lista orgânica, se o custo de otimização for inferior que o custo de arcar com um programa de anúncios pagos como o Adwords.

Nem todos os sites tem objetivos iguais com a otimização em mecanismos de busca. Alguns sites procuram qualquer e todo tráfego que puder conseguir, e pode estar interessado em otimizar o seu posicionamento para frases triviais. Uma estratégia ampla de otimização em sites de busca pode funcionar para um site que possui um nicho bem amplo, como um periódico, um diretório, um fórum sobre assuntos gerais, ou um site que tem em seu sistema de afiliados baseado no modelo CPM [Cost per M (thousand)] de retorno financeiro. Contrastando ao supra exemplificado, alguns empreendedores tentam otimizar os seus sites para englobar muitas palavras chaves específicas à um determinado nicho, que indicam uma alta tendência à uma ação produtiva (compra, cadastro, assinatura, etc...). Uma otimização em sites de busca com um caráter mais amplo (englobando um campo muito geral) pode trazer uma série de problemas à esses sites, o que os estimula a se focar nas palavras chaves que o interessam. Por exemplo, uma otimização que acarrete essa generalidade pode trazer um tráfego excessivo (aumentando a banda no servidor, e com isso aumentando os custos), pode diminuir o número de vendas (pois o público alvo não seria diretamente atingido) ou diminuir os valores das vendas em termos absolutos. Então se concentrar em um tráfego direcionado pode gerar uma melhor qualidade do público em potencial , aumentando as vendas. Então a Otimização em Mecanismos de Busca pode ser muito efetiva se usada numa estratégia inteligente de marketing direcionada ao nicho do site.

P.S: Esse post é uma tradução para os non-english-speakers de um artigo do wikipédia.

O mesmo se encontra aqui: Wikipedia – What is SEO ?

Comentem! Deu um baita trabalho traduzí-lo, custa nada você comentar. É de graça (ainda...smoke gif giff tirando onda)

Brincadeira! Sou um palhaço, palhaço gif giff clown

[update:] Só depois que eu traduzi isso tudo é que eu vi que tinha uma versão do wikipédia traduzida para o português. Não importa, o que vale é a intenção, e modéstia a parte a minha tradução é muito boa (acredito que melhor do que a de quem traduziu lá do wikipédia).