Del.icio.us | Perfil | Contato

Carregando...

sábado, dezembro 30, 2006

Inovações na Internet Brasileira - Criação de sites de sucesso

O Pensador.JpegO ambiente virtual é análogo ao real. Assim como no ambiente real as empresas são administradas por CEOs, os sites são administrados por WebMasters. O grande diferencial dessas duas atmosferas é que o Administrador de uma empresa, seja ela uma padaria, ou uma grande corporação, não tem que construir o prédio, a caixa registradora, o mostruário, ou seja, não tem que construir o aparato operacional que ele administrará. Já no ambiente virtual, a quase totalidade dos WebMasters é quem cuida da construção de tudo. O Webmaster é o responsável pela arquitetura, gerenciamento e publicidade do projeto. É claro, e vale ressaltar, que estamos pensando em empreendimentos que NASCEM na internet e que têm como foco principal a própria internet. Não estou me referindo aqui à sites que projetam uma empresa do mundo real na internet. Estou me referindo à projetos que nascem na internet. Por esses projetos leia-se um Blog, um Site que lança algum produto à internautas (como o Digg, o Technorati), etc...etc...
Então, a grande adversidade para à elaboração de um projeto reside na necessidade do GERENTE ser o "mestre de obras"do seu empreendimento. Esse elemento restringe a questão de criatividade dos sites pois o universo de pessoas que tem potencial para criar alguma coisa realmente inovadora (e essa redundância é necessária porque atualmente o que mais vemos são os criadores de coisas nada inovadoras - os criadores do óbvio) se restringe drásticamente.

A possibilidade de itens inovadores se restringe uma vez que só os progamadores, só as pessoas que têm conhecimento acerca de web programming tem o poder de elaboração de sites. Muitas pessoas que tem um grande potencial criativo deixam de criar sites por esbarrarem nessa barreira.

É claro que, como eu disse no post Webmaster? Será?, várias plataformas existem para justamente inibir esse problema. Wordpress, Joomla, etc... possibilitam, talvez, uma diminuição dessa barreira restritiva. Porém, o desconhecimento de tais plataformas é muito grande (e talvez essa seja a razão de ser do E-Opportunities). A partir da difusão dessas plataformas, mais pessoas entrariam no ramo de Web Business, para possibilitar mais itens inovadores e de qualidade.

Mas infelizmente o desconhecimento prevalesce e muitas pessoas que tem alto poder de criatividade são afastadas por questões de conotação técnica. Assim a Internet Brasileira apresenta baixos índices de sites que nascem exclusivamente da e para internet.

Então a idéia central desse post é:
A internet brasileira está em processo de expansão. Esse momento é altamente favorável à novas criações, porém a questão da programação em web ainda afasta muita gente criativa. Graças à sites de relacionamentos, que arraigaram na cultura do brasileiro (Como o Orkut), novas assinaturas de internet banda larga foram feitas, e mais pessoas foram inseridas na "cultura da web". Com mais pessoas acessando todos os dias, e comprando mais via internet ( as vendas online somaram nos primeiros seis meses de 2006 1,75 bilhão de reais, aumento de 80 por cento frente aos 974 milhões de reais registrado na primeira metade de 2005 - Fonte: Info Online 23/11/2006 ), o espaço para o nascimento de sites e de aumento de publicidade em sites fica altamente favorável.
Com a restrição da criatividade na nossa web. O que fazer?

Alternativas bem legais se mostram viáveis quando falamos em abrir novos sites. Não precisamos ficar quebrando a cabeça todos os dias na busca por inovações e por uma idéia que vá revolucionar a Web Brasileira. Podemos buscar outras alternativas para conseguir montar um site de ótima qualidade e de um bom número de visitantes.

Talvez a grande prova disso sejam os sites Submarino, Mercado Livre, Rec6 (assim como EuCurti, Linkk) e o Contraditorium.

O Submarino é o nosso Amazon.

O Mercado Livre nasceu da iniciativa de um argentino que foi fazer um Mestrado nos Estados unidos. E que absorveu a concepção do eBay, e lançou um projeto audaz na américa latina.

O Rec6 (assim como o EuCurti e o Linkk) representam o Digg.

O Contraditorium uma espécie de ProBlogger só que do Brasil.

E mais recentemente o BlogBlogs que vai buscar oferecer as facilidades para Bloggers assim como o Technorati. Porém ainda está em fase de testes e quase nada funciona.

Então podemos ver que muitas vezes as receitas de sucessos de outros países podem ser implementadas no nosso ambiente virtual (Brasileiro) e, assim como os principais, podem gerar não só muitos lucros como muita satisfação em ter um bom projeto.

A grande ressalva é com relação à CopyRights, mas na maior parte das vezes, a instituição de um site relacionado, que capta a idéia central, não se constitui em crime contra a propriedade intelectual. Então a incorporação de sites que só existem em outras línguas é uma boa alternativa para a construção de sites de boa qualidade.



O E-Opportunities voltou após uma semana de recesso festivo, e após a publicação desse post retoma o recesso voltando a partir do dia 2 de Janeiro.
Para você, um Feliz Ano Novo, um 2007 repleto de sucesso, saúde e felicidade.Beba.gif

Não percam as novidades de 2007!!!

sábado, dezembro 23, 2006

Feeds Completos ou Incompletos? Eis a questão.

RSS FEED Quebrado/incompletoA utilização de Feeds se mostra uma forma muito eficaz de fidelizar leitores. A comodidade do usuário ter acesso à todas informações, que ele tem interesse, a partir de um agregador é um fator que possibilitou, talvez, a expansão dos processos cognitivos na internet. Assim como esse elemento aumentou a facilidade de acesso à informação, ele traz consigo dois possíveis elementos negativos: o Abuso do uso de Feeds e o abandono do site por parte do leitor.
Como abordei anteriormente, um dos segredos do SEO, está alicerçado na qualidade do conteúdo que o site/blog oferece. Um bom conteúdo é visto com bons olhos tanto pelos mecanismos de busca, quanto por outros sites/blogs. A partir de um bom artigo outras pessoas linkam para o seu artigo (ou próprio site/blog). Essa prática já vimos que se chama Link Bait.
Porém não só os mecanismos de busca, e outros webmasters, visam esses elementos textuais. Spammers também visam os feeds como forma de abastecer seus sites spammicos com conteúdo de alto valor em termos de qualidade. Vimos no artigo anterior o fenômeno spâmmico chamado Scraping, no qual os spammers, ao se utilizar de scripts dinâmicos (seja um php próprio, ou até mesmo plataformas fáceis de operacionalizar, como o Wordpress) capturam o conteúdo a partir do RSS/Feed do site (arquivo XML) e o disponibiliza com banners e links de afiliados.
Já o segundo elemento, que se constitui no possível abandono do site por parte do usuário, tende a desestimular o webmaster/blogger, uma vez que grande parte do incentivo à produção intelectual reside nos ganhos advindos da publicidade do site/blog. A única remuneração, que o blogger/webmaster obtém, é aquela advinda dos ganhos com a cessão de espaço no seu projeto para a exibição de banners de afiliados/patrocinadores. Com a utilização de Feeds completos, o usuário tende a não acessar o site, pois o agregador disponibiliza na íntegra o conteúdo do post (seja um artigo, notícia ou review de algum produto novo).

Então temos um dilema:
Devemos liberar o nosso conteúdo totalmente através de Feeds (possibilitando o conforto do nosso leitor), ou restringimos os Feeds a títulos ou meros snippets (pequenas descrições textuais)?

A resposta vai variar dependendo do seu site (blog) e nicho.

Se fizermos uma pequena pesquisa acerca de Sites de Notícias, sejam eles Brasileiros ou Internacionais, vamos perceber que nenhum disponibiliza feeds completos. Talvez o reconhecimento dos dois elementos negativos supracitados seja o fator determinante para a não liberação de feeds completos.

Se o site de notícias liberar o feed completo ele será amplamente prejudicado tanto com relação ao baixo índice de visitas que ele receberá (e os ganhos de portais de notícias, assim como de sites e blogs, são baseados na publicidade do seu espaço) quanto a concorrência em termos de visitantes advindos de Motores de Busca. A concorrência entre os sites que provêm bom conteúdo ia diminuir completamente, pois muitos sites iriam disponibilizar as notícias de forma desumana (porque o script faz dinamicamente, então o webmaster não despeenderia trabalho algum, ou seja, não tem como um editor de uma matéria concorrer com um scraper). Assim os sites deixariam de investir em bom conteúdo porque existiria uma externalidade positiva (uns sites de notícias iam esperar outros publicarem pra sugarem e exibir, ou seja, seria mais vantajoso esperar que outro produzisse a informação ao invés de produzí-la - Sempre existe o incentivo a não produzir nesse caso - Isso é teoria MicroEconômica). Ao trabalhar na composição de artigos úteis, outro absorveria o conteúdo e ganharia dinheiro às custas do site. A partir da diminuição da produção intelectual teríamos um colapso no processo de produção de conhecimento. (NOSSA, QUE DRAMA :S)

O fato é que a disposição de feeds completos é um elemento a ser tratado com cuidado.
A posição do AdSense for Feeds é uma sinalização na tentativa de fomentar o uso de feeds completos e eliminar o primeiro elemento negativo enumerado por mim. Porém o AdSense for Feeds está liberado apenas para os editores Norte-Americanos.
O E-Opportunities, a partir da semana passada adotou a postura de disponibilizar os conteúdos completos. O argumento que me fez tomar essa atitude é a minha necessidade de fidelizar leitores e o baixo índice de notoriedade que o E-Opportunities tem. Então a chance de algum scraper ver no E-Opportunities uma grande fonte de obtenção de conteúdo de qualidade é ainda muito baixo. (Quem disse que esse seu conteúdo é de qualidade? AFF... Convencido,hein?)

Então o meu custo benefício é ainda suportável em termos de utilização de Feeds Completos.

O E-Opportunities (e eu é claro) entrará em um pequeno recesso natalino e só voltará a partir do dia 25.

Para você que curte o E-Opportunities, um feliz natal, repleto de paz, harmonia e felicidade. E pra você que não curte também Língua.gif !

ho ho ho Natal-Papai Noel gif

quinta-feira, dezembro 21, 2006

Estudo de Caso: Scraping - Scraper Sites - Sites sugadores de conteúdo

Este é um post que compõe os Estudos de Casos, e que analisa um caso de SPAM de conteúdo: Um Scraper Site.

Vou pedir que se dirija ao site:
http://www.ronaldofansite.com/cristiano/

Ao chegar no site você vai ver uma foto do Cristiano Ronaldo, algumas notícias à sua esquerda e um Arranha-céu (120x600) do AdSense™ (Bloco de anúncios).

Gostaria que você desse um refresh no site (Atualizar) para perceber o seguinte elemento:



Na barra de ferramentas podemos notar que o site convert-rss-to-javascript.com é carregado. O Pagerank do site é 2, indicando que possivelmente (e eu tenho certeza que sim) esse site é parte de uma Fazenda de Links.

As notícias são recentes e isso dá uma falsa percepção de utilidade. O Arranha Céu do AdSense é presença marcante no site, dividindo o palco com o "conteúdo". O usuário fica na dúvida sobre o que é mais informativo. O conteúdo ou os anúncios.



Analisando mais a fundo a página temos a referência da fonte de conversão do RSS em html. Se trata do já mencionado, Convert-RSS-to-Javascript.com. Ao olharmos abaixo dessa referência vemos um link de afiliados do Commission Junction. Ou seja, o usuário é convidado a procurar por mais informações sobre o Cristiano Ronaldo no eBay.



Ao passarmos o mouse por cima do link da notícia podemos ver a verdadeira fonte da notícia: O Site SportNetwork (uma boa fonte de notícias em inglês sobre esportes).



Se você notar o canto inferior direito do site você vai ver os seguintes dizeres:

Copyright © 2005. ExodusSearch.com Team

Esse suposto time, é a Link Farm que eu mencionava anteriormente. O site analizado pertence ao ExodusSearch.com


Considerações


No caso analisado pudemos ver a técnica spâmica conhecida como Scraping. Ela se baseia na captura de informações advindas de outros sites. O site só exibe uma snippet (um curto fragmento textual) porque o feed liberado pelo Sport Network é incompleto. Esse é o argumento que servirá de base para o meu próximo post no qual eu analiso se a liberação de feeds completos é viável ou não.

O spammer do nosso Estudo de Caso se utiliza, como já enfatizado, de um conversor de RSS para HTML em JAVASCRIPT. Felizmente, os motores de busca já aperfeiçoaram as suas técnicas, e esse tipo de site não tem qualquer relevância em termos de busca orgânica. o Spammer desse estudo de caso é iniciante (ou metido a esperto), pois o scraping via JAVASCRIPT é obsoleto. O Spider não lê o texto que o usuário lê. Ele apenas segue o link de origem do texto, ficando o scraper site a ver navios. Ou seja, esse spammer não deve estar ganhando nada com esse site, pois os mecanismos de busca não indicam o site dele na lista de resultados. Quem vai ganhar o crédito com a notícia, é efetivamente o site que correu atrás da notícia: o SportNetwork.

Podemos identificar elementos do estudo da MicroEconomia através da possível externalidade positiva que a notícia gera. Ao liberar a notícia ou liberar um conteúdo grande, algum FreeRider pode fazer uso dele pra obter ganhos.

Infelizmente eu trago a vocês o que acontece na Web. A realidade é essa. Eu não escolho as técnicas de SEM (Search Engine Marketing) e de SEO que as pessoas usam. Eu, com o E-Opportunities, tento ajudar você a seguir o caminho mais correto, justo e efetivo para conquistar o seu espaço na internet e assim auferir ganhos.

quarta-feira, dezembro 20, 2006

Scraper sites - Sites capturadores ou sugadores de conteúdo

Um Site Capturador ou Sugador (Scraper site) é um website que obtém suas informações e conteúdo através de técnicas de web scraping (captura dinâmica de conteúdo). Em essência nenhuma parte de um Site Capturador (Sugador) é original. Mas encontramos sites que capturam a maior parte do seu conteúdo, e que cria uma parte infinitamente inferior. Um motor de busca não é um exemplo de site capturador. Sites como o Yahoo e o Google™ puxam o conteúdo de outros sites e fazem o indexamento desse conteúdo para que você possa ter acesso ao índice através de palavras chaves. Motores de Busca podem exibir breves descrições (snippets) do conteúdo original de um site, o qual o spider acessou, em resposta a determinada busca. Como o Motor de Busca faz esse serviço de organização de conteúdo, ele de forma alguma pode ser considerado um scraper.
Nos últimos anos, e com o advento do programa de afiliados AdSense, os sites capturadores proliferaram em um nível altíssimo através de práticas de spamdexamento. Sites com conteúdo livre, incluindo Wikipedia, são fontes comuns de material para sites capturadores.


Feito para o AdSense™


A maioria dos sites sugadores foi criada para obter rendimentos através do uso de programas de afiliados, como o AdSense. Nesse caso, eles foram chamados de sites Feitos para AdSense ou MFA (Made For AdSense™). Esse também é um termo pejorativo utilizado para se referir a sites que não tem outro objetivo que não o de conseguir visitantes para o propositu (existe algum?) de clicar nos anunciantes.

O problema com os Feitos para AdSense™ é que eles são considerados sites que spameiam os Motores de Busca, diminuindo a usabilidade e utilidade dos resultados, através da provisão de resultados poucos satisfatórios para os usuários. O conteúdo capturado é considerado reduntante pois o Motor de busca vai exibir um outro site com o mesmo conteúdo de outro (acarretando em uma limitação de conteúdo diferenciado, que o usuário poderia ter acesso, pois se o mecanismo de busca exibisse outro site - que não fosse scraper - o usuário poderia obter mais informações).

Esses tipos de sites estão na mira dos vários mecanismos de busca, sendo banidos ou apenas mostrados como resultados suplementares ao invés de aparecer nos primeiros lugares da lista orgânica.


Legalidade


Uma vez que os sites capturadores pegam o conteúdo de outros sites sem a permissão dos criadores originais, eles frequentemente violam termos de Direito de Propriedade Intelectual. É ilegal reproduzir material protegido por CopyRight sem a permissão do criador. Isso se aplica tanto se o material foi publicado originalmente em um Blog, em uma lista de e-mails, ou em qualquer outro meio menos formal, quanto como se fosse publicado comercialmente.

Até mesmo se o conteúdo foi originado de Sites Open Source, pode ser considerado uma quebra de copyright, se ele não respeitar a licensa de publicação. As licensas GNU FRee Documentation License (GFDL) e Creative Commons Share Alike (CC-BY-SA) requerem que a pessoa que reproduz o conteúdo, informe aos leitores das condições da licensa e dê crédito aos autores originais. A maioria dos sites capturadores que copiam conteúdo licensiado por GFDL ou CC-BY-SA não faz isso, ferindo então as leis de proteção aos direitos autorais.


Técnicas Scraper


Muitos capturadores vão puxar descrições e textos de sites com alto ranking de palavras chaves para o que eles objetivam. Dessa forma eles esperam ser melhor rankeados em páginas de resultados de motores de busca. RSS Feeds são altamente vulnerável aos scrapers.

Atualmente as técnicas scrapers que mais se desenvolvem são as baseadas em scripts dinâmicos que exibem o conteúdo liberado através de Feeds. Sem muita dificuldade é possível encontrar na Internet muitos scripts, à venda, de sites feitos para adsense que sugam automaticamente conteúdo de diversas fontes (dentre essas Wikipédia é claro). Então, o abuso de Feeds atualmente é o carro chefe do Scraping no Planeta.

No passado, sites Scrapers colocavam apenas anúncios e parágrafos de palavras selecionadas aleatoriamente de um dicionário. Assim um visitante clicava sempre no anúncio por que era a única parte que ele entendia no texto da página. Os Webmasters desses sites capturadores obtiam ganhos monetários advindos desses clicks. Redes de afiliados como o AdSense™/AdWords™ alegam estar em constante trabalho para remover esses sites de seus programas apesar de haver uma profunda polêmica sobre esse assunto, uma vez que essas redes se beneficiam diretamente dos clicks gerados por esse tipo de site. Sob o ponto de vista dos anunciantes os programas de anúncios de clicks (Google AdWords™, Yahoo Search Marketing, MSN adCenter) não parecem estar se esforçando para coibir esses tipos de sites.

Scrapers tendem a se associar através de Fazendas de Link, por isso, muitas vezes a técnica spammica de Scraping é confundida com Link Farm.



Fontes em inglês:
Wikipédia
Search Engine for Dummies - Peter Kent - Editora Wiley Publishing, Inc.

domingo, dezembro 17, 2006

Google™ API Search - Tutorial de implementação de Busca

Esse post objetiva oferecer uma tradução do post Simple Hack: Basic Ajax Search Utility do Hoctro's place, um blog especializado em Hacks para Blogger™. Nesse tutorial, o Hoctro oferece aos usuários uma caixa de busca do Google™ AJAX API.
Essa caixa, por ser mais estilizada, e poder ser combinada com o AdSense™, pode aumentar a sua possibilidade de ganhos. Além disso, ela tem uma gama de possibilidades de pesquisas. Desde a Web, o próprio Blog, ou o Blogger™.
Ele criou esse post, através de um pedido meu, e como retribuição, em primeiríssima mão, o E-Opportunities traz aos Brasileiros e aos Portugueses um tutorial em Português(PT e BR) sobre a instalação do GOOGLE™ API AJAX SEARCH UTILITY.
Para mais hacks sobre o Blogger™ não deixem de conferir o blog do Hoctro!



Tutorial - Busca - GOOGLE™ API


Passo 1:

Consiga a sua senha/chave API no endereço: http://code.google.com/apis/ajaxsearch/signup.html
É muito fácil e rápido. Basta adicionar o endereço correto do seu blog/site e clicar em sign up que a senha será gerada automaticamente.


Passo 2:

Adicione o CSS e o Código ao cabeçalho, justamente depois da tag ] ] ></b:skin> . Troque as chaves em negrito que aparecem duas vezes no código pela sua chave.

<script

src='http://www.google.com/maps?file=api&amp;v=2&key=wW9cday6o7K3g' type='text/javascript'/>
<script

src='http://www.google.com/uds/api?file=uds.js&amp;v=1.0&key=wW9cday6o7K3g' type='text/javascript'/>
<link href='http://www.google.com/uds/css/gsearch.css' rel='stylesheet' type='text/css'/>
<link href='http://www.google.com/uds/css/gsearch_darkgrey.css' rel='stylesheet' type='text/css'/>

<style type='text/css'>
/* primary colors */
.app_gsvsc { color : rgb(153, 170, 221); }
.search-form-complete_gsvsc div.search-form-save_gsvsc { color : rgb(170, 221, 153); }
div.search-form-save_gsvsc { color : #202020; }

/* selected tag */
div.tag-selected_gsvsc { color : rgb(170, 221, 153); }

/* hover colors */
div.more_gsvsc:hover { color : rgb(170, 221, 153); }
div.tag-control_gsvsc:hover { color : rgb(170, 221, 153); }
.search-form-complete_gsvsc div.search-form-save_gsvsc:hover { color : rgb(170, 221, 153); }
.footerBox_gsvsc a:hover { color : rgb(170, 221, 153); }
.playerBox_gsvsc a.title_gsvsc:hover { color : rgb(170, 221, 153); }

/* secondary colors */
div.more_gsvsc { color : rgb(204, 204, 204); }
div.tag-control_gsvsc { color : rgb(204, 204, 204); }
.searchForm_gsvsc { color : rgb(204, 204, 204); }
.search-form-input_gsvsc { color : rgb(204, 204, 204); }
td.edit-form-input_gsvsc input { color : rgb(204, 204, 204); }
div.edit-form-submit-box_gsvsc { color : rgb(204, 204, 204); }
.footerBox_gsvsc a { color : rgb(204, 204, 204); }
.playerBox_gsvsc a.title_gsvsc { color : rgb(204, 204, 204); }
div.edit-tag_gsvsc { color : rgb(204, 204, 204); }

/* special settings, not called out in standard color overrides */
.tiny-results_gsvsc div.tiny-video-result_gsvsc { border-color : #000000; }
.results_gsvsc div.video-result_gsvsc { border-color : #000000; }
.search-form-input_gsvsc {
color : #676767;
background-color : #e0e0e0;
}
.gsc-control {
width: 100%;
}

</style>
<script type='text/javascript'>
var coreSearch;


function SolutionLoad() {

var controlRoot = document.getElementById("searchControl");

// create the search control
coreSearch = new GSearchControl();
coreSearch.setLinkTarget(GSearch.LINK_TARGET_SELF);
coreSearch.setResultSetSize(GSearch.LARGE_RESULTSET);

// prep for decoupled search form
var searchFormElement = document.getElementById("searchform");
var drawOptions = new GdrawOptions();
drawOptions.setSearchFormRoot(searchFormElement);
drawOptions.setDrawMode(GSearchControl.DRAW_MODE_TABBED);

// populate - web, this blog, all blogs
var searcher = new GwebSearch();
searcher.setUserDefinedLabel("The Web");
coreSearch.addSearcher(searcher);

searcher = new GblogSearch();
searcher.setUserDefinedLabel("Blogsphere");
coreSearch.addSearcher(searcher);

searcher = new GblogSearch();
searcher.setSiteRestriction("http://hoctro.blogspot.com/");
searcher.setUserDefinedLabel("Hoctro's Place");
coreSearch.addSearcher(searcher);

searcher = new GblogSearch();
searcher.setSiteRestriction("http://googleblog.blogspot.com/");
searcher.setUserDefinedLabel("Google Blog");
coreSearch.addSearcher(searcher);

searcher = new GwebSearch();
searcher.setSiteRestriction("http://www.blogger.com/");
searcher.setUserDefinedLabel("Blogger");
coreSearch.addSearcher(searcher);

coreSearch.draw(controlRoot, drawOptions);

}

function doCoreSearch(q) {
coreSearch.execute(q);
}


registerLoadHandler(SolutionLoad);

function registerLoadHandler(handler) {
var node = window;
if (node.addEventListener) {
node.addEventListener("load", handler, false);
} else if (node.attachEvent) {
node.attachEvent("onload", handler);
} else {
node['onload'] = handler;
}
return true;
}
</script>


Passo 3:

Adicione essas duas novas Widgets ao seu blog, atentando para o fato de que a opção Expand Widget esteja marcada. No nosso caso estou numerando as duas como 1 e 2. Mas se você já criou widgets antes então eu recomendo você colocar outros números.

<b:widget id='HTML1' locked='false' title='Search Bar' type='HTML'>
<b:includable id='main'>
<b:if cond='data:title != ""'>
<h2 class='title'><data:title/></h2>
</b:if>
<div class='widget-content'>
<div id='searchform'>Loading...</div>
</div>
<b:include name='quickedit'/>
</b:includable>
</b:widget>

<b:widget id='HTML2' locked='false' title='Search Results' type='HTML'>
<b:includable id='main'>
<b:if cond='data:title != ""'>
<h2 class='title'><data:title/></h2>
</b:if>
<div class='widget-content'>
<div id='searchControl'>Loading...</div>
</div>
<b:include name='quickedit'/>
</b:includable>
</b:widget>

Passo 4:

Mova livremente pelo seu template as Widgets através da guia Elementos da página do Blogger. Fique a vontade para colocar onde quiser a widget da caixa de busca e a widget dos resultados.



Note que nessa tela aparecerá um popup de javascript contendo uma mensagem de que a chave não é válida. Ela não é válida porque você está montando o blog em um domínio diverso daquele que foi designado inicialmente. Ou seja, a chave está rodando em um domínio beta.blogger.com e não no seu domínio. Porém quando você salvar vai tudo dar certo.



Passo 5:

Perceba que as guias tem a denotação Hoctro's place. Ou seja, basta a você personalizar a sua caixa de busca para ela apresentar o seu blog.

searcher = new GblogSearch();
searcher.setSiteRestriction("http://hoctro.blogspot.com/");
searcher.setUserDefinedLabel("Hoctro's Place");
coreSearch.addSearcher(searcher);




Integração com o AdSense™


Para integrar com o AdSense™ você vai ter que se cadastrar no site Co-Op do Google e fazer a sua própria página de busca. No painel de controle da Custom Search Engine, você vai achar o seu código. No meu caso é 012143412345664832938:fenhupur9ci.

Então para integrar ao AdSense™ basta você criar uma nova guia com a sua própria Search Engine, adicionando esse código:

searcher = new GwebSearch();
searcher.setSiteRestriction("012143412345664832938:fenhupur9ci");
searcher.setUserDefinedLabel("A Web");
coreSearch.addSearcher(searcher);


Bem, por hoje é só. Espero que tenham gostado.

Abraços

sexta-feira, dezembro 15, 2006

Clicks automatizados no Adsense™ - Clicador automatico - Fraude de Clicks

Conheça em primeira mão o Clicador do Adsense™

Problemas relacionados à Fraude de Clicks



Muito se fala na internet em aumentar a receita proveniente do AdSense através de Otimização do seu site em Motores de Busca (SEO), através da Otimização da alocação dos anúncios, através da tentativa de chamar atenção do usuário e tudo mais. Porém, o E-Opportunities traz a vocês em primeira mão uma foto (Ultra-secreta) do único Clicador automático do AdSense ainda em atividade.

O clicador automático foi construído na Suíça. Acredite ou não, o Google, Yahoo!, MSN e Altavista ainda não conseguiram desenvolver uma técnica para superar o caráter fraudulento desses clicks.

A fraude de clicks é um problema seríssimo para os Motores de Busca, uma vez que os clicks fraudulentos abaixam a efetividade do marketing, afastando a clientela de anunciantes dos mecanismos de busca. Para os anunciantes esse problema é tão ruim quanto, porque eles perdem seus anúncios (uma vez que o click não era direcionado) e assim, terão que buscar ser resarcidos. Muitas vezes esse resarcimento não é só o valor do click. Vamos supor uma loja, que se utiliza do AdWords para fazer propaganda de artigos natalinos, e passa uma semana sendo vítima de clicks falsos. Ela vai ver em sua receita (com vendas de artigos natalinos) o alto impacto dessa prática negativa.
Essa dificuldade de mensuração de dano, gera ao Google um grande problema. O último litígio envolvendo o Google nesse issue, foi em agosto, onde um promotor de justiça dos EUA entrou na justiça contra o Google visando ser indenizado pela fraude de clicks que afetou suas duas empresas. No caso Lane's Gift versus Google, esse teve que desembolsar a singela quantia de 90 Milhões de Dólares em resarcimento aos utilizadores do AdWords.

Em seu artigo - Problema da fraude de clicks em anúncios pagos - José da Silva descreve várias técnicas que os mecanismos de busca usam para detectar possíveis clicks inválidos:
  • Restrição de clicks por IP/Visitante único. Dessa forma, se restringe a 1 ou um número pequeno de clicks válidos por IP.
  • Rejeição de validade de clicks, realizados por usuários que não permitem a utilização de cookies. Porém o autor argumenta, que essa prática não recebeu respaldo da comunidade, devido à questão de privacidade que os cookies estão atrelados.
  • Consideração do cabeçalho enviado pelo navegador (browser) onde os atributos USER AGENT servem como identificação. Essa prática não foi muito efetiva porque alguns Bots possuem mecanismos de multi USER AGENT, enganando a validação.
  • Limitação da exibição dos anúncios em um determinado território. Evitando outros países, ou regiões onde o tráfego poderia ser descartado.
Esse clicador de "AdSense™" é o que há de mais hi-tech na tentativa de burlar essas estratégias (de coibição de clicks fraudulentos). O mecanismo dele permite que se efetuem tantos clicks por minuto ou hora. Em um determinado intervalo de tempo ele conclui o loop (laço de repetição), volta e clica de novo no anúncio, como se fosse um pêndulo. Ainda não foram desenvolvidas nem uma técnica para a supressão dessa fraude, porque o clicador possui uma mobilidade espacial muito grande. Os clicks podem ser gerados de múltiplas máquinas. Não se restringe a um só lugar. Daí o caráter móvel do clicador.

Você quer ver a foto do automatizador em ação?
A foto segue abaixo:

Clicador de AdSense

quarta-feira, dezembro 13, 2006

Adsense™ - Bloquear certos anúncios, funciona?

A primeira vez que li uma dica sobre a possível eliminação de anunciantes porqueiras não raciocinei. Fui logo retirando aquele bando de anunciante "de qualidade duvidosa". Porém, passando um ou dois dias fui refletir acerca do que tinha acabado de fazer. Eu utilizo o AdWords™ para fazer a publicidade do E-Opportunities. E sei que o sistema de exibição de anúncios se dá através de leilão (e que você pode acompanhar detalhes técnicos acerca do funcionamento no tópico AdSense™ - O Que é?). Então parei e refleti. Será que a atitude de remoção de certos anunciantes não vai desequilibrar a concorrência?
Quando você restringe a participação de um monte de anunciantes (sejam porqueiras, pareçam porqueiras, ou não) você está manipulando o leilão em favor dos que pagam menos. Infelizmente essa é a verdade.
Em um blog relativamente famoso, o Digital Inspiration, a muito tempo atrás, isso foi debatido. E se você observar os comentários, vai ver que a idéia de bloquear anúncios determinados literalmente mela o leilão e abaixa os seus ganhos. No site Adsense How To's, em especial no tópico Como aumentar os ganhos por click, você pode conferir que em Erros Comuns está presente essa tentativa de eliminar anunciantes que pagam pouco.
Ou seja, não estou tirando isso da minha cabeça (apesar da minha inquietude reflexiva ter gerado essa vontade de esclarecer esse assunto), isso já é sabido na Web.
Então pare de interferir no Mercado, pois esse tem que ficar livre hehehe (salve neoclássicos!)

Abraços

[Update:] Veja novas idéias e conclusões em AdSense™ - Bloquear anuncios funciona? Volume 2

terça-feira, dezembro 12, 2006

Estudo de Caso: SPLOG - Wordpress

Esse estudo de caso visa demonstrar que o Wordpress também é uma plataforma visada para a construção de SPLOGs.

Peço que se dirija ao site:

http://irem-hayalet-sevgilim-indir.azeqq.org

De cara você já vai ver uma galeria pornográfica.



Essa galeria se justifica por causa do sistema de afiliados desses sites. Eles pagam comissões por vendas realizadas a partir da id de afiliado do link.

Veja:



Agora que você entendeu o porquê, do webmaster (se é que podemos chamá-lo assim) fez essa porcaria, vamos entender o como, ele fez para um cidadão turco comum, ao digitar a sua cantora favorita Irem, e um de seus albuns Hayalet Sevgilim (que é o título de uma das músicas) chegar nesse SPLOG através do Google.

O Spammer criou um Blog falso através do Wordpress. E para levá-lo à página pornô que vimos ele se utilizou da técnica Redirecionamentos não autorizados (Sneaky Redirects). Nesse caso, não consegui identificar se ele se utilizou de um código de javascript, ou de uma meta refresh, ou de um redirecionamento no próprio servidor, mas o que fica claro é que ele se utilizou de cloaking, e vou mostrar abaixo o porquê:



Para ver mais de perto o que eu vi, basta ir ao cache do google: Cache. Aqui você poderá examinar e ver que ele puxou o mecanismo de busca através da alta densidade de palavras como irem-hayalet sevgilim indir e através do bombardeamento de palavras-chaves (keyword stuffing).

O Wordpress é muito visado, por causa da sua facilidade em agregar dinâmicamente (através de php) conteúdo fornecido através de Feeds (RSS, Atom, etc). Essa é a grande discussão acerca da utilização ou não de Feeds completos. Essa técnica de sugar conteúdo de sites de qualidade para exibir anúncios e publicidade, nos Estados Unidos, é muito comum. Vários são os scripts dinâmicos que realizam essa tarefa. O nome desses sites e dessas técnicas são Scraper sites (serão vistos em um momento posterior, não perca!)

Espero que tenham gostado dos Estudos de Casos sobre SPLOG. Acredito que todos puderam conferir as técnicas black-hat da forma mais enfática que elas se dão.
Gostaria de reiterar que todas essas técnicas já foram superadas pelos mecanismos de busca. Hoje em dia a chance de algum desses webmasters obter vantagens financeiras é muito remota. Isso, porque como já mencionado anteriormente, os motores de busca investem mais e mais a cada dia em tecnologia para erradicar essas técnicas.

quinta-feira, dezembro 07, 2006

Estudo de Caso: SPLOG - Blogspot

Assim como dito anteriormente, vamos fazer aqui hoje um estudo de caso sobre SPLOG.

O primeiro site analisado será o de domínio Zikyb.info.

Vou pedir para você acessar essa página dele:

http://adlig.zikyb.info/

Agora vamos passo a passo analisar o Blog.

1 - Primeiro Passo

Podemos notar que o blog é gratuito. É um blog do Blogger.
A princípio não notamos nada de anormal. O blog não possui Reflinks (Links de referências de programas de afiliados) então não temos nem idéia do que se trata. Perceba, que os links (citados no corpo da página), indicam domínios sem strings de referências: "click=id, ?ref=id, etc.." Os links favoritos da sidebar indicam possíveis sites parceiros. Na verdade são outros sites iguaizinhos a esse que estamos analisando. Então já começamos a identificar que isso se utiliza da técnica Link Farm. O(s) Spammer(s) fizeram (fez) com que se criasse um cíclo de votos, onde esse site vota para aqueles e aqueles votam pra esse, aumentando falsamente o Pagerank™ deles.

Passo 1 - Página aparentemente normal

2 - Segundo Passo

Ao investigarmos mais um pouco a página, vamos encontrar outra técnica black-hat: Hidden keywords, ou seja, palavras chaves escondidas.

Passo 2 - Texto Oculto - Hidden keywords

3 - Terceiro Passo

Continuemos a analisar a página, ao descermos o scrollbar, vamos vendo comentários de incentivos...como Bom trabalho, Ótimos links...
Perceba que essa tática tenta transparecer que o blog não é fake. Pois se tem comentários de humanos então o teoricamente não seria um SPLOG.

Passo 3 - Comentários aparentemente normais

4 - Quarto Passo

Ao descermos mais um pouco, temos acesso ao outro post do cidadão.
Se você sabe ler inglês, você de cara já percebeu que esse blog se utiliza de bombardeamento de palavras (stuffing keywords). Esse texto não tem qualquer sentido. É um bando de palavras em ingles combinadas de tal forma que pareça ser mesmo um texto. Mas não é. Note que ele tenta transparecer uma possível utilização da estratégia white-hat Link Bait, mas no caso nada mais é que uma tentativa de manipulação do Motor de Busca. Ao juntarmos um link à uma palavra, damos uma sinalização ao Motor de Busca que essa "possível busca" pode ser sanada pelo link em questão. Se conseguirmos alastrar por toda a internet essa "citação linkada do mal", o Google, Yahoo, MSN, etc vai crer que esse link é mesmo uma ótima alternativa para a busca da palavra. Isso já foi conhecido no passado como Google Bombing.

Passo 4 - Possível Link Ísca - Nada mais nada menos que uma Link Farm

5 - Quinto Passo

Vamos nos perguntar pra que esse cara fez isso. Porque perder o tempo fazendo isso? Bem, nós sabemos que assim como a economia neo-clássica doutrina, os seres humanos são movidos por incentivos. E no caso o incentivo financeiro é o grande motivador de todas as ações apresentadas aqui. Você, no caso, provavelmente não pegou a grande sacada desse SPLOG do caso. Duas são as alternativas pra esse Blog ter sido criado. As duas se conjugam com Cloaking. Uma é ganhar com afiliados e a outra é de, uma vez indexada a página pelos Motores de Busca, trocar o conteúdo da página para exibir outra página com outra cara, outro conteúdo, e com links de afiliados (claro!).

A segunda alternativa vamos analisar no próximo estudo de caso, porque a primeira alternativa é o objetivo do SPLOG.

Ao selecionarmos o texto do link WEBMOTORS, e ao clicar com o botão direito do mouse e selecionar a opção visualizar código fonte da seleção, vamos ver para onde a pessoa que clicar no link será direcionada.

Passo 5 - Página de compra do site do Webmotors

6 - Sexto Passo

Ao clicarmos, notamos que fomos redirecionados para uma página de compra de carros. Essa página com certeza vai oferecer uma comissão, sobre a venda realizada, para aquele Webmaster que através da publicidade do seu site deu origem à venda.
Assim como o link do Webmotors, todos os links que estão presentes naquela lista vão redirecionar a pessoa que clicá-los, até um site onde o webmaster estará ganhando algo.

Ao selecionar o corpo da página (main) e clicar com o botão direito do mouse, visualizando assim o código fonte da seleção, vamos ver a existência de dois comando de javascript que vão dar esse efeito. Um é o onmouseover e o outro é o onclick. Um mostra o link do webmotors, uma vez que passamos o mouse sobre o link. O outro é a página para onde o usuário será levado ao clicar no link. Perceba que a id de afiliado do nosso spammer é 158948.

Passo 6 - Código fonte da seleção

No passado, como disse no post Spam - Isso gerava dinheiro antigamente? , as atividades spammicas rendiam muito dinheiro. Dependendo da sua personalidade, provavelmente você vai achar que ninguém pôde ter ganhado algum dinheiro com esse tipo de site. Porém, devo alertá-lo que a pessoa (como vimos anteriormente) não fazia 1 ou 2 desses blogs. Ela fazia um número muito grande. Hoje em dia, existem scripts que fazem sites fakes como esse que você viu em questão de 10 minutos. Ou seja, isso impreguinava nos motores de busca. Existem muitas buscas com palavras digitadas erroneamente, e/ou palavras que não existem, etc etc...
Imagina que se o cara tivesse 1 visita em cada blog dele por dia, e tivesse uma média de 10.000 blogs (porque tem script que faz mais que isso em 10 minutos) ele teria muito mais visitas que muitos sites de ótima qualidade que existem por aí.

Porém, atualmente, o investimento em combate à esse tipo de coisa é muito grande. Então, dificilmente (acredito) que montar um site assim gere algum dinheiro. Acredito que é muito mais fácil investir em um site de qualidade, etc etc para obter vantagens financeiras.

Espero que tenha sido útil a apresentação que eu fiz aqui. Com esse tópico eu consegui mostrar como algumas das técnicas, que já mencionei aqui, são utilizadas. Acredito que fiz o post de forma didática de forma a agradar a novatos e a experts no assunto.

Comentem!

quarta-feira, dezembro 06, 2006

O que é SPLOG? E qual o problema dessa praga?

O que é SPLOG?

Uma das mais difundidas formas de Spam de conteúdo é o SPLOG. Nada mais que um Blog falso, o SPLOG combina várias técnicas Black-Hat. Ou seja, chapéu-negro pouco é bobagem. Geralmente os três elementos (black-hat) mais evidentes nos SPLOGS são:
  • Keyword Stuffing - Ou seja, bombardeamento de palavras chaves irrelevantes
  • Link Farm
  • "Redirecionamentos não autorizados" - Essa tradução porca é um oferecimento da equipe do Google Brasil na nossas Diretrizes para Webmasters. A versão em inglês é Sneaky Redirect
Cada elemento desse vai ser analisado mais a frente com exemplos práticos, no próximo estudo de caso.

Não devemos confundir Blogs Spâmmicos (SPLOGS) com Spam em Blogs. Nós sabemos que um blog, não precisa ser fake (falso) para se utilizar técnicas black-hat. Até a própria utilização indevida do comentário do blog pode ser caracterizado como spam em blog. Por exemplo, aqueles black-hats que se utilizam de Scripts automaticos para bombardear os blogs de mensagens e comentários spamicos, nos quais eles divulgam os reflinks de afiliados deles, ou até mesmo o próprio link do blog ou site dele (com o fim de ludibriar o Pagerank - falseando possíveis votos recebidos)1. O Caso do Splog é que ele é todo falso. Não possui qualquer conteúdo, qualquer relevância, etc... Você pode falar que o Blog do Cardoso é Spâmmico , mas jamais pode falar que ele é um SPLOG porque ele não é fake (eu acho)2.

História do SPLOG

O termo SPLOG ficou popular em Agosto de 2005, quando foi utilizada publicamente por Mark Cuban, mas parece que já em 2003 já constavam as primeiras utilizações dessa técnica. Vários linkblogs foram utilizados para tentar influenciar os Motores de Busca e tentar fazer um Google Bombing com cada palavra do dicionário.

Problemas

Uma das maiores vítimas desses Spammers é o nosso querido Blogger. Uma estimativa diz que 20% dos blogs do Blogger se tratam de SPLOGS. Esse tipo de Spam é um problema sério para o Blogger uma vez que os blogs gastam espaço em disco rígido nos servidores do Google, poluindo também, a lista de busca orgânica do Google. O Flood de links não tem limite, queimando literalmente o filme da Blogosfera do Blogspot.

Abuso do uso de Feeds/RSS

Mas apesar do alto índice de blogs do blogspot serem spamicos, os SPLOGS não se limitam ao Blogger. O Wordpress também não fica atrás. Por ser uma ótima ferramenta, com muitas particularidades e facilidades o wordpress se mostra umas das mais visadas plataformas para a perpetuação desse tipo de spam. Atualmente está rolando uma discussão sobre a utilização ou não de feeds completos, mas esse tipo de spam é uma das principais adversidades da liberação dos feeds. O wordpress, assim como outros scripts dinâmicos, oferecem a alternativa de complementar o conteúdo do blog/site com conteúdo de outros sites. Aí os spammers deitam e rolam. Alocam o feed no site, e vivem de conteúdo dos outros, colocando os afiliados deles pra gerar quanto dinheiro eles puderem sugar (e recebendo visitas de onde? de onde? Motores de Busca é claro hehehe).

Mecanismos de coibição

Vários mecanismos foram lançados no último ano para tentar diminuir o número de SPLOGS. Um deles foi a opção SINALIZAR BLOG que o Blogger colocou em sua barra superior. Clicando lá, você sinaliza pro Blogger que o blog em questão é um SPLOG.
Além disso vários sites foram criados com o intuito de coibir os SPLOGS. Dois dos mais famosos são o Splog Reporter e o SplogSpot


Notas:
1 - Essa estratégia de enviar comentários remotos e automáticos com o objetivo de bombar de links o blog do outro é uma tática bem furada. Isso porque o Blogger, Wordpress e outras plataformas, atualmente inserem a tag rel="nofollow" nos comentários justamente pra evitar isso.

2 - Aqui apenas uma piada com relação ao Blog do Cardoso. Um Blog de altíssima qualidade e que eu me habituei a ler. Recomendo-o muito. Não é Spam (porque ele lê o E-Opportunities) hehehe hehehe.gif hehe he

terça-feira, dezembro 05, 2006

Spam - Isso gerava dinheiro antigamente?

Pegando uma carona com o post Cashbacks - O que são? (e a atmosfera de nostalgia) eu me proponho nesse post a explicar como os spams de conteúdo, no passado, fizeram muitos webmasters ganharem muito dinheiro.
O Spam de conteúdo (black-hat technique) efetivamente burlava muitos Motores de Busca, e posicionava os sites nos primeiros lugares. Isso gerava um número muito grande de visitas, e como todo site que tem muitas visitas, eles tinham muitas taxas de cliques em seus anunciantes.
A fragilidade era tanta, que eles chegavam a dominar por muito tempo determinada palavra buscada. E isso efetivamente gerou muito dinheiro.
Algumas técnicas serão profundamente estudadas aqui no E-Opportunities, para que você veja claramente cada elemento desonesto da técnica. Porém, com a sua criatividade, e a explanação detalhada da técnica que eu vou dar, quem sabe você não poderá fazer uma adaptação white-hat à técnica, e bombar o seu site com visitantes?
Imagine o seu site dominando a busca orgânica de uma palavra, cujo preço no adwords é de U$4 (o clique). Isso efetivamente vai gerar dinheiro pra você, uma vez que você use o AdSense, pois o seu site provavemente exibirá anúncios relacionado à essa palavra chave que o cara tá pagando U$4 paus pra mostrar o anúncio dele.
Porém, pra dominar determinada palavra, a sua página deverá ter um ótimo conteúdo, de qualidade indubitável e com muitos votos de outras páginas (para que o PageRank™ aumente, uma vez que o PageRank™ atualmente se mostra muito importante).

No próximo post eu vou falar de algumas técnicas spamicas.Feio.gif Saco na cabeça

segunda-feira, dezembro 04, 2006

O que e , o que e?

O que é? O que é? Pra quê tanto o que é aqui no E-Opportunities?

Esse post eu fiz para tentar justificar o porquê de eu muitas vezes fazer posts no estilo O que é tal coisa, o que é isso, o que é aquilo. Um leitor meu me endagou dia desses:

Poxa, seu blog é legal, altas dicas boas, mas sempre vem aquele o que é...isso me mata! Se eu quisesse saber o que é, eu teria ido ao wikipédia!

Eu queria pedir desculpas a vocês, eu sei que cansa muito ter que toda hora ler o que é isso, o que é aquilo, o que são, o que foram, mas é extremamente necessário para eu conseguir contextualizar o assunto. Se eu não fizer isso, a maioria dos leitores, não vão conseguir entender nada. Por isso existem os feeds. Sempre que você notar que vai ser um post sobre o que é algo, e você não tem interesse nesse algo, não tem problema algum. Você apenas não precisa visitar o blog.
Muitas das coisas que eu falo aqui NÃO estão presentes no Wikipédia em Português. Então eu tenho que gastar um tempo explicando o que é a coisa pra depois falar a dica ou comentar o assunto.
Reitero as desculpas aos meus leitores, e gostaria de saber se vocês querem que eu mude a estrutura do blog, afinal ele é feito para vocês.

Forte Abraço

domingo, dezembro 03, 2006

Cashbacks - O que sao?

Cashbacks são programas do estilo get paid to que pagam aos usuários uma quantia para que eles desempenhem determinadas tarefas e completem algumas ofertas. O maior expoente dos cashbacks se figurou no Rpoints. Com esse site algumas pessoas tiraram a barriga da miséria.
A idéia desse site foi altamente criativa e inovadora. Vou tentar explicar a mecânica dos cashbacks e do
Rpoints que foi um dos pioneiros no segmento.

O dono do Rpoints foi bem criativo. Ele conhecia o sistema de afiliados Commission Junction muito bem. E sabia que ali estava uma oportunidade de ele realmente ganhar um bom dinheiro. Então o que ele fez? Ele preparou um mega site, que em seu interior prometia retribuir seus usuários (que completassem compras, e ofertas com os coupons que ele oferecia advindos do Commission Junction, ou dos reflinks, ou banners, seja lá qual forma de marketing utilizada) com uma porcentagem do valor que ele ganhasse. Porém ele o fez não dessa forma descarada. Ele lançou da idéia de atribuir pontos aos usuários, e não dinheiro em si. Bem, mas isso não importava realmente porque na época o Commission Junction possuía uma brecha no seu TOS que não mencionava (o que o Adsense proíbe veementemente) que qualquer forma de incentivo ao usuário final clicar nos banners e nas ofertas era proíbida. Então uma vez que o usuário completasse tantas ofertas ele receberia tantos pontos. A princípio o usuário apenas receberia uma porcentagem do que gastasse de volta. Porém os sistemas que não são CPA (Cost per Action) permitiam ao Rpoints lançarem mão de uma seção chamada Recurring. Nessa seção os usuários podiam apenas desempenhar tarefas (como clicar nos anúncios) e não precisam despender nenhum dinheiro. A principal vítima desse sistema foi o nosso velho e querido eBay. Isso mesmo, o eBay foi onerado excessivamente com essa falha do Commission Junction.

Veja, a idéia do Rpoints em si foi brilhante. O Webmaster apenas retribuía parte do que ele ganhava com a publicidade ao usuário. O problema foi a dimensão que isso tomou.

A seção recurring era visitada todos os dias por Portugueses e Brasileiros. Os primeiros, como dito anteriormente, foram os pioneiros. Eles que trouxeram a novidade aos Brasileiros. O sistema do eBay no Commission Junction era dado por uma tabela. A medida que um site tem tantos cadastros advindos do seu banner o preço de cada cadastro individual ia aumentando. E assim os lances nos leilões. A princípio, se o site originasse 40 visitas no mês ao eBay e essas visitas se transformassem em 40 lances, o valor individual do lance era £0.05 (por exemplo). Se fossem 120 visitas e essas 120 visitas originassem 101 lances, o valor individual subia £0.01 se tornando £0.06 cada lance. E assim progressivamente. Imagine cada valor individual de lance que estava rendendo ao webmaster do Rpoints o site ter cerca de 100.000 usuários dando mais de 100 lances todo dia. Isso foi um lucro incomensurável para o do dono do Rpoints. Assim sempre ele atribuía os valores dos centavos por lances (bids) os usuários em forma de pontos e depois você podia trocar seus pontos por um vale presente (voucher) do Amazon ou dinheiro vivo em Paypal. O fato é que a receita foi muito bem feita. E logo ganhou imitações. Surgiram vários: LineMyPocket, BritishRewards, Quidco, Bpoints, Frogshopper e Ukmoneyback. Esses três últimos foram os únicos cashbacks da história a dar calote. Os outros sempre honraram seus compromissos.

Os cashbacks já estavam na cara de pau. Nem mais ofereciam pontos nem outros disfarces quaisquer. Era dinheiro mesmo. Sem choro nem vela. E o povão delirando.
O recurring era composto de fazer buscas em motores de busca ingleses (como o Lycos), de completar consultas a preços de seguros de carros, de cadastramento em sites, e de cadastrar e dar lances no eBay. Esse último foi o que mais fez sucesso porque a cada lance que você dava originado do link do Cashback você ganhava cerca de £0.14 (Quatorze Centavos de Libra Esterlina). Isso tinha um limite (estabelecido pelos cashbacks de mais ou menos 500 bids - lances - por dia). Ou seja, dava pra faturar cerca de £6 por dia em cada site. Fora os espertinhos que fizeram programas em delphi, em c++, e se utilizavam de macros pra dar lances (bids) automaticamente no eBay (diga-se de passagem, dizem que os chineses entraram nessa de dar bids no ebay também e colaboraram efetivamente para a ruína do esquema). Assim o sistema não conseguiu se suportar mais e entrou em colapso. Aqui é um link de um tutorial bem antigo de quando ensinávamos aos newbies o caminho "secreto" das pedras.

Mas o que fica claro é a importância da criatividade. O Webmaster do Rpoints efetivamente inovou e por isso faturou uma boa grana. Hoje essa mamata acabou porque o eBay estava vendo a merda que o Commission Junction estava fazendo, e este logo corrigiu sua falha alterando os Termos e Regras dos afiliados.

Os cashbacks hoje em dia ainda existem, porém não da mesma forma que outrora. Hoje não passam de E-Opportunities Fakes. Os cashbacks foram e-opportunities legais do passado, não mais atualmente.

Abraços