-
SMMPanelUS.com - Revended...
Foro: OFF Topic
Último mensaje por: SmmPanelUs
19-12-2024, 06:09 PM
» Respuestas: 4
» Vistas: 298 -
Shopsocks5.com - Service ...
Foro: Proxies
Último mensaje por: shopsocks5com
13-05-2023, 02:52 PM
» Respuestas: 15
» Vistas: 2,013 -
Glosario NFT
Foro: NFTs
Último mensaje por: DeliaHanson
13-05-2023, 10:27 AM
» Respuestas: 3
» Vistas: 684 -
Guest post - Artículo de ...
Foro: Link Building
Último mensaje por: DeliaHanson
13-05-2023, 10:20 AM
» Respuestas: 2
» Vistas: 3,008 -
Webvõrk — Look at the CPA...
Foro: Marketing de afiliados
Último mensaje por: Webvork
12-05-2023, 11:16 AM
» Respuestas: 288
» Vistas: 37,206 -
¿ Quieres Aprender Contab...
Foro: Optimización Social Media
Último mensaje por: bataman8
10-05-2023, 01:48 PM
» Respuestas: 0
» Vistas: 395 -
Clases Contabilidad y Cla...
Foro: Tutoriales SEO
Último mensaje por: bataman8
10-05-2023, 12:57 PM
» Respuestas: 0
» Vistas: 348 -
Prueba nuestro Hosting to...
Foro: Alojamiento web
Último mensaje por: jmginer
10-05-2023, 10:22 AM
» Respuestas: 0
» Vistas: 326 -
¿Que es un bitcoin?
Foro: Bitcoin
Último mensaje por: proton
09-05-2023, 10:19 AM
» Respuestas: 1
» Vistas: 355 -
Shopvps247.com - Provide ...
Foro: Dominios y Parking
Último mensaje por: Shopvps247.com
09-05-2023, 10:12 AM
» Respuestas: 3
» Vistas: 760
- Mensajes del foro:46,635
- Temas del foro:10,257
- Miembros:44,867
- Último miembro:jcm0824
Hoy voy a explicaros como estoy subiendo los Likes de la web en la que estoy de community manager.
Es un procedimiento que empezó a interesarme en este hilo: Scrapear IU... donde se comenzó a hablar de un programa que te scrapea los UID y mails de determinado público en Facebook, pero con un precio de 49$.
Más tarde @Sauron añadió un valioso add para chrome, con el que prácticamente podemos hacer lo mismo que en el programa de pago pero con algunas pegas. Bueno paso a dar los pasos:
1º Instalando el addon de Chrome
En el siguiente enlace https://chrome.google.com/webstore/detai...dbpgdjjpnj tenéis la herramienta integrada en chrome para scrapear automáticamente. Debéis instalarla en vuestro navegador.
2º Entramos en Facebook
El siguiente paso se realiza desde una cuenta de FB sin ningún amigo ni like. Algo recién creado sería estupendo.
Es necesario que pongamos el FB en inglés para que la extensión de Chrome funcione, para ello simplemente vamos a las opciones y lo cambiamos:
3º Seleccionamos nuestro público objetivo
En mi caso trabajo con una web de temática NBA (www.sweethoops.com) por lo que en el cuadro de búsquedas realizaré la siguiente búsqueda:
Os aparecerá una lista con todos los resultados. En este paso es donde encuentro una pega gorda. Los ordena automáticamente por cercanía de geolocalización a tu perfil. Es decir, si estás en Barcelona, los primeros resultados que obtendrás serán los que estén o sean de Barcelona. Si alguno sabe como cambiar esto que lo indique.
Bueno pese a esto clicamos en el icono que nos ha aparecido justo a la derecha de la barra de navegador:
y le damos a Scraping & sport data. Ahora poco a poco comenzará acumulando datos de esa lista que te ha servido facebook. Lo dejamos un buen rato hasta que tenga una cantidad que nos convenga.
Con esos 2941 es suficiente para hacer el ejemplo, pero lo ideal es tener la lista completa. Si conseguimos la lista completa podremos dividirla en bloques de 500-1000 usuarios.
Para exportar la lista daremos clic en EXPORT TO EXCELL y nos generará un documento .txt que utilizaremos en el siguiente paso.
4º Transformación de los usuarios en mails
Importamos el .txt con excel para que nos de todos los datos tabulados y seguimos estos pasos:
Una vez hecho esto, seleccionamos la columna D y la copiamos en una hoja de texto:
Lo que vamos hacer en este .txt es transformar las URL --> en correos de facebook. Para ello, de forma muy arcaica, realizaremos un reemplazar en el .txt (crtl+R) y sustituiremos lo siguiente:
Ahora ya tenemos nuestra lista de usuarios en formato email. Es importante que elimineis la palabra Profile que quedará en la primera línea.
Hasta aquí la primera parte del tutorial. Si os ha gustado agradecería algo de rep y algún que otro gracias
ACTUALIZACIÓN: Aquí la segunda parte del tutorial
Muy buenas,
No sabía muy bien en que sección colocar está consulta.
Tengo varios pdf bien posicionados en google, que atraen bastantes visitas. El tema es que quería convertirlos a visitas reales en la web, ya que el usuario ve el pdf pero no llega a entrar a la web, ni se "publicita" la marca de la empresa.
¿Si inscrustase los pdf dentro de páginas html, incluyendo un menú superior? ¿Perdería posicionamiento?
Se os ocurre alguna idea?
gracias
Estos días he estado leyendo sobre este método y me interesa mucho. Tengo una página seria (es la página oficial de facebook de una empresa que vende online) y me gustaría aumentar mucho y rápido los seguidores, pero como comento, de forma sería, con seguidores reales e interesados en mi campo.
He visto un método en el que con un software scrapean los UIDs e emails de facebook de cientos en cientos o de miles en miles, haciendo una larga lista de gente que está interesada en tu mercado. Esto lo hacen utilizando "facebook search graph" por ejemplo buscan: "Personas a las que les gusta el ciclismo en Madrid" y scrapean toda la lista. Para ello es necesario tener una cuenta de US y creo que verificada con un teléfono de US.
El objetivo de esto es que después se crean audiencias en facebook y anuncios para estas audiencias y al estar interesados ya en páginas de la competencia, en tu mercado, o cosas similares, el porcentaje de éxito que se consigue es muy alto y el coste por Me gusta de la página baja hasta 0,02-0,04€ por Me gusta. Metiéndo poco dinero al día se pueden conseguir cientos de Me gusta y es muy beneficioso porque además se consiguen ventas...
¿Alguno habéis utilizado este método? ¿Sabéis como hacerlo? ¿Cuák es vuestra experiencia? ¿Qué software utilizáis? ¿Es seguro este método? (Entiendo que sí que es seguro puesto que es una opción que te da facebook, no estás haciendo nada malo, excepto la forma en la que consigues los UID's y los emails)
Un abrazo blackhateros!
Buenas, me gustaría saber si alguno sabéis algo sobre este tema, últimamente he estado leyendo algunos artículos y comentarios sobre esto. Al parecer fue un bug que hubo hace uno o dos años en facebook y parece que ha vuelto a pasar hace poco, le llaman "Clonning facebook page". ¿Alguno ha probado este método o sabe bien como hacerlo?
Un abrazo Blackhateros!
PD: Primer tema
Después del videostutoriales de @Marcosdice sobre creación de mapas y FusionTables, que puedes ver en:
http://foroblackhat.com/hilo-infierno-lo...n-1-minuto
Me ha dado la idea de recopilar todas las páginas parásito que nos ayudan a posicionar. Recuerda que no sólo es suficiente crear una página con tu long tail sino que además necesitas darle contenido original para evitar que sólo esté unos días en el TOP 10, al menos que te dure un mes
http://youtube.com
http://facebook.com
http://twitter.com
http://amazon.com - páginas de producto
https://mapsengine.google.com/map/
http://tables.googlelabs.com
http://watpad.com
http://moonfruit.com
http://about.me
http://www.rebelmouse.com
http://soup.io
http://buzzfeed.com
http://sportsblog.com
http://digitaljournal.com
http://imgur.com
http://tripod.com
http://sites.google.com
http://pearltrees.com
http://answers.yahoo.com
http://wix.com
http://www.purevolume.com
http://www.savorthesuccess.com
http://tribalpages.com
http://topix.com
http://gravatar.com
http://forums.shutterfly.com
http://libraryeverything.com
http://www.dailymotion.com
http://linkedin.com
http://www.dailystrength.org
http://glipho.com
http://wordpress.com
http://weebly.com
http://tumblr.com
http://blogspot.com
http://vimeo.com
Si tenéis otras páginas parásito que funcionen bien para rankear en primera página compartirlas!!
Muy buenas FBH! Como estamos! Os dejo un vídeo de mi colega de MarcosDice sobre un pequeño "hack" si lo podemos llamar así de Google. Posicionarse en 1 minuto con Google Maps. ¿Es posible? @Sauron con tu permiso dejo el link del vídeo donde lo explica.
Posicionarse en Google Maps
¡Un saludo para todos!
Aquí os traigo un nuevo método que acabo de ver en CPA Elites y tiene muy buena pinta, no lo he probado pero se ha publicado hoy y el usuario asegura que funciona perfectamente, si podéis comprobarlo...
1. Necesitáis crearos una cuenta trial de 30 días en:
http://www.tollfreeforwarding.com/
(Te dan un 900 que redirecciona a otro teléfono)
2. Rellena el formulario con al menos tu email válido para verificarlo.
3. Cuando te pregunte como pagas, emplea una tarjeta de prepago para evitarte que te cobren, muchos bancos te dan ese servicio gratis, como en mi caso banco mare nostrum
4. Espera la verificación, es posible que ellos te llamen para esto
5. Usa el número que has conseguir en http://www.tollfreeforwarding.com/ para verificar tu cuenta de faceobook, youtube, gmail... elige la opción de verificar por llamada
Eso es todo!! Si se te ocurre alguna mejora, coméntala
Es muy sencillo carga una lista de URLs que quieres comprobar en la ventana URL's Harvested y después pincha en Manage List > Check Indexed > Google Indexed
Os dejo un video en inglés que lo hace paso a paso:
Como dice el titulo..Guía Scrapebox
Esta guía te va a enseñar mucho sobre Scrapebox esta traduccida al español espero que les sea de ayuda..
[hide]https://mega.co.nz/#!9AQikRxR!olcH5yRobSQ2MEQUp8K8ClT6KwWg7hN5tUTbiyd4ISk[/hide]
Si te a gustado.. Se agradece que le des al más repu... o alguna donación..
Con tantos bots rastreando internet es fácil ver las estrategias de SEO de tus competidores con herramientas como Ahrefs, MajesticSEO y similares. Lo que vamos a hacer es bloquear el paso a los robots de páginas que recopilan información SEO de cada web. Te recomiendo que ocultes tu red privada de blogs (PBN), para ello, debes subir a la carpeta raíz de nuestro proyecto el fichero robots.txt, que contiene:
# Blocking bad link checker robots
User-agent: Rogerbot
User-agent: Exabot
User-agent: MJ12bot
User-agent: Dotbot
User-agent: Gigabot
User-agent: AhrefsBot
User-agent: BlackWidow
User-agent: Bot\ mailto:[email protected]
User-agent: ChinaClaw
User-agent: Custo
User-agent: DISCo
User-agent: Download\ Demon
User-agent: eCatch
User-agent: EirGrabber
User-agent: EmailSiphon
User-agent: EmailWolf
User-agent: Express\ WebPictures
User-agent: ExtractorPro
User-agent: EyeNetIE
User-agent: FlashGet
User-agent: GetRight
User-agent: GetWeb!
User-agent: Go!Zilla
User-agent: Go-Ahead-Got-It
User-agent: GrabNet
User-agent: Grafula
User-agent: HMView
User-agent: HTTrack
User-agent: Image\ Stripper
User-agent: Image\ Sucker
User-agent: Indy\ Library
User-agent: InterGET
User-agent: Internet\ Ninja
User-agent: JetCar
User-agent: JOC\ Web\ Spider
User-agent: larbin
User-agent: LeechFTP
User-agent: Mass\ Downloader
User-agent: MIDown\ tool
User-agent: Mister\ PiX
User-agent: Navroad
User-agent: NearSite
User-agent: NetAnts
User-agent: NetSpider
User-agent: Net\ Vampire
User-agent: NetZIP
User-agent: Octopus
User-agent: Offline\ Explorer
User-agent: Offline\ Navigator
User-agent: PageGrabber
User-agent: Papa\ Foto
User-agent: pavuk
User-agent: pcBrowser
User-agent: RealDownload
User-agent: ReGet
User-agent: SiteSnagger
User-agent: SmartDownload
User-agent: SuperBot
User-agent: SuperHTTP
User-agent: Surfbot
User-agent: tAkeOut
User-agent: Teleport\ Pro
User-agent: VoidEYE
User-agent: Web\ Image\ Collector
User-agent: Web\ Sucker
User-agent: WebAuto
User-agent: WebCopier
User-agent: WebFetch
User-agent: WebGo\ IS
User-agent: WebLeacher
User-agent: WebReaper
User-agent: WebSauger
User-agent: Website\ eXtractor
User-agent: Website\ Quester
User-agent: WebStripper
User-agent: WebWhacker
User-agent: WebZIP
User-agent: Wget
User-agent: Widow
User-agent: WWWOFFLE
User-agent: Xaldon\ WebSpider
User-agent: Zeus
Disallow: /
También puedes bloquear los bots usando el fichero .htaccess, como te muestro en este ejemplo:
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} .*Twice.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Yand.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Voil.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*libw.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Java.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Sogou.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*psbot.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Exabot.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*boitho.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*ajSitemap.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Rankivabot.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*DBLBot.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*MJ1.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Rankivabot.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*AhrefsBot.*
RewriteRule ^(.*)$ http://anysite.com/ [L,R=301]
Order Allow,Deny
Allow from all
Deny from 110.0.0.0/8
Deny from 111.0.0.0/8
Deny from 112.0.0.0/5
Deny from 120.0.0.0/6
Deny from 124.0.0.0/8
Deny from 125.0.0.0/8
Deny from 147.0.0.0/8
Deny from 169.208.0.0
Deny from 175.0.0.0/8
Deny from 180.0.0.0/8
Deny from 182.0.0.0/8
Deny from 183.0.0.0/8
Deny from 202.0.0.0/8
Deny from 203.0.0.0/8
Deny from 210.0.0.0/8
Deny from 211.0.0.0/8
Deny from 218.0.0.0/8
Deny from 219.0.0.0/8
Deny from 220.0.0.0/8
Deny from 221.0.0.0/8
Deny from 222.0.0.0/8
Aquí tienes una lista de bots:
http://foroblackhat.com/hilo-listado-de-...n-internet
También existe un plugin para Wordpress que puedes hacer esto cómodamente desde la administración de tu blog:
https://www.mcssl.com/content/65522/link-privacy.zip