Foro Black Hat SEO

Versión completa: Grupo para scrapear dominios
Actualmente estas viendo una versión simplificada de nuestro contenido. Ver la versión completa con el formato correcto.
Páginas: 1 2
Estamos creando un grupo de gente para scrapear dominios y de esta forma ahorrarnos costes de tener que comprarlos a gente que los busca por su cuenta. La idea es que sea un grupo de unas 10 personas aproximadamente para que no salga muy caro entre todos.

Se analizarían los dominios para comprobar el pa y da de moz y el tf y cf de majestic, además de los enlaces que tienen y demás con ahrefs y similares.

El coste de la inversión aproximada sería de unos 10-15 Euros al mes más una cuantía inicial para poner en marcha todo el equipo de programas que sean necesarios con los scrapeadores de urls.

Quien esté interesado que me mande un mp con los siguientes datos:

Experiencia en búsqueda de dominios:
Cantidad de domininos que quiere regitrar al mes:
Temática de los dominios:
El uso que se le quiere dar a los dominios (vender, pbns, etc.):
Que puedes aportar al equipo:
Buenas compi.

Puedes explicar cual es la técnica que se va a utilizar. Creo que será interesante antes de nada. Por ejemplo, a mi me podría interesar, pero si va a requerir mucho voy batante justo Sonrisa

Un saludo
(25-04-2015, 12:25 AM)fxgod escribió: [ -> ]Buenas compi.

Puedes explicar cual es la técnica que se va a utilizar. Creo que será interesante antes de nada. Por ejemplo, a mi me podría interesar, pero si va a requerir mucho voy batante justo Sonrisa

Un saludo

Si claro, sin problemas.
Trabajo la verdad es que poco, la idea es tenerlo casi todo en automático.

Se utilizarían scrapeadores como gscraper o scrapebox para sacar listas y luego las analizaríamos para buscar links rotos que estos se filtrarían por su DA/PA y FT/CF. Luego ya tocaría el trabajo más manual, de buscar y filtrar a mano los dominios según sus anchors y temáticas, etc. Pero la idea es que casi todo sea en automático o lo más automático posible.
(25-04-2015, 12:45 AM)dakuma escribió: [ -> ]
(25-04-2015, 12:25 AM)fxgod escribió: [ -> ]Buenas compi.

Puedes explicar cual es la técnica que se va a utilizar. Creo que será interesante antes de nada. Por ejemplo, a mi me podría interesar, pero si va a requerir mucho voy batante justo Sonrisa

Un saludo

Si claro, sin problemas.
Trabajo la verdad es que poco, la idea es tenerlo casi todo en automático.

Se utilizarían scrapeadores como gscraper o scrapebox para sacar listas y luego las analizaríamos para buscar links rotos que estos se filtrarían por su DA/PA y FT/CF. Luego ya tocaría el trabajo más manual, de buscar y filtrar a mano los dominios según sus anchors y temáticas, etc. Pero la idea es que casi todo sea en automático o lo más automático posible.

¿Dakuma has testeado ya esa tecnica?

Te lo digo porque yo la he utilizado en bastantes ocasiones y para mi gusto es poco efectiva. El motivo es el siguiente:

Por mucho que se scrapee con xenu o desde el mismo ahrefs, el proceso final hay que hacerlo de forma manual y se pierde tiempo. Ademas actualmente existen miles de bots que realizan esta tarea y mucho mas rapido que de esta forma "semimanual"

No se que resultados os habra dado a vosotros Sonrisa
No usaríamos xenu, usaríamos scraming frog y similares, que son mucho más rápidos y permiten filtrar de forma automática.
(25-04-2015, 05:41 PM)fxgod escribió: [ -> ]
(25-04-2015, 12:45 AM)dakuma escribió: [ -> ]
(25-04-2015, 12:25 AM)fxgod escribió: [ -> ]Buenas compi.

Puedes explicar cual es la técnica que se va a utilizar. Creo que será interesante antes de nada. Por ejemplo, a mi me podría interesar, pero si va a requerir mucho voy batante justo Sonrisa

Un saludo

Si claro, sin problemas.
Trabajo la verdad es que poco, la idea es tenerlo casi todo en automático.

Se utilizarían scrapeadores como gscraper o scrapebox para sacar listas y luego las analizaríamos para buscar links rotos que estos se filtrarían por su DA/PA y FT/CF. Luego ya tocaría el trabajo más manual, de buscar y filtrar a mano los dominios según sus anchors y temáticas, etc. Pero la idea es que casi todo sea en automático o lo más automático posible.

¿Dakuma has testeado ya esa tecnica?

Te lo digo porque yo la he utilizado en bastantes ocasiones y para mi gusto es poco efectiva. El motivo es el siguiente:

Por mucho que se scrapee con xenu o desde el mismo ahrefs, el proceso final hay que hacerlo de forma manual y se pierde tiempo. Ademas actualmente existen miles de bots que realizan esta tarea y mucho mas rapido que de esta forma "semimanual"

No se que resultados os habra dado a vosotros Sonrisa
@dakuma @fxgod justo estoy trabajando en scrapeadores potentes para buscar buenos dominios expirados, desarrollando yo mismo la tecnología. Que os parece que hagamos un grupo en Skype y valoremos como podríamos plantear para que nos compense a todos, además los primeros en usar esta herramienta vais a tener mejores condiciones que se mantendrán!!

Tengo mecanismos para sacar de manera masiva los principales indicadores SEO de un dominio Guiño
Por mi parte sin problemas, todo es hablarlo que seguro que nos ponemos de acuerdo.

Si me dejas tu Skype por MP lo hablamos con calma.

(26-04-2015, 04:56 PM)Sauron escribió: [ -> ]@dakuma @fxgod justo estoy trabajando en scrapeadores potentes para buscar buenos dominios expirados, desarrollando yo mismo la tecnología. Que os parece que hagamos un grupo en Skype y valoremos como podríamos plantear para que nos compense a todos, además los primeros en usar esta herramienta vais a tener mejores condiciones que se mantendrán!!

Tengo mecanismos para sacar de manera masiva los principales indicadores SEO de un dominio Guiño
Vais a colapsar internet con tanto scrapeador @Sauron jeje.

Podemos verlo si, @dakuma a mi personalmente el tema de scamig frog y demas no termina de convencerme. Mi esperiencia no es buena usando esa tecnicas, el tiempo es mucho mayor al beneficio y la deseche Sonrisa
(27-04-2015, 11:27 AM)fxgod escribió: [ -> ]Vais a colapsar internet con tanto scrapeador @Sauron jeje.

Podemos verlo si, @dakuma a mi personalmente el tema de scamig frog y demas no termina de convencerme. Mi esperiencia no es buena usando esa tecnicas, el tiempo es mucho mayor al beneficio y la deseche Sonrisa

bueno, era un ejemplo, principalmente usarémos lazarus para filtrar y gscraper para sacar urls.
Páginas: 1 2