28-04-2015, 08:22 PM
Encuentra sitios de destino para GSA Search Engine Ranker!
Este pequeño tuto lo encontrado por internet y para algunos seguro que le puede ayudar a encontrar mas urls para el Gsa Ser..
Un truco bastante fresco en el que podrás encontrar muchos sitios de destino para cargar en GSA Search Engine Ranker.
Se necesita Scrapebox.
Lo primero que vamos hacer es ir al Gsa ser y selecionamos por ejemplo uno de los proyectos y le damos clic derecho se desblega una lista de opciones y damos en Show URls bajamos a verified y damos en exportacion de esas urls verificadas en el proyecto selecionado de Gsa Ser.
Exportarlos en URL única,sólo estamos realmente interesados en el propio enlace.
Ahora ya tenemos una lista de enlaces y plataformas donde GSA pueden utilizar para construir enlaces en tu campaña. Ahora tenemos que encontrar miles de sitios y que todos utilizen esas mismas plataformas, ¿verdad?
Esto va a ser divertido...
Abre un archivo Excel con la lista de enlaces exportados en ella que agarramos de GSA. Lo que tenemos que hacer es buscar patrones en las direcciones URL que podrían indicar una plataforma común a través de numerosos sitios. Si podemos encontrar un patrón, entonces podemos usar esos patrones para salir a buscar otros sitios que también ejecutan esa plataforma.
Pero, ¿cómo detectar un patrón a través de cientos de diferentes URL? Bueno, no te preocupes, tengo un truco muy bueno por aquí.
Tenemos que recortar estas URL abajo apenas la URI (eso es todo lo que sigue el dominio raíz - es decir example.com/ThisIsTheURI).
Así que vamos a hacer una serie de comandos Buscar y Reemplazar para eliminar los bits que no necesitamos. NOTA - necesitará Estos comandos que hacerse en el siguiente orden específico:
Así que ahora debes tener con sólo una serie de URI. Ahora resaltar toda esa columna y clasificar en orden alfabético. Este grupo juntos todo URI similares, y usted será capaz de detectar los patrones entre ellos con mucha facilidad:
ejemplo, uno de los patrones serían:? document_srl =
Eso es una cadena URI que todos estos sitios tienen en común. Ahora todo lo que necesitamos hacer es cosechar una enorme lista de todos los sitios dentro de nuestro nicho de mercado que tienen esta cadena URI.
Bastante seguro de que otros dominios con esta cadena URI utilizarán la misma plataforma que el sitio donde GSA ya ha publicado con éxito.
Así que abrimos Scrapebox y vamos a llegar a ella.
En primer necesitamos colocar todas las cadenas URI comunes que ya hemos identificado en un archivo de texto como este:
En Scrapebox hay utilizar la herramienta de palabras clave para raspar la mayor cantidad de palabras clave relevantes o si tienes una buena lista de tus keys cargarla. A continuación, fusionar y combinar en el archivo de texto que acabamos de crear:
Entonces todo lo que tenemos que hacer ya es Start Harvesting..
Una vez finalizada la recolecta de urls yo con el Scrapebox elimino las url duplicadas y las subo al Gsa para hacer limpieza en “Advanced”, luego en “Tools” y finalmente en “Import URLs (Identify platform and sort in)”->”From file”. Ya que con Scrapebox se puen colar alguna urls que Gsa Ser no las identifica guardo las identificadas para subirlas algun proyecto.
Este pequeño tuto lo encontrado por internet y para algunos seguro que le puede ayudar a encontrar mas urls para el Gsa Ser..
Un truco bastante fresco en el que podrás encontrar muchos sitios de destino para cargar en GSA Search Engine Ranker.
Se necesita Scrapebox.
Lo primero que vamos hacer es ir al Gsa ser y selecionamos por ejemplo uno de los proyectos y le damos clic derecho se desblega una lista de opciones y damos en Show URls bajamos a verified y damos en exportacion de esas urls verificadas en el proyecto selecionado de Gsa Ser.
Exportarlos en URL única,sólo estamos realmente interesados en el propio enlace.
Ahora ya tenemos una lista de enlaces y plataformas donde GSA pueden utilizar para construir enlaces en tu campaña. Ahora tenemos que encontrar miles de sitios y que todos utilizen esas mismas plataformas, ¿verdad?
Esto va a ser divertido...
Abre un archivo Excel con la lista de enlaces exportados en ella que agarramos de GSA. Lo que tenemos que hacer es buscar patrones en las direcciones URL que podrían indicar una plataforma común a través de numerosos sitios. Si podemos encontrar un patrón, entonces podemos usar esos patrones para salir a buscar otros sitios que también ejecutan esa plataforma.
Pero, ¿cómo detectar un patrón a través de cientos de diferentes URL? Bueno, no te preocupes, tengo un truco muy bueno por aquí.
Tenemos que recortar estas URL abajo apenas la URI (eso es todo lo que sigue el dominio raíz - es decir example.com/ThisIsTheURI).
Así que vamos a hacer una serie de comandos Buscar y Reemplazar para eliminar los bits que no necesitamos. NOTA - necesitará Estos comandos que hacerse en el siguiente orden específico:
Así que ahora debes tener con sólo una serie de URI. Ahora resaltar toda esa columna y clasificar en orden alfabético. Este grupo juntos todo URI similares, y usted será capaz de detectar los patrones entre ellos con mucha facilidad:
ejemplo, uno de los patrones serían:? document_srl =
Eso es una cadena URI que todos estos sitios tienen en común. Ahora todo lo que necesitamos hacer es cosechar una enorme lista de todos los sitios dentro de nuestro nicho de mercado que tienen esta cadena URI.
Bastante seguro de que otros dominios con esta cadena URI utilizarán la misma plataforma que el sitio donde GSA ya ha publicado con éxito.
Así que abrimos Scrapebox y vamos a llegar a ella.
En primer necesitamos colocar todas las cadenas URI comunes que ya hemos identificado en un archivo de texto como este:
En Scrapebox hay utilizar la herramienta de palabras clave para raspar la mayor cantidad de palabras clave relevantes o si tienes una buena lista de tus keys cargarla. A continuación, fusionar y combinar en el archivo de texto que acabamos de crear:
Entonces todo lo que tenemos que hacer ya es Start Harvesting..
Una vez finalizada la recolecta de urls yo con el Scrapebox elimino las url duplicadas y las subo al Gsa para hacer limpieza en “Advanced”, luego en “Tools” y finalmente en “Import URLs (Identify platform and sort in)”->”From file”. Ya que con Scrapebox se puen colar alguna urls que Gsa Ser no las identifica guardo las identificadas para subirlas algun proyecto.