Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Procesos, metodologías y automatizaciones SEO en Softonic - Clinic SEO

Nacho Mascort
December 16, 2019

Procesos, metodologías y automatizaciones SEO en Softonic - Clinic SEO

Procesos internos sobre como trabajamos el catálogo, metodologías ágiles entre los equipos desarrollo y el equipo de seo, y como la automatización ha permitido la escalabilidad de ciertas áreas dentro de la compañía. Softonic es un portal de descargas cuyo canal orgánico capta millones de usuarios únicos al mes.

Nacho Mascort

December 16, 2019
Tweet

Other Decks in Technology

Transcript

  1. Evolución de Softonic Foco 100% desktop software (en transición) 3

    SEOs + 4 devs 1 proyecto principal (8 idiomas) 8 equipos locales de contenidos 2 subidas a producción por semana Foco Desktop / Mobile 2 SEOs + 2 devs 4 proyectos principales (20 idiomas) 1 equipos de contenidos global Subidas a producción diarias!
  2. Foco Desktop / Mobile - Ahora mismo, un 70% de

    nuestro tráfico es todavía desktop - Pero cambia a marchas forzadas… - Y el enfoque de catálogo es completamente distinto 500.000 apps 7.000.000 apps
  3. Foco Desktop / Mobile El único modo de gestionar estos

    cambios es mediante procesos escalables
  4. Cómo escalar contenidos Antes: 1 equipo para cada idioma/país Mucha

    especialización en mercado local Divergencia de catálogo Actualidad: Equipo dividido en selección y creación Especialidad no en mercados sino en procesos Catálogo más homogéneo Foco local
  5. Selección Automatización de catálogo - Stores - Clon de un

    idioma a otro - Detectamos cuándo un programa tiene tráfico en un idioma que no le toca y lo clonamos al site local. - PE: Un programa con mucho tráfico desde Japón en el site de EN.
  6. Trends Seguimiento de grupos de keywords + país en los

    últimos 7 días El rendimiento de estos títulos es 10x superior al del resto Ser el primero en crear un programa te da una ventaja enorme para posicionar
  7. Curación/Upgrade Creación: Cada pieza de contenido es evaluada en potencial

    (vol. Kw) En base a ello se crea una review más o menos elaborada Pero sabemos que el tamaño importa...
  8. Curación/Upgrade Upgrade: Cuando una pieza de contenido empieza a rendir

    evaluamos el impacto de actualizarla a una categoría superior (mejor optimización SEO, más longitud, etc.) El proceso de upgrade tiene en cuenta: Tráfico actual + RPM + tiempo vida esperado
  9. Nuevos KPIs Catalog Speed Cuán rápidos somos en publicar contenido

    vs competidores Catalog Gaps Qué % de programas top de nuestros competidores no tenemos? Catalog freshness Qué % de tus programas están desfasados respecto a tus competidores?
  10. El inicio El ciclo de vida de una tarea puede

    empezar desde 3 inputs diferentes: Audit Stakeholder Alertas
  11. Audit KPIs técnicos - Tiempos de carga - Hits de

    Googlebot - % Uptime - ... KPIs de producto - Niveles de producción - Revenue - % conversión - Original download conversion - ... KPIs de SEO - Desglose de tráfico - Thin Content - Distribución del % de keywords - % de canibalización - Ad density - ...
  12. Asignación de la tarea Los equipos se distribuyen en squads:

    - Grupos reducidos - Los confieren: - Product Owner - Devs - Scrum master - QA - Otros Stakeholders - Los squads se crean y destruyen según necesidad (por cada trimestre máx) - Hay squads de: - SEO - Monetización - Dispositivos - Infraestructura - ...
  13. - Metodología Agile - Scrum - Kanban - Checkpoints: -

    Standups - Replenishments - Sprint reviews - Retrospectivas - ... Metodología de equipos
  14. Ciclo de vida - Continuous deployment - Muchos equipos a

    la vez - Cambios que pueden romper otros - Tareas que se revierten - Varios proyectos a la vez - Sites de cierta envergadura Todo esto sería imposible de controlar sin la famosa...
  15. SEO Alerts SEO Alerts Canal de Slack Listado de correo

    Custom Crawlings Ad density Global Redirecter Googlebot Alerts Notificaciones Search Console Alertas G. Analytics SERP Volatility
  16. Custom Crawlings Imagen de Screaming Frog recorre un set representativo

    de URLs y las tops URLs. Se le marca una configuración previa para los diferentes reports a extraer Se marcan unos thresholds que harán saltar la alerta
  17. El histórico pesa... En 10 meses hemos realizado 14 tareas

    relacionadas con redirects. Tareas que a veces consisten en modificar lógicas antiguas de redirecciones. Más las lógicas internas que tenemos para https, www., subdominios...
  18. Global Redirecter Definimos una muestra de URLs con todas las

    lógicas (algunas tienen más de 10 años) que vamos generando en las tareas. Global Redirecter hace comprobaciones diarias de origen y destino. Y cuando alguna no cumple el criterio...
  19. Trends API v2.0 Trends es una herramienta imprescindible, pero nada

    escalable. Y lo mejor de trends, es este módulo.
  20. Trends API v2.0 Por cada seed Keyword que le pasemos,

    nos devolverá las keywords relacionadas de más tendencia en una región en concreto.
  21. Trends API v2.0 ¿Y si, cada día, queremos tener la

    información de 20 países con 13 seed keywords de base por país?
  22. Entity Extractor beta A partir de una query, una base

    de datos a analizar y un número de competidores se extraen las entidades relacionadas usando la API de Natural Language de Google.
  23. Entity Extractor - La receta - API de SEMrush para

    extraer los primeros resultados orgánicos - Scrapear dichos resultados para extraer sus textos - Parsear y limpiar el scraping - Pasarlos a la API de NLP - Realizar los cálculos de relevancia y generación del output final
  24. Las claves - Los procesos como parte de cultura la

    empresa son imprescindibles - La automatización es lo que permite llegar a ser escalable sin tener tantos costes - La inversión en el equipo es lo más importante, el pilar central de todo. - Las herramientas deben ser adaptadas a TU necesidad y dar información accionable