es un proceso técnico, analítico y creativo mediante el cual mejorar la visibilidad de un sitio web en los motores de búsqueda. El propósito principal es generar más visitas a una web y que éstas se conviertan en ventas.
en que los webmasters deben seguir sus "reglas" y su objetivo es premiar los sitios web con contenido de alta calidad y buen marketing en Internet con mejores rankings.
Las normas White hat es seguir las normas. Black hat es ignorar las normas. Todo lo que os voy a contar hoy aquí está dentro de las normas y os ayudará a aumentar vuestro tráfico orgánico y vuestra visibilidad en los resultados de búsqueda.
Contenido principal: es cualquier parte de la pagina que directamente ayuda a la pagina a alcanzar su propósito. • Contenido suplementario: contribuye a mejorar la experiencia de la pagina pero no influye directamente para alcanzar el propósito. • Publicidad y monetización
alta calidad para Google? • Suficiente contenido principal. • Suficiente calidad del contenido principal para cumplir el propósito de la pagina. • Buen contenido suplementario. • Sitio web de buena reputación. • Demostrar Experiencia, Autoridad y Confianza.
baja calidad para Google? • Escaso contenido principal. • Contenido principal lamentable. • Poca información sobre el sitio web. • Experiencia de usuario pobre. • Falta de experiencia en el tema del contenido. • Contenido suplementario pobre. • Mala reputación.
la vida” “Ciertos tipos de páginas podrían tener un impacto en la felicidad futura, la salud, o la riqueza de los usuarios. Llamamos a este tipo de páginas "la bolsa o la vida" o YMYL”
la vida” “Páginas web que permiten a los usuarios hacer compras, transferir dinero, pagar facturas, etc.. online. Tenemos estándars de calidad muy altos para páginas YMYL porque las de baja calidad podrían impactar negativamente en la felicidad, la salud, o la riqueza de los usuarios.”
experiencia de usuario? • Diseño web engañoso. • Redirecciones trampa. • Descargas de software malicioso. • Contenido generado por el usuario pobre. • Contenido principal de baja calidad. • Contenido suplementario de baja calidad.
productos más significativos • Promociona las novedades. • Facilita el acceso a las categorías principales. • Explica quien eres y que vendes • Muestra lo que se dice de ti.
productos según los criterios de interés y utilidad. • Da información sobre el propósito del listado. • Reaprovecha contenidos de otras páginas para enriquecer estas. • ¡Ojo con los filtros y ordenaciones!
de productos en base a un criterio definido por el usuario. • Detector de oportunidades (long tail). • Detector de tendencias. • Generador de landings instantáneo. • ¡Ojo! Siempre bajo control.
para búsquedas informacionales. • Reforzar el posicionamiento por “temas” con contenido que no tiene cabida en el ecommerce. • Contenido corporativo o de marca. • Contenido para Linkbaiting.
• La web es una plataforma técnica y hay maneras correctas e incorrectas de construir sitios web. • Hay que entender cómo los motores de búsqueda descubren, entienden y clasifican las páginas web desde una perspectiva técnica. •
de búsqueda: • Tienen una capacidad contextual limitada. • No hablan nuestro idioma. Practica con el algoritmo del outline HTML para lograr documentos más optimizados y mejor esquematizados. https://www.smashingmagazine.com/2011/08/html5-and-the-document-outlining-algorithm/
• Lanzado en 2011 por Google, Bing y Yahoo para crear un estandar de marcado. • Es un vocabulario muy amplio. • GoodRelations • Creado en 2001 por Martin Hepp para construir una ontología Web que vincule los datos de productos a las ontologías tipo de producto.
de búsqueda usan los enlaces para ir de un sitio web a otro. Los motores de búsqueda deciden si el contenido merecer ser guardado en sus índices. El contenido aparecerá en los resultados de búsqueda en base a la clasificación recibida en el índice. Rastrear Indexar Posicionar
Internet saltando de un enlace a otro. • Google asigna a cada sitio una asignación de rastreo o crawl budget en base a un criterio de autoridad y calidad.
que Google tenga que rastrear paginas: • que no van a ser indexadas. • con contenido pobre. • con contenido duplicado. • que devuelvan un error o una redirección.
copia de todo aquello que puede o ha podido rastrear. • Google analiza y cataloga el contenido de todo aquello que va a ser indexado: • Title • Meta description • Contenido principal • Contenido suplementario • Enlaces • Etc…