6 junio 2020

Posicionamiento en buscadores e indexación de sitios

La información necesaria en Internet es más fácil de encontrar utilizando los motores de búsqueda. La consulta deseada se ingresa en la barra de búsqueda, el usuario recibe el resultado, una lista de páginas que coinciden más estrechamente con la consulta de búsqueda. Para acceder a los resultados de búsqueda, las páginas del sitio primero deben ser indexadas por un robot de búsqueda. El sistema de búsqueda procesa e ingresa en la información de la base de datos que se puede encontrar en el sitio, se indexan artículos, enlaces e ilustraciones.
Las principales formas de indexar un sitio
Indización forzada: los datos del sitio se agregan a un formulario de motor de búsqueda especial.
Indización natural: un robot de búsqueda busca de forma independiente un sitio, pasando de los recursos que enlazan con el sitio. Por lo tanto, la masa del enlace externo del sitio no debe ser cero.
El período de indexación de un sitio puede ser diferente, desde varios días hasta varias semanas. El proceso de indexación es cíclico y se repite a intervalos de dos a cuatro semanas, dependiendo del robot de búsqueda en particular. Se puede indexar todo el sitio, así como las páginas internas individuales. A veces, debido a problemas técnicos, falta de acceso a las páginas, el sitio puede no estar indexado. En este caso, el motor de búsqueda realizará una de las siguientes acciones:

excluye inmediatamente las páginas no indexadas de su base de datos;
volverá a indexar el sitio en unos días;
excluye páginas que no han sido indexadas si no se encuentran durante la indexación repetida.
Gestión de indexación y optimización del sitio
Para administrar la indexación del sitio, utilizamos un mapa del sitio y un archivo robots.txt especial y etiquetas especiales.

El cierre parcial del contenido de la página de los robots de búsqueda Yandex se realiza mediante la etiqueta . También hay una metaetiqueta especial de robots que puede permitir o prohibir la indexación y el seguimiento de enlaces en cada página individual de un sitio.

Robots.txt: un archivo en el que, utilizando las directivas Disallow, Allow, User-agent, Crawl-delay, puede prohibir o permitir la indexación solo a motores de búsqueda específicos o prohibir completamente la indexación de todo el sitio o sus secciones individuales.

Un mapa del sitio siempre es una lista actualizada de las páginas del sitio para indexar. Se puede crear un archivo de mapa del sitio especial en formato XML o en formato de texto sin formato. Se puede usar un archivo robots.txt para indicar la ubicación del Sitemap. Para hacer esto, agregue la siguiente línea: Mapa del sitio: http: // site_name / sitemap.xml

El uso de un mapa del sitio le permite decirle al motor de búsqueda:

sobre las páginas del sitio que deben indexarse;
con qué frecuencia se actualiza la información en las páginas del sitio;
cuán importante es la indexación de cada página.
Acelerar la indexación del sitio
Hay muchas formas de acelerar la indexación de sitios mediante robots de búsqueda. Sin embargo, para comenzar, consideramos las normas, cuya observancia ayudará a resolver los problemas de indexación del sitio.

No cree páginas demasiado grandes (el tamaño no debe exceder los 100-200 kbytes).
Los enlaces a páginas internas explican el contenido de la página usando encabezados simples.
Utiliza URLs legibles por humanos (NC), lo que facilita la indexación del sitio. Las URL excluyen parámetros e identificadores de sesión.

photo
photo