Regresar

Cómo implementar un archivo robots.txt en un proyecto Nuxt Js

por , 12-Mar-2023

Tener un archivo robots.txt es muy importante ya que ayuda a controlar que Google y otros motores de búsqueda como Bing indexen el contenido del sitio web. Esto se debe a que lo primero que revisa un rastreador cuando visita un sitio web es si existe robots.txt, por lo que determina cuándo se debe rastrear el contenido o no.

Hay varias formas de agregar robots.txt y es tan fácil como escribirlo manualmente en la carpeta "statics". Pero para este tutorial, usaremos nuxtjs/robots ya que es más flexible y el contenido de robots.txt se puede manipular fácilmente.

Instalar el paquete nuxtjs/robots

Lo primero es lo primero, instala el paquete de robots y defínelo en la matriz de módulos de nuxt.config.js.

yarn add @nuxtjs/robots

Para definir la configuración de robots, podemos pasar un objeto, una matriz o una función, donde cada método tiene sus propios casos de uso.

export default {
  modules: [
    '@nuxtjs/robots'
  ],
  robots: {
    /* opciones del módulo */
  }
}

Configuración simple

En este caso, define el código de la siguiente manera y permitirá que todos los agentes de usuario (bot) rastreen el sitio. En cambio, si el valor de Disallow es "/", entonces no permitimos que se rastree ninguna de las páginas.

export default {
  robots: {
    UserAgent: '*',
    Disallow: ''
  }
}

Configuración de múltiples agentes de usuario

Si desea especificar una configuración para un agente de usuario diferente, pase la matriz de objetos como valor de robots y se comportará como se define.

export default {
  robots: [
    {
      UserAgent: 'Googlebot',
      Disallow: '/usuario',
    },
    {
      UserAgent: '*',
      Disallow: '/admin',
    },
  ]
}

Configuración de función

También puede pasar una función como valor de robots y, en este caso, definir la lógica o definir condicionalmente el valor del robot que desea que sea.

export default {
  robots: () => {
    if (algunaLogicaAquí) {
      return {
        UserAgent: '*',
        Disallow: '/'
      }
    }
  }
}

Ejecutar "yarn dev" / "npm run dev"

Finalmente, ejecuta "yarn dev" y ahora puedes visitar /robots.txt para ver el valor de robots.txt que has definido.

User-agent: Googlebot
Disallow: /usuarios
User-agent: Bingbot
Disallow: /admin

Este post fue originalmente publicado en PostSrc 🔥🔥🔥. Si te gustan este tipo de tutoriales, realmente apreciaría si le das una visita.