代码之家  ›  专栏  ›  技术社区  ›  donohoe

一种简单的方法来禁止所有目录的溢出,但有例外[已关闭]

  •  1
  • donohoe  · 技术社区  · 14 年前

    有什么好写的吗 robots.txt文件 除了指定目录之外,禁止所有内容的索引?

    目前 不允许

    有人解决过这个问题吗?

    1 回复  |  直到 14 年前
        1
  •  1
  •   Paul McMillan    14 年前

    没有一个好的解决方案。正如你所说,你可以拒绝一切向世界宣布事情的事情。

    • 如果没有绑定到当前的url结构,可以考虑创建一个“允许”目录,然后将所需内容符号链接到其中。然后你只需要不允许你的顶级目录。

    • 或者,可以为bot用户代理构建某种服务器端过滤器。允许你的 robots.txt