V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Sue6080
V2EX  ›  搜索引擎优化

被百度收录的网站,加了 robots.txt 禁止搜寻引擎收录的代码后网站还在?

  •  
  •   Sue6080 · 2021-10-28 15:45:48 +08:00 · 1350 次点击
    这是一个创建于 1146 天前的主题,其中的信息可能已经有所发展或是发生改变。
    我有一个被百度收录的网站,加了 robots.txt 禁止搜寻引擎收录的代码,但网站内容不能删除,因为需要给网址让访客直接访问

    User-agent:*

    Disallow:/

    过二个星期后,百度搜寻的结果显示:
    由于该网站的 robots.txt 文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述
    但网站还能正常点开浏览

    因此想问,这样是否只需要时间等百度下架我这网站吗?

    还是我可以采取什麽做法?
    2 条回复    2021-11-01 10:16:19 +08:00
    bug123
        1
    bug123  
       2021-10-28 19:08:11 +08:00
    加一个鉴权就行了,只有登录账号的人才能访问
    Sue6080
        2
    Sue6080  
    OP
       2021-11-01 10:16:19 +08:00
    @bug123 你是指进入网站前先显示登入画面吗?
    但我门需求是整个网站域名都不让所有搜寻引擎收录到,
    只让知道网站网址的访客能直接访问
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5866 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 02:03 · PVG 10:03 · LAX 18:03 · JFK 21:03
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.