首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
›
Google SEO Starter Guide
›
Google 站长工具
›
Bing 站长工具
›
百度站长工具
›
向 Google 提交 URL
V2EX
›
搜索引擎优化
被百度收录的网站,加了 robots.txt 禁止搜寻引擎收录的代码后网站还在?
Sue6080
·
2021-10-28 15:45:48 +08:00
· 1350 次点击
这是一个创建于 1146 天前的主题,其中的信息可能已经有所发展或是发生改变。
我有一个被百度收录的网站,加了 robots.txt 禁止搜寻引擎收录的代码,但网站内容不能删除,因为需要给网址让访客直接访问
User-agent:*
Disallow:/
过二个星期后,百度搜寻的结果显示:
由于该网站的 robots.txt 文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述
但网站还能正常点开浏览
因此想问,这样是否只需要时间等百度下架我这网站吗?
还是我可以采取什麽做法?
robots
收录
txt
网站
2 条回复
•
2021-11-01 10:16:19 +08:00
1
bug123
2021-10-28 19:08:11 +08:00
加一个鉴权就行了,只有登录账号的人才能访问
2
Sue6080
OP
2021-11-01 10:16:19 +08:00
@
bug123
你是指进入网站前先显示登入画面吗?
但我门需求是整个网站域名都不让所有搜寻引擎收录到,
只让知道网站网址的访客能直接访问
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
5866 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 28ms ·
UTC 02:03
·
PVG 10:03
·
LAX 18:03
·
JFK 21:03
Developed with
CodeLauncher
♥ Do have faith in what you're doing.