专业网站建设品牌,十四年专业建站经验,服务6000+客户--广州京杭网络
免费热线:400-683-0016      微信咨询  |  联系我们

测试的网站不想被百度抓取_PHP基础

当前位置:网站建设 > 技术支持
资料来源:网络整理       时间:2023/3/5 22:04:20       共计:3593 浏览

测试的网站不想被百度抓取?

有些站长比较喜欢将站点上线测试(不喜欢在本地测试),但是又不想被百度等搜索引擎抓取,那么应该怎么暂时屏蔽呢?今天boke112就跟大家简单介绍几种方法。

方法一:WordPress站点的直接后台设置

WordPress站点可以直接登录站点后台 >> 设置 >> 阅读 >> 勾选“建议搜索引擎不索引本站点”并点击【保存更改】即可。

方法二:通过robots.txt禁止

直接在网站根目录中新建一个robots.txt文件,然后在文件中添加以下代码:

User-Agent: *

Disallow: /

方法三:通过noindex标记来禁止

直接在站点的头文件header.php文件中添加以下代码:

<meta name="robots" content="noindex" >

方法四:通过PHP代码禁止(WordPress站点为例)

将以下代码添加到主题目录的functions.php当中:

ob_start("Deny_Spider_Advanced");

function Deny_Spider_Advanced() {

$UA = $_SERVER['HTTP_USER_AGENT'];

$Spider_UA = '/(spider|bot|)/i'; //定义需要禁止的蜘蛛UA,一般是spider和bot

//如果检测到UA不为空而且发现是蜘蛛则返回404

if($UA && preg_match_all($Spider_UA,$UA)) {

header('HTTP/1.1 403 Forbidden');

header("status: 403 Forbidden");

}

}

可以自行替换或添加以上的spider|bot,多个用|隔开即可。

方法五:Nginx禁止

在server{}中添加以下代码:

#如果抓取的UA中含有spider或bot时返回403

if ($http_user_agent ~* "spider|bot") {

return 403; #如果是删除已收录的,则可以返回404

break;

}

可以自行替换或添加以上的spider|bot,多个用|隔开即可。

方法六:Apache禁止

在.htaccess中添加以下代码:

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} (^$|spider|bot) [NC]

RewriteRule ^(.*)$ - [F]

可以自行替换或添加以上的spider|bot,多个用|隔开即可。

总结

理论上以上6种方法都有效,建议找适合自己站点的一种办法来使用即可。一般采用方法二比较普遍,如果能够结合方法五或六来使用估计效果更佳。

版权说明:
本网站凡注明“广州京杭 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
欢迎扫描右侧微信二维码与我们联系。
·上一条:php高端功能_PHP基础 | ·下一条:多个web站点能使用一套php代码吗_PHP基础

Copyright © 广州京杭网络科技有限公司 2005-2025 版权所有    粤ICP备16019765号 

广州京杭网络科技有限公司 版权所有