最近在Google上搜索博客关键词的时候发现每个链接下都会有一个这样的提醒:
而我的博客是基于Hexo的,按道理说是自适应桌面和移动端的啊。就很奇怪🤷♂️。
既然是Google的提醒,那我就点进去咯,页面上这样显示的:
原因似乎说的很清楚:
内容宽度超过了屏幕显示范围
可点击的元素之间距离太近
但!我博客在移动端显示绝对不像右边截图那样啊,这里面一定有什么误会!所以我就继续进入左上角的网页加载问题查看详情。
这样问题就很清楚了嘛:
关键在于右下角的状态栏目,robots.txt禁止抓取样式表导致Googlebot抓到的都是原始html文件,没有经过js和css润色的html页面。这样的页面能通过移动适应性测试才怪了,本文剩余部分写的是如何解决这个问题的。
robots.txt
Googlebot
既然是由于robots.txt禁止导致无法获取,我们把它修改掉就好了,具体要修改几个文件要看你的博客或网站是使用什么搭建的,但无论什么方式搭建的网站,最终呈现的robots.txt都会在网站根目录,这是我的robots.txt:
#hexo robots.txt User-agent: * Allow: / Allow: /archives/ Disallow: /js/ Disallow: /css/ Disallow: /fonts/ Disallow: /fancybox/ Sitemap: https://tstrs.me/sitemap.xml
我只需要将第6、7行删除即可,然后刷新测试页面:
塔哒~
这样才对嘛,这样我在搜索引擎搜索我的博客,就不会看到提示不适合移动端浏览了!
tips:因为我是使用hexo搭建的博客,所以我还需要修改hexo根目录下source文件夹内的robots.txt,这是因为每次hexo渲染html文件的时候都会将上述文件复制到网站根目录,仅修改网站根目录下的robots.txt的话,在你下次更新博客的时候又会被覆盖,等于白改。
本文主要内容是介绍如何使用Project V项目的Dokodemo-door协议来科学上网进行提速,我这里测试到的效果上传速度至少有3倍的提升!
笔记本💻自身带有扬声器,而我又有一个蓝牙音箱🔊,合在一起不就是2.1声道了嘛。那么如何使得它们同时工作呢?
我们有办法可以一键清除这些垃圾。
使用rpi-clone对树莓派进行备份
本文将会介绍一个 nginx 的插件 nginxhttprealip_module ,使用它能够在简单的在多级代理的情况下获取到访客 IP
目录
热门标签
页面
更多语言
站点信息