k1体育【前端进阶】更容易理解的 SEO 全方面优化

公司资讯 小编 发布时间:2024-11-09 浏览:

  k1体育十年品牌什么是SEO:SEO 是 Search Engine Optimization 的缩写,即搜索引擎优化。它是一种通过调整网站的内容、结构、外部链接等方面的优化手段,来提高网站在搜索引擎自然/免费搜索结果中的排名和可见度的过程

  从图中可以看到掘金的收录数还是非常不错的 统计公报 或者在各搜索框内使用“site: 域名”的方式,例如:获取收录数

  Title:页面标题,是搜索引擎最重视的元素之一,它直接决定了页面在搜索结果中的标题显示

  避免过于冗长,大多数搜索引擎和浏览器中能完全显示的长度为 60-70 个字符,超出则会被截断

  内容不宜过短,作为摘要信息展示的时候如果一行都显示不全,不利于吸引用户点击

  因为滥用等原因,大多数主流搜索引擎已经大幅降低了 keywords 元标签对网页排名的影响

  关键词的数量应控制在4-8 个,过多可能会被搜索引擎认为是关键词堆砌,影响SEO效果

  Open Graph 协议是由 Facebook 提出的一种元数据标准,它允许页面成为丰富的社交对象。通过在网页中添加特定的 Open Graph 协议,可以帮助提供更丰富的预览信息。

  HTML 有 6 种 h 标签,分别是h1、h2、h3、h4、h5 和 h6。这些标签表示文字的大小和重要性,h1 最大最重要,h6 最小最次要。

  例如,h1 通常用来写网页的主标题,应该与网页 title 标签的内容保持一致,并在页面中展示。每个页面最好只有一个 h1 标签。h2 可用来写次级标题,h3-h6 依次用于更细分的标题

  strong:标签一方面是强调,增加了权重;另一方面也能字体加粗,增强视觉效果

  em:标签一方面是强调,增加了权重;另一方面也能字体变为斜体,增强视觉效果

  内链:从自己网站的一个页面指向另外一个页面。通过内链让网站内部形成网状结构,让蜘蛛的广度和深度达到最大化

  外链:在别的网站导入自己网站的链接。通过外链提升网站权重,提高网站流量。

  带有rel=nofollow 属性的链接会告诉搜索引擎忽略这个链接。阻止搜索引擎对该页面进行追踪。从而避免权重分散

  external字面意思是“外部的”,a 标签加上这个属性代表这个链接是外部链接,非本站链接,点击时会在新窗口中打开,它和效果一样。external 可以告诉搜索引擎这是一个外部链接,非本站的链接

  : 图像标签的 alt 属性有助于图像 SEO,并在网络故障时,代替图片显示

  p 标签虽然权重较低,但作为页面基础内容结构很重要。页面中用长文字描述的内容,都可以使用p标签代替原先的div标签

  搜索引擎能够通过这些标签更好地理解信息的层次结构和关联性,从而更准确地评估网页的内容和价值

  sitemap 站点地图一般是xml格式的文件,用于帮助搜索引擎更好地发现和抓取网站上的所有页面,并提供页面优先级和更新频率的信息,帮助搜索引擎更好地分配抓取资源

  priority:页面相对于其他页面优先级,它的值范围是0.0到1.0,其中1.0表示最高优先级

  sitemap.xml 一般放在网站的根目录下,可以通过“域名+/sitemap.xml”的形式直接访问到。但每个 sitemap文件最多包含 50,000 个 URL 标签,如果网站页面超过 50,000 个,则应该将 Sitemap 文件拆分成多个。

  例如在根目录下新建sitemap.xml,并新建sitemap文件夹用于统一管理页面的站点地图信息

  如果sitemap.xml没有放在根目录,即不能通过“域名+/sitemap.xml”的形式直接访问到,需在 robots.txt 中指明Sitemap位置,否则搜索引擎可能无法找到

  robots.txt 文件是一个网站用来告诉搜索引擎机器人(又称爬虫或蜘蛛)应该如何抓取和索引该网站的一种标准

  robots.txt 文件需放置在网站的根目录下,以“域名+/robots.txt”的形式直接访问到

  User-agent: 该项的值用于描述搜索引擎蜘蛛的名字。如果该项的值设为*,则该协议对任何机器人均有效

  Disallow:这条指令明确地告诉爬虫不要访问 /private/ 路径及其下的所有内容。这是 robots.txt 文件的核心功能之一,用于保护网站中不希望被搜索引擎索引的页面或内容。

  Sitemap:提供网站 sitemap 的 URL 地址,帮助搜索引擎爬虫更有效地发现和索引这些页面

  除了robots.txt + sitemap.xml 方式增加网址被收录的可能性外,还可以在各搜索引擎站长平台手动提交网址,以缩短爬虫发现网站链接时间,加快爬虫抓取速度

  爬虫只能抓取到网页的静态源代码,而无法执行其中的JavaScript脚本。当网站采用Vue或React构建SPA项目时,页面上的大部分DOM元素实际上是在客户端通过JavaScript动态生成的。这意味着爬虫能够直接抓取和分析的内容会大幅减少

  熟悉React的,可使用Next。对Next感兴趣的,可参考我的另一篇文章给上市公司从0到1搭建Next.js14项目

  爬虫除了不会抓取JavaScript脚本的内容,也不会抓取iframe中的内容,因此项目中少用iframe

  这些 URL 指向同一个页面内容。但是,我们应该指定其中一个作为该页面的规范化 URL

  网站打开速度越快,识别效果越好,否则爬虫会认为该网站对用户不友好,降低爬取效率

  版权声明:本文内容由注册用户自发贡献,版权归原作者所有,隆回人网仅提供信息存储服务,不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有的内容,请通过邮箱()进行举报,一经查实,本站将立刻删除涉嫌侵权内容。

  我们知道从目前来看,由于抓取配额的资源有限,使得很多网站在做收录展现的时候,面临一定的窘境,因此,我认为有必要了解一下百度资源平台链接提交的相关内容。

  阿里云服务器用jmail不得行,需要利用System.Web.Mail发送邮件

  好在阿里云帮助中心给了一个发送邮件的案例,是用System.Web.Mail这件自带组件发送。整了好大一会,终于搞上了。

在线咨询

点击这里给我发消息QQ客服

在线咨询

免费通话

24h咨询:020-8888-8888


如您有问题,可以咨询我们的24H咨询电话!

免费通话

微信扫一扫

微信联系
返回顶部