我所说的自动链接是指将页面内容中内嵌的 wiki 链接生成为页面超链接(如果存在)或创建链接(如果页面不存在)的过程。
对于我正在使用的解析器,这是一个两步过程 - 首先,解析页面内容并从源标记中提取到 wiki 页面的所有链接。然后,在生成最终的 HTML 标记之前,我将现有页面的数组反馈给解析器。
处理这个过程的最佳方法是什么?似乎我需要保留网站上每个页面的缓存列表,而不是每次都提取页面标题的索引。或者是否最好分别检查每个链接以查看其是否存在?如果未缓存列表,这可能会导致大量数据库查找。这对于拥有数千页的大型 wiki 网站来说仍然可行吗?
在我自己的 wiki 中,我检查了所有链接(没有缓存),但我的 wiki 仅由内部少数人使用。你应该对这样的东西进行基准测试。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)