@nanalilo,应该还有一个地方要修改,而且OrayKVM这几个字分别出现在两行,所以你可能没搜到。试试用ida pro打开这个hex文件,你应该就能找到另一个地方在哪里。
IDA Pro 7.7:https://pan.baidu.com/s/1OY8eTT8w-Ix9tAuF6gNUDA?pwd=E9ui
解压后双击 ida64.exe 启动。
还可以切到Hex视图找。这是1.4的,在一行。1.3可能在两行。
@上善若水,好
用工具分割出错了。不过我发现谷歌提供了分好的字体,只要下载一下就行了:
https://fonts.googleapis.com/css2?family=Noto+Color+Emoji&family=Noto+Emoji&display=swap
所以接近10MB的文件预计每隔几天就会重新下载一次,因为它太大了,更容易变成缓存清理的目标
浏览器的缓存文件夹是有大小上限的,一旦达到上限就会开始不断滚动删除以前的内容
@无名啊,但是无论虎绿林提供什么信息,浏览器都会因为下载了太多其他网站的数据而清除虎绿林的内容,这你可以理解吧。
@无名啊,服务器已经提供了避免重新下载所需的所有信息,能不能取决于你的浏览器
还有,这个拆分功能如此方便,我没有理由不用它:
https://hu60.cn/q.php/bbs.topic.105758.html?floor=14#14
@无名啊,浏览器会自动清除缓存,一段时间没有打开虎绿林,打开其他网站多了,虎绿林缓存就被清理了,这是我们没办法控制的。
还有,某些浏览器完全没有缓存,比如搜索引擎蜘蛛。现代搜索引擎蜘蛛都是会解析CSS执行JS的。
所以我准备把文件分开,就像mi-sans-L3一样拆成多个字体,这样就算所有页面都加载,也只会加载匹配到的那一个部分,不需要下载9MB
@无名啊,我以前以为只有出现了emoji表情的页面才会加载这个字体,但是现在从F12结果来看,所有页面都会自动加载这个字体,包括首页,而且如果缓存过期了就会重新下载。
不知道是不是我在unicode-range里面指定的范围不好,某个特定范围会匹配到会在所有页面里面出现的文字。
我感觉主要是这个字体太大了,有9MB。看来要基于unicode-range给它切片了。
https://hu60.cn/fonts/NotoColorEmoji/NotoColorEmoji.woff2
每次测得的情况都不一样。
看起来有很多人同时访问hu60.cn网页就会导致卡顿。
好像某些地区访问速度就是比其他地区慢,这是 https://hu60.cn/fonts/MiSans-L3/MiSans-L3.CJK-Unified-Ideographs-Extension-B-03.woff2 (161KB)的测速结果:
@无名啊,好吧,那我现在只能把file.hu60.cn从列表里删掉,让这个出口只由hu60.cn和winegame.net的web页面独享。
这样一来,就是file.hu60.cn有人下载导致卡顿了,不是file.winegame.net(它根本没有使用这个出口)。
@无名啊,你访问这个页面,https://hu60.cn/q.php/tools.ua.html
结尾有 X-Forwarded-Host: hu60.cn 吗?
@无名啊,嗯,我想一想怎么在转发的时候保留源IP吧。不想安装nginx做代理
@无名啊,你码掉的那个IP是不是172.24.60.148?我现在是用iptables把一台机器的流量直接转发到另一台,172.24.60.148就是原来那台机器的IP,也就是说所有人的访问都被算成一个IP了。
@胡椒舰长,对了,只有hu60.cn才会使用专用流量出口,www.hu60.cn并不会,所以后者会随着下载流量变多而变卡。我故意留着www不改是为了把搜索引擎引诱到非专用出口。
目前已经部署的方案就是我认为最好的方案了,网页和文件分别通过两个出口对外提供服务,文件下载流量大不会影响网页