记得以前有一个100k原则和一个几秒原则(具体几秒忘了),就是说一个网页包括图片的总大小不能超过100k,总加载时间不能超过几秒,否则用户就会认为网站坏了关掉不看了。
现在的网页,搞前端工程化,一大堆不知道多复杂的前端库打一个大包扔给浏览器执行,这个js包可能就有数MB甚至数十MB,这还不算页面上各种图片字体***,还有加载之后调用api才回来的各种数据、数据指向的图片***... 讲真,就那个几秒原则,百兆带宽的网络都…。
上一篇 : 自己拥有一台服务器可以做哪些很酷的事情? 下一篇 : 为什么开发一个 AI Agent 看似容易,但真正让它「好用」却如此困难?技术瓶颈主要在哪里?