记得以前有一个100k原则和一个几秒原则(具体几秒忘了),就是说一个网页包括图片的总大小不能超过100k,总加载时间不能超过几秒,否则用户就会认为网站坏了关掉不看了。
现在的网页,搞前端工程化,一大堆不知道多复杂的前端库打一个大包扔给浏览器执行,这个js包可能就有数MB甚至数十MB,这还不算页面上各种图片字体***,还有加载之后调用api才回来的各种数据、数据指向的图片***... 讲真,就那个几秒原则,百兆带宽的网络都…。
如何看待rust编写的zed编辑器?
如何看待不超过1879元的Mac mini(M4+16/256GB+票),易用性吊打同级其他台式电脑?
现在的年轻人喜欢穿连裤袜吗?
go为了编译速度减少了很多编译优化?为什么不能提供优化编译模式来提升运行效率?是太懒还是另有隐情?