只要懂得了这个大体的原则,再加上强大的执行力,减肥基本上就可以进行下去。
班级上开完会,下午又是整个系里面开会,学院的领导进行发言,给同学说说学院的辉煌历史。系里面开完会,还得进行开学典礼,刚入学的时候,基本上的流程都是这样。
林鸿一直在空余时间的时候,抓紧每一分每一秒忙着编写代码。
要是碰到有些不好处理的,他就上网查查资料。
他查找资料主要有两种方式,一种就是使用上次他找到的backrub搜索工具,另外一种则是使用自己的超级蠕虫。
他越来越觉得backrub所使用的技术非常不错,因为他很快就可以找到自己所想要找的内容,而是用其他搜索网站却经常搜到自己不想看到的奇怪网页。
于是,林鸿便花了点时间研究了一下这个个人网站。研究的方式,自然是入侵对方的服务器,然后查看后台的代码。光明正大地给对方打电话,说想要了解他们的技术,应该没有人有这么大方。
林鸿非常惊讶于对方的网站网速,他查看了一下,竟然高达45mb/s。
再进一步了解,这才有些了然,原来这是他们服务器所在的地方——斯坦福大学网络中的最大带宽。
林鸿注意到,这台机器被放置在斯坦福大学的宿舍楼中,他不可能拥有如此大的带宽权限,最后他从路由器中找到了一些蛛丝马迹,有人修改了路由器的设置,看来应该就是backrub的人做的。
搜索引擎所使用的技术,实际上和蠕虫差不多,只不过他们称自己的这个机器程序为“spider”,使用这个程序自动去访问别人的网站,然后将这些网站上的内容抓取到本地数据库中,并建立好索引。这样,别人在使用关键词进行搜索的时候,就可以迅速地向对方展现一个列表,再通过这个列表链接,跳转到目标网站。
这个原理很多技术人员都知道,但是要想将其做好,也就是让客户搜索到自己所想要找的内容,却不是一件容易的事情。因为这其中涉及到如何将网页排名,毕竟客户想要找的内容,相当于是大海捞针,捞出来的东西非常多,怎么才能将这根“针”过滤出来,排在最前面,这是最考验功底的地方。
林鸿研究了一下他们的核心代码,主要是用java写的,虽然在他眼中存在着许多bug和漏洞,但是它毕竟能够正常工作起来,并且给人带来很好的搜索体验。
林鸿通过研究发现,其中的秘密就在于它的算法上面。
!#
"target="_blank">www.ysxiaoshuo"target="_blank">http://www.ysxiaoshuo”>"target="_blank">www.ysxiaoshuo