IT 旅途——程序员面试经验分享刊登于-05-09 09:16| 10181 次阅读| 来源 CSDN| 50 条评论| 作者季红程序员面试职业生涯摘要:本文从 IT 人员的角度,一起分享面试道路上的坎坷。文章汇集几种著名企业的面试题,从出题的角度到分析问题的措施到处理问题较为全面的讲解面试题目,以供读者参照。面试是职场的永恒话题,怎样在职场面试中脱颖而出,获得心仪职位?这里搜集了有关面试经验的热文,其中汇集了阿里巴巴、百度、微软几种著名企业的面试题以及部分答题措施、技巧、面试的心得体会,供读者参照。 [1] 教你怎样迅速秒杀掉:99%的海量数据处理面试题 教你怎样迅速秒杀掉:99%的海量数据处理面试题作者:July出处:构造之法算法之道 blog序言一般而言,标题具有“秒杀”,“99%”,“史上最全/最强”等词汇的往往都脱不了哗众取宠之嫌,但深入来讲,假如读者读罢此文,却无任何收获,那么,我也甘愿背负这样的罪名,:-),同步,此文可以看做是对这篇文章:十道海量数据处理面试题与十个措施大总结的一般抽象性总结。毕竟受文章和理论之限,本文将摒弃绝大部分的细节,只谈措施/模式论,且重视用最通俗最直白的语言论述有关问题。最终,有一点必须强调的是,全文行文是基于面试题的分析基础之上的,详细实践过程中,还是得详细状况详细分析,且场景也远比本文所述的任何一种状况复杂得多。OK,若有任何问题,欢迎随时不吝赐教。谢谢。何谓海量数据处理?所谓海量数据处理,无非就是基于海量数据上的存储、处理、操作。何谓海量,就是数据量太大,因此导致要么是无法在较短时间内迅速处理,要么是数据太大,导致无法一次性装入内存。那处理措施呢?针对时间,我们可以采用巧妙的算法搭配合适的数据构造,如 Bloom filter/Hash/bit-map/堆/数据库或倒排索引/trie 树,针对空间,无非就一种措施:大而化小:分而治之/hash 映射,你不是说规模太大嘛,那简单啊,就把规模大化为规模小的,各个击破不就完了嘛。至于所谓的单机及集群问题,通俗点来讲,单机就是处理装载数据的机器有限(只要考虑cpu,内存,硬盘的数据交互),而集群,机器有多辆,适合分布式处理,并行计算(更多考虑节点和节点间的数据交互)。再者,通过本 blog 内的有关海量数据处理的文章:Big Data Processing,我们已经大体懂得,处理海量数据问题,无非就是:1.分而治之/hash 映射 + hash 记录 + 堆/迅速/归并排序; 2.双层桶划分 3.Bloom filter/Bi...