数据结构与算法之美
王争
前 Google 工程师
283752 人已学习
新⼈⾸单¥68
登录后,你可以任选4讲全文学习
课程目录
已完结/共 81 讲
基础篇 (38讲)
数据结构与算法之美
15
15
1.0x
00:00/01:19
登录|注册

不定期福利第三期 | 测一测你的算法阶段学习成果

讲述:冯永吉大小:1.21M时长:01:19
设计一个工业级散列表,避免散列冲突导致性能下降和碰撞攻击的问题
设计一个符合要求、操作高效、使用机器资源最少的海量图片存储系统
使用二分查找的变形算法
快速定位出一个IP地址的归属地
各种处理策略的实现方式
当线程池中没有空闲资源时,线程池如何处理请求
设计一个比较详细的、可以落地执行的设计方案
快速地查询金额最大的前K个订单
查找按照积分从小到大排名在第x位到第y位之间的猎头ID列表
查询积分从小到大排在第x位的猎头ID信息
查找积分在某个区间的猎头ID列表
根据猎头的ID快速查找、删除、更新这个猎头的积分信息
实战测试题(六)
实战测试题(五)
实战测试题(四)
实战测试题(三)
实战测试题(二)
实战测试题(一)
程序员的算法能力测试

该思维导图由 AI 生成,仅供参考

专栏最重要的基础篇马上就要讲完了,不知道你掌握了多少?我从前面的文章中挑选了一些案例,稍加修改,组成了一套测试题。
你先不要着急看答案,自己先想一想怎么解决,测一测自己对之前的知识掌握的程度。如果有哪里卡壳或者不怎么清楚的,可以回过头再复习一下。
正所谓温故知新,这种通过实际问题查缺补漏的学习方法,非常利于你巩固前面讲的知识点,你可要好好珍惜这次机会哦!

实战测试题(一)

假设猎聘网有 10 万名猎头顾问,每个猎头顾问都可以通过做任务(比如发布职位),来积累积分,然后通过积分来下载简历。假设你是猎聘网的一名工程师,如何在内存中存储这 10 万个猎头 ID 和积分信息,让它能够支持这样几个操作:
根据猎头的 ID 快速查找、删除、更新这个猎头的积分信息;
查找积分在某个区间的猎头 ID 列表;
查询积分从小到大排在第 x 位的猎头 ID 信息;
查找按照积分从小到大排名在第 x 位到第 y 位之间的猎头 ID 列表。

相关章节

题目解析

这个问题既要通过 ID 来查询,又要通过积分来查询,所以,对于猎头这样一个对象,我们需要将其组织成两种数据结构,才能支持这两类操作。
我们按照 ID,将猎头信息组织成散列表。这样,就可以根据 ID 信息快速地查找、删除、更新猎头的信息。我们按照积分,将猎头信息组织成跳表这种数据结构,按照积分来查找猎头信息,就非常高效,时间复杂度是 O(logn)。
我刚刚讲的是针对第一个、第二个操作的解决方案。第三个、第四个操作是类似的,按照排名来查询,这两个操作该如何实现呢?
我们可以对刚刚的跳表进行改造,每个索引结点中加入一个 span 字段,记录这个索引结点到下一个索引结点的包含的链表结点的个数。这样就可以利用跳表索引,快速计算出排名在某一位的猎头或者排名在某个区间的猎头列表。
实际上,这些就是 Redis 中有序集合这种数据类型的实现原理。在开发中,我们并不需要从零开始代码实现一个散列表和跳表,我们可以直接利用 Redis 的有序集合来完成。

实战测试题(二)

电商交易系统中,订单数据一般都会很大,我们一般都分库分表来存储。假设我们分了 10 个库并存储在不同的机器上,在不引入复杂的分库分表中间件的情况下,我们希望开发一个小的功能,能够快速地查询金额最大的前 K 个订单(K 是输入参数,可能是 1、10、1000、10000,假设最大不会超过 10 万)。如果你是这个功能的设计开发负责人,你会如何设计一个比较详细的、可以落地执行的设计方案呢?
为了方便你设计,我先交代一些必要的背景,在设计过程中,如果有其他需要明确的背景,你可以自行假设。
数据库中,订单表的金额字段上建有索引,我们可以通过 select order by limit 语句来获取数据库中的数据;
我们的机器的可用内存有限,比如只有几百 M 剩余可用内存。希望你的设计尽量节省内存,不要发生 Out of Memory Error。

相关章节

题目解析

解决这个题目的基本思路我想你应该能想到,就是借助归并排序中的合并函数,这个我们在排序(下)以及堆的应用那一节中讲过。
我们从每个数据库中,通过 select order by limit 语句,各取局部金额最大的订单,把取出来的 10 个订单放到优先级队列中,取出最大值(也就是大顶堆堆顶数据),就是全局金额最大的订单。然后再从这个全局金额最大订单对应的数据库中,取出下一条订单(按照订单金额从大到小排列的),然后放到优先级队列中。一直重复上面的过程,直到找到金额前 K(K 是用户输入的)大订单。
从算法的角度看起来,这个方案非常完美,但是,从实战的角度来说,这个方案并不高效,甚至很低效。因为我们忽略了,数据库读取数据的性能才是这个问题的性能瓶颈。所以,我们要尽量减少 SQL 请求,每次多取一些数据出来,那一次性取出多少才合适呢?这就比较灵活、比较有技巧了。一次性取太多,会导致数据量太大,SQL 执行很慢,还有可能触发超时,而且,我们题目中也说了,内存有限,太多的数据加载到内存中,还有可能导致 Out of Memory Error。
所以,一次性不能取太多数据,也不能取太少数据,到底是多少,还要根据实际的硬件环境做 benchmark 测试去找最合适的。

实战测试题(三)

我们知道,CPU 资源是有限的,任务的处理速度与线程个数并不是线性正相关。相反,过多的线程反而会导致 CPU 频繁切换,处理性能下降。所以,线程池的大小一般都是综合考虑要处理任务的特点和硬件环境,来事先设置的。
当我们向固定大小的线程池中请求一个线程时,如果线程池中没有空闲资源了,这个时候线程池如何处理这个请求?是拒绝请求还是排队请求?各种处理策略又是怎么实现的呢?

相关章节

题目解析

这个问题的答案涉及队列这种数据结构。队列可以应用在任何有限资源池中,用于排队请求,比如数据库连接池等。实际上,对于大部分资源有限的场景,当没有空闲资源时,基本上都可以通过“队列”这种数据结构来实现请求排队。
这个问题的具体答案,在队列那一节我已经讲得非常详细了,你可以回去看看,这里我就不赘述了。

实战测试题(四)

通过 IP 地址来查找 IP 归属地的功能,不知道你有没有用过?没用过也没关系,你现在可以打开百度,在搜索框里随便输一个 IP 地址,就会看到它的归属地。
这个功能并不复杂,它是通过维护一个很大的 IP 地址库来实现的。地址库中包括 IP 地址范围和归属地的对应关系。比如,当我们想要查询 202.102.133.13 这个 IP 地址的归属地时,我们就在地址库中搜索,发现这个 IP 地址落在[202.102.133.0, 202.102.133.255]这个地址范围内,那我们就可以将这个 IP 地址范围对应的归属地“山东东营市”显示给用户了。
[202.102.133.0, 202.102.133.255] 山东东营市
[202.102.135.0, 202.102.136.255] 山东烟台
[202.102.156.34, 202.102.157.255] 山东青岛
[202.102.48.0, 202.102.48.255] 江苏宿迁
[202.102.49.15, 202.102.51.251] 江苏泰州
[202.102.56.0, 202.102.56.255] 江苏连云港
在庞大的地址库中逐一比对 IP 地址所在的区间,是非常耗时的。假设在内存中有 12 万条这样的 IP 区间与归属地的对应关系,如何快速定位出一个 IP 地址的归属地呢?

相关章节

题目解析

这个问题可以用二分查找来解决,不过,普通的二分查找是不行的,我们需要用到二分查找的变形算法,查找最后一个小于等于某个给定值的数据。不过,二分查找最难的不是原理,而是实现。要实现一个二分查找的变形算法,并且实现的代码没有 bug,可不是一件容易的事情,不信你自己写写试试。
关于这个问题的解答以及写出 bug free 的二分查找代码的技巧,我们在二分查找(下)那一节有非常详细的讲解,你可以回去看看,我这里就不赘述了。

实战测试题(五)

假设我们现在希望设计一个简单的海量图片存储系统,最大预期能够存储 1 亿张图片,并且希望这个海量图片存储系统具有下面这样几个功能:
存储一张图片及其它的元信息,主要的元信息有:图片名称以及一组 tag 信息。比如图片名称叫玫瑰花,tag 信息是{红色,花,情人节};
根据关键词搜索一张图片,比如关键词是“情人节 花”“玫瑰花”;
避免重复插入相同的图片。这里,我们不能单纯地用图片的元信息,来比对是否是同一张图片,因为有可能存在名称相同但图片内容不同,或者名称不同图片内容相同的情况。
我们希望自主开发一个简单的系统,不希望借助和维护过于复杂的三方系统,比如数据库(MySQL、Redis 等)、分布式存储系统(GFS、Bigtable 等),并且我们单台机器的性能有限,比如硬盘只有 1TB,内存只有 2GB,如何设计一个符合我们上面要求,操作高效,且使用机器资源最少的存储系统呢?

相关章节

题目解析

这个问题可以分成两部分,第一部分是根据元信息的搜索功能,第二部分是图片判重。
第一部分,我们可以借助搜索引擎中的倒排索引结构。关于倒排索引我会在实战篇详细讲解,我这里先简要说下。
如题目中所说,一个图片会对应一组元信息,比如玫瑰花对应{红色,花,情人节},牡丹花对应{白色,花},我们可以将这种图片与元信息之间的关系,倒置过来建立索引。“花”这个关键词对应{玫瑰花,牡丹花},“红色”对应{玫瑰花},“白色”对应{牡丹花},“情人节”对应{玫瑰花}。
当我们搜索“情人节 花”的时候,我们拿两个搜索关键词分别在倒排索引中查找,“花”查找到了{玫瑰花,牡丹花},“情人节”查找到了{玫瑰花},两个关键词对应的结果取交集,就是最终的结果了。
第二部分关于图片判重,我们要基于图片本身来判重,所以可以用哈希算法,对图片内容取哈希值。我们对哈希值建立散列表,这样就可以通过哈希值以及散列表,快速判断图片是否存在。
我这里只说说我的思路,这个问题中还有详细的内存和硬盘的限制。要想给出更加详细的设计思路,还需要根据这些限制,给出一个估算。详细的解答,我都放在哈希算法(下)那一节里了,你可以自己回去看。

实战测试题(六)

我们知道,散列表的查询效率并不能笼统地说成是 O(1)。它跟散列函数、装载因子、散列冲突等都有关系。如果散列函数设计得不好,或者装载因子过高,都可能导致散列冲突发生的概率升高,查询效率下降。
在极端情况下,有些恶意的攻击者,还有可能通过精心构造的数据,使得所有的数据经过散列函数之后,都散列到同一个槽里。如果我们使用的是基于链表的冲突解决方法,那这个时候,散列表就会退化为链表,查询的时间复杂度就从 O(1) 急剧退化为 O(n)。
如果散列表中有 10 万个数据,退化后的散列表查询的效率就下降了 10 万倍。更直观点说,如果之前运行 100 次查询只需要 0.1 秒,那现在就需要 1 万秒。这样就有可能因为查询操作消耗大量 CPU 或者线程资源,导致系统无法响应其他请求,从而达到拒绝服务攻击(DoS)的目的。这也就是散列表碰撞攻击的基本原理。
如何设计一个可以应对各种异常情况的工业级散列表,来避免在散列冲突的情况下,散列表性能的急剧下降,并且能抵抗散列碰撞攻击?

相关章节

题目解析

我经常把这道题拿来作为面试题考察候选人。散列表可以说是我们最常用的一种数据结构了,编程语言中很多数据类型,都是用散列表来实现的。尽管很多人能对散列表都知道一二,知道有几种散列表冲突解决方案,知道散列表操作的时间复杂度,但是理论跟实践还是有一定距离的。光知道这些基础的理论并不足以开发一个工业级的散列表。
所以,我在散列表(中)那一节中详细给你展示了一个工业级的散列表要处理哪些问题,以及如何处理的,也就是这个问题的详细答案。
这六道题你回答得怎么样呢?或许你还无法 100% 回答正确,没关系。其实只要你看了解析之后,有比较深的印象,能立马想到哪节课里讲过,这已经说明你掌握得不错了。毕竟想要完全掌握我讲的全部内容还是需要时间沉淀的。对于这门课的学习,你一定不要心急,慢慢来。只要方向对了就都对了,剩下就交给时间和努力吧!
通过这套题,你对自己的学习状况应该有了一个了解。从专栏开始到现在,三个月过去了,我们的内容也更新了大半。你在专栏开始的时候设定的目标是什么?现在实施得如何了?你可以在留言区给这三个月的学习做个阶段性学习复盘。重新整理,继续出发!
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

这篇文章涵盖了程序员算法能力测试的四个实战测试题,涉及内存存储、电商交易系统设计、线程池处理策略和IP地址归属地定位等多个方面。每个测试题都提供了详细的题目解析,包括解决问题的基本思路和相关章节的讨论。这些测试题考察了读者对算法和数据结构的理解和应用能力,对于提升技术能力和解决实际问题具有一定的指导意义。其中涉及的实战测试题包括海量图片存储系统设计和工业级散列表设计,这些问题涉及搜索功能、图片判重、散列冲突等技术挑战,对读者的技术学习和思考提供了有益的指导。整体而言,这篇文章对于程序员的技术学习和应用具有一定的参考价值。

2018-12-2140人觉得很赞给文章提建议

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《数据结构与算法之美》
新⼈⾸单¥68
立即购买
unpreview
登录 后留言

全部留言(43)

  • 最新
  • 精选
  • 余璋
    学习的老师的这门课程,总有种相见恨晚的感觉,真正体悟到了算法之美。举重若轻,方为大师,老师真可谓大师。

    作者回复: 哈哈哈 过奖了

    2018-12-25
    11
  • jiemoon
    老师,像那个猎头的题目,用多个数据结构的话,更新操作会出现数据不一致的情况?

    作者回复: 加个锁?主要还是看操作是不是对数据一致性敏感吧

    2018-12-21
    7
  • Neo_Zhang
    认真看了老师六个实战题目和详细解析,我觉得每道题可以当做一个小项目来练手了。同时也真实感受到基础的重要性!

    作者回复: 是的,好好写写,收获会很大。

    2019-02-08
    4
  • DFighting
    看了这些题目,怎么说呢,有点知其然,不知其所以然的感觉。应该是没有实际应用过的缘故吧,这个彩蛋很好,适合动手实践实践,不然过段时间又忘了

    作者回复: 知其所以然看里面的文章链接呢,毕竟是测试题,限于篇幅,不可能讲解太多。

    2019-08-07
  • vuuihc
    老师是高手,把这么多其他人甚至课本上讲的蹩脚难懂的知识,娓娓道来,深入浅出。 买了这门课一开始没怎么看,最近两天有空就看,觉得是一种享受!
    2018-12-21
    61
  • 陈阿票
    基本上一下子都知道用什么数据结构和算法去解决,但是实际代码我肯定写不出来,心里总有一种纸上谈兵的感觉。
    2018-12-21
    1
    45
  • alic
    这门课程以后也会反复看的,希望老师也不要因为掉队人多了就松懈了,加油。
    2018-12-22
    16
  • 渔人
    第二题,前K大的订单,您的描述有些简略,不容易理解,我重复描述一下,您看对不对哈。 10个库,取前K大的订单, 第一次从各个库中分别取出最大的订单,组成一个数量为10的大顶堆。另外维护一个数组,刚开始是空的。 这时从大顶堆中弹出堆顶元素(堆中最大值),将堆顶元素写入数组,然后在该元素所在的库中按序拿出第二个元素写入大顶堆填上空缺,大顶堆会重新平衡,堆顶元素可能会变。 这时重复上面的步骤,继续弹出堆顶写入数组,并在弹出元素所在库中按序拿下一个值填入大顶堆,大顶堆又会重新平衡,接着继续弹出堆顶元素写入数组····直到数组的长度为K时,整个过程结束。 大顶堆的大小一直为10,堆每次平衡后,就将堆顶搞出来,重新写入一个值,周而复始,取K次堆顶就是前K大的集合了。 @ban
    2019-01-28
    9
  • 传说中的成大大
    实战测试1: 本来想的用树来维护通过ID的增删改查, 用积分做成一个hash表 每个hash下标对应多个猎头ID, 也可以用跳表实现增删改查 实战测试2: 维护一个大小为k的小顶堆 每次读一个库的数据 然后维护这个小顶堆 实战测试3: 维护一个优先队列,根据优先级来判定 突然到来的线程请求是否该执行,也就是该线程是否在优先队列优先级高的区域 实战测试4: 能想到二分法 实战测试5: 不会 实战测试6: 不会 以上题目是未看过任何答案和提示想出来的 看了解答 除了测试6没多大印象以外,其他的都能有很深刻的印象 学习目标: 最开始学习数据结构和算法的目标就是说要掌握好树和图,但是实际上却发现了更多需要我去掌握的数据结构和算法 实施情况, 坚持了三个月 每一篇文章都认真仔细的学习了 ,总得来说收获颇多,尤其是了解很多以前都不了解的数据结果和算法,扩充了自己的知识面 接下来的目标还是以本位为测试基准,优先针对性的复习,然后再把课程过一遍,坚持自己的学习初衷 我一定要把数据结果和算法学好! 还是谢谢老师
    2018-12-21
    3
  • Phoenix
    老师,第二题,我有另一条思路,想请老师教导和指点 正如老师所说,数据库最大性能瓶颈就是在IO,所以反复执行DB的IO操作是低效的 我想法是要高效实现第二题的要求,又尽量对数据库的IO操作,有以下思路 1 借助桶排序的思想,将订单按金额从小到大的规则分布在10个库中 2 要查找金额最大的前k订单,就先从第10个库中检索订单,满足K数量就直接返回 3 不满足k数量,在从第9个库中查找,以此类推,直到满足k数量,返回结果
    2019-02-28
    1
    2
收起评论
大纲
固定大纲
实战测试题(一)
相关章节
题目解析
实战测试题(二)
相关章节
题目解析
实战测试题(三)
相关章节
题目解析
实战测试题(四)
相关章节
题目解析
实战测试题(五)
相关章节
题目解析
实战测试题(六)
相关章节
题目解析
显示
设置
留言
43
收藏
99+
沉浸
阅读
分享
手机端
快捷键
回顶部