零基础学 Python(2023 版)
尹会生
太乙人工智能技术合伙人 & 项目总监
60050 人已学习
新⼈⾸单¥68
课程目录
已完结/共 124 讲
结束语 & 结课测试 (2讲)
零基础学 Python(2023 版)
登录|注册
留言
8
收藏
沉浸
阅读
分享
手机端
回顶部
当前播放: 84|计算资源充足时,如何通过并行设计提高效率?
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.75x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
课程介绍:这次我们都做了哪些升级?
内容综述:明确学习目的
01|如何配置 Python 开发环境?
02 | 常用 IDE:如何提高开发效率?
03 | 如何站在官方文档的肩膀上自己“造轮子”?
04 | 怎样运行你的第一行代码?
05 | 怎样使用 Gitee 管理你的代码?
06 | 学习编程有问题?去这里找答案!
07|跨越门槛:Python 开发环境总结及实现原理
08 | 修炼基本功:浅析输入输出
09 | 变量:如何让计算机临时存储数据?
10|字符串(上):Python 是如何处理单词的?
11|字符串(下):Python 是如何处理单词的?
12|存储数字应该采用哪种数据类型?
13|何时使用数,何时使用字符串?
14|注释:如何写程序的说明书?
15|小试牛刀:如何制作简单计算器?
16|变量命名规范:如何编写优雅的程序?
17|告别新手村:Python 编程基础知识
18|内置数据类型包括哪几种?
19|列表如何处理同类数据?
20|常见常新:列表的常见操作
21|元组:如何处理一次性数据?
22|常见常新:集合的常见操作
23|字典:如何处理映射类型的数据?
24|常见常新:字典的常见操作(上)
25|常见常新:字典的常见操作(下)
26|小试牛刀:如何利用类型转换实现手机通讯录?(上)
27|小试牛刀:如何利用类型转换实现手机通讯录?(下)
28|常见的内置数据类型都何时使用?
29|避坑指南:内置数据类型的常见错误
30|内置数据类型参考:如何使用官方文档与帮助?
31|再回首:“内置数据类型”单元小结
32|if 语句:数据流程出现分支时,怎样编写程序?
33|match 语句:如何通过 match 关键字来处理程序的分支逻辑?
34|while 循环:需要多次重复执行某段程序时,怎么做?
35|for 循环:如何遍历一个对象里的所有元素?
36|语句嵌套:如何处理多重循环的问题?
37|小试牛刀:如何设计一个飞机大战的程序?
38|避坑指南:判断和循环中的常见错误
39|再回首:“判断循环”单元小结
40|输入:如何接收用户通过键盘输入的数据?
41|格式化输出:如何将执行结果通过屏幕输出?
42|F-strings:如何通过定义好的格式进行输出?
43 | 常见常新:文件的打开
44|文件编码:如何解决不同操作系统的文件乱码问题?
45|常见常新:文件的读写
46|常见常新:文件的关闭
47|小试牛刀:如何使用 Python 合并多个文件?
48|再回首:“输入输出与文件操作”单元小结
49|函数的定义:如何优雅地反复引用同一段代码?
50|函数的参数:怎样实现函数与外部数据通信?
51|函数的参数:当函数操作对象不固定时怎么处理?
52|函数的返回值:如何得到函数的执行结果?
53|小试牛刀:如何利用函数实现电商购物车功能?
54|避坑指南:列表作为参数传递出错了怎么办?
55|高阶函数:函数对象与函数调用的用法区别
56|装饰器:函数嵌套的定义与调用的区别
57|再回首:“函数”单元小结
58|编程思想不同会导致怎样的代码差异?
59|类与实例:如何使用面向对象的思想编写程序?
60|类的继承:如何解决代码重用的问题?
61|类的装饰器:如何改变类方法的功能?
62|小试牛刀:如何开发自动咖啡机?
63|避坑指南:类的常见错误
64|init 方法:如何为对象传递参数?
65|再回首:“类”单元小结
66 | 模块的导入:如何使用其他人编写好的代码功能?
67 | 标准库:Python 默认提供的便捷功能有哪些?
68 | 自定义模块:如何编写一个完整功能?
69 | 第三方模块的使用:如何使用其他人编写的代码?
70 | 小试牛刀:如何使用 Python 为函数求导?
71|再回首:“模块与标准库”单元小结
72|初识异常:异常的产生与分类
73|异常捕获:出现异常时,如何利用程序进行处理?
74|自定义异常捕获:如何定义业务异常?
75|避坑指南:编写捕获异常程序时经常出现的问题
76|再回首:“异常处理”单元小结
77|扩展数据类型:怎样使用更复杂的数据类型?
78|魔术方法:怎样通过类构造自己需要的数据类型?
79|怎样将 Python 和 C++ 结合起来混合编程?
80|怎样将已有算法改造成符合项目的特定算法?
81|设计模式:怎样合理组合多个函数和类?
82|Redis 数据库:怎样使用 NoSQL 数据库?
83|关系型数据库:怎样使用关系型数据库?
84|计算资源充足时,如何通过并行设计提高效率?
85|多进程间如何通信?
86|再回首:“高级数据类型与算法”单元小结
87|理论盘点:数据分析的流程及对应的 Python 库
88|理论盘点:数据采集的方法与 HTTP 协议
89|理论盘点:任务的并行执行原理
90|理论盘点:非规范化数据处理的基础与正则表达式
91|如何获取网页上的数据并存储到文件?
92|小试牛刀:如何将数据进行图形化展示?
93|再回首:“数据分析”单元小结
94|理论盘点:文件类型与对应的 Python 函数库
95|如何批量读取 Excel 文件?
96|如何实现数据的批量格式转换?
97|如何扩展数据类型?
98|再回首:“办公自动化”单元小结
99|理论盘点:Web 客户端与服务端
100|理论盘点:MVC 模型是什么?
101|如何使用Django搭建简单的Web服务器?
102|如何使用Django-admin实现文章上传?
103|如何使用Django实现文章发布?
104|再回首:“Web开发”单元小结
105|理论盘点:人脸识别的一般步骤
106|理论盘点:人脸识别常用的 Python 库有哪些?
107|怎样通过 OpenCV 采集视频信号?
108|如何训练人脸模型?
109|怎样设计人脸识别系统?
110|再回首:“计算机视觉”单元小结
111|聚焦异同:物联网与互联网有啥不一样?
112|理论盘点:基础但不简单的 TCP 协议
113|理论盘点:物模型与模组
114|如何为 ESP32 安装 MicroPython?
115|怎样通过 MQTT 协议构建消息队列?
116|小试牛刀:在 OLED 屏幕和手机远程同时显示室内温度
117|再回首:“物联网”单元小结
118|结束语:人生苦短,我用Pyhon
结课测试|来赴一场满分之约吧!
直播加餐|与AI共同编程,用ChatGPT学Python
直播加餐|用OpenAI API理解Python数据类型
直播加餐|掌握Gradio框架:为 AI Agent 程序定制界面
本节摘要

课后习题
请使用并发任务模型同时访问 5 个网站,并将网页的数据存储到不同的文件中。

课程代码、课件及其他相关资料地址
https://gitee.com/wilsonyin/zero-basics-python

登录 后留言

全部留言(8)

  • 最新
  • 精选
Zhaohong
多线程函数中的max_workers参数应该怎么设置呢,越大越好吗

作者回复: max_workers 没有推荐的数值,因为线程的工作量不同,执行时间长短不同,还有最重要的CPU性能不同。都会导致设置的值不同。要根据实际需求来制定。 例如我之前的工作中使用nginx作为web服务器提供网页服务,nginx就是典型的多进程多线程服务器。进程数量,往往和逻辑CPU数量相同,如果提供的是php网页,且网页多为简单页面和图片,可以将每个核心的线程数量设置为10个,每个线程轮流处理,且不会导致用户卡顿,当短视频业务兴起时,后端是短视频服务器,会减少线程数量,因为用户每次请求和响应时长增加了,业务“重”了, 这时会减少线程数量,让用户不觉得卡顿,也让服务器的CPU占用率低于80% 。 这就是基于不同业务逻辑进行线程数量设置的基本方法 简单来说是一只蜘蛛有一张嘴和八条腿,如果每条腿都拿勺子吃饭,要考虑嘴的大小,勺子的大小,勺子里面的饭的多少,让蜘蛛吃饱又不闲着,让嘴里放得下,勺子也不空着

2023-04-25
2
有点怀旧
请问这个库如果需要使用公共变量加锁应该怎么使用

作者回复: 首先,导入多线程的库,再实例化一个锁对象, 加锁,之后在不需要解决锁冲突的地方释放锁。具体代码如下: import threading lock = threading.Lock() # 初始化一个锁对象 for i in range(1, 100): lock.acquire() #申请锁 sum += 1 lock.release() #释放锁

2023-04-12
Matthew
import concurrent.futures import urllib.request import ssl # 定义关于 url 的字典,元素为:(网站名称:url) url_records = {'极客时间':'https://time.geekbang.org/', '百度':'https://www.baidu.com', '京东':'https://www.jd.com', '淘宝':'https://www.taobao.com', '天猫':'https://www.tmall.com' } # 定义方法,访问网址并读取首页内容 def load_url(url, timeout): context = ssl._create_unverified_context() # url是https形式 with urllib.request.urlopen(url, timeout=timeout, context=context) as conn: return conn.read() # 通过线程池,并行执行,并将文件内容写入”网站名称.txt“的文件中 with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor: future_to_url = {executor.submit(load_url, url_record[1], 60): url_record for url_record in list(url_records.items())} for future in concurrent.futures.as_completed(future_to_url): url_name = future_to_url[future][0] url_path = future_to_url[future][1] try: data = future.result().decode('utf-8') except Exception as exc: print('%r generated an exception: %s' % (url_path, exc)) else: print('%r page is %d bytes' % (url_path, len(data))) with open(f'{url_name}.txt', 'w') as f: f.write(data)
2023-01-17
1
Guan YD
import concurrent.futures import urllib.request URLS = ['http://www.baidu.com', 'http://www.taobao.com', 'http://www.jd.com', 'http://www.zhihu.com', 'https://redis.io', ] def load_url(url, timeout): with urllib.request.urlopen(url, timeout=timeout) as conn: return conn.read() with concurrent.futures.ThreadPoolExecutor(max_workers=2) as executor: future_to_url = {executor.submit(load_url, url, 60): url for url in URLS} for future in concurrent.futures.as_completed(future_to_url): url = future_to_url[future] try: data = future.result().decode('utf-8') except Exception as exc: print(f"大哥出问题了诶{url,exc}") else: with open(f"./{urllib.parse.urlparse(url).netloc}.txt", mode='w') as f: f.write(data) print(f"搞完了搞完了")
2024-01-05
Geek_631607
from concurrent.futures import ThreadPoolExecutor import concurrent.futures import requests import urllib.parse URLS =['https://docs.python.org/', 'https://www.baidu.com', 'https://requests.readthedocs.io/', 'https://copilot.microsoft.com/', 'https://dev.mysql.com/', 'https://redis.io/'] def load_url(url, timeout): with requests.get(url, timeout=timeout) as conn: return conn.content with concurrent.futures.ThreadPoolExecutor(max_workers=2) as executor: future_to_url = {executor.submit(load_url, url, 60): url for url in URLS} for future in concurrent.futures.as_completed(future_to_url): url = future_to_url[future] try: data = future.result() except BaseException as exc: print("%r generated an exception: %s" %(url, exec)) else: print("%r page is %d bytes"%(url, len(data))) with open(f"./84/{urllib.parse.urlparse(url).netloc}.txt", mode='w') as f: f.write(data.decode())
2023-12-11
Geek_Mike
#请使用并发任务模型同时访问 5 个网站,并将网页的数据存储到不同的文件中 import requests import concurrent.futures as cfs urls = ['http://www.baidu.com', 'https://www.taobao.com', 'https://www.jd.com', 'https://www.tmall.com', 'https://cn.bing.com'] def get_pages(url, timeout): response = requests.get(url=url, timeout=timeout) if response.status_code == 200: return response.text else: return None with cfs.ThreadPoolExecutor(max_workers=5) as exe: futures_dict = {exe.submit(get_pages, url, 10): url for url in urls} for future in cfs.as_completed(futures_dict): url = futures_dict[future] try: data = future.result() except Exception: print(f'{url}数据存储出现异常:{Exception}') else: file_path = './' + url.split('/')[-1] + '.html' with open(file_path, 'w') as f: f.write(data) print(f'{url}存储数据{len(data)}字节')
2023-08-29
Cy23
借鉴学习了下其他同学的,自己写了下, from concurrent.futures import ThreadPoolExecutor, as_completed import urllib.request URLS = [ 'https://time.geekbang.org', 'https://www.taobao.com/', 'https://www.jd.com', 'https://leetcode.cn', 'https://www.zhihu.com' ] def load_url(url, timeout): with urllib.request.urlopen(url, timeout=timeout) as conn: return conn.read() with ThreadPoolExecutor(max_workers=5) as executor: future_to_url = {executor.submit(load_url, url, 60): url for url in URLS} for i,future in enumerate(as_completed(future_to_url)): url = future_to_url[future] try: data = future.result().decode('utf-8') except Exception as exc: print('%r generated an exception: %s' % (url, exc)) else: with open(f'./84/{i+1}.txt', 'a', encoding='utf-8') as f: f.write(data) print('%r page is saved' % (url))
2023-01-29
PatrickL
import urllib import concurrent from lxml import etree import os URLS = ['https://time.geekbang.org', 'https://www.csdn.net/', 'https://www.jd.com', 'https://leetcode.cn', 'https://www.zhihu.com'] def load_url(url, timeout): with urllib.request.urlopen(url, timeout=timeout) as conn: return conn.read() with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor: future_to_url = {executor.submit(load_url, url, 60): url for url in URLS} for i,future in enumerate(concurrent.futures.as_completed(future_to_url)): url = future_to_url[future] try: data = future.result().decode('utf-8') except Exception as exc: print(f'{url} generated an exception:{exc}') else: rst = etree.HTML(data).xpath('//head/title/text()')[0] print(f'The title of {url} page is "{rst}".') with open(f'{i+1}.txt', 'w') as f: f.write(rst) # os.remove(f'{i+1}.txt')
2023-01-11
收起评论