当前播放: 33 | 实战房价预测模型:创建与训练
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
课程目录
第一章:TensorFlow初印象 (8讲)
01 | 课程介绍
免费
02 | 课程内容综述
免费
03 | 第一章内容概述
免费
04 | TensorFlow产生的历史必然性
免费
05 | TensorFlow与Jeff Dean的那些事
免费
06 | TensorFlow的应用场景
免费
07 | TensorFlow的落地应用
08 | TensorFlow的发展现状
第二章:TensorFlow初接触 (5讲)
09 | 第二章内容概述
10 | 搭建你的TensorFlow开发环境
11 | Hello TensorFlow
12 | 在交互环境中使用TensorFlow
13 | 在容器中使用TensorFlow
第三章:TensorFlow基本概念解析 (11讲)
14 | 第三章内容概述
15 | TensorFlow模块与架构介绍
16 | TensorFlow数据流图介绍
17 | 张量(Tensor)是什么(上)
18 | 张量(Tensor)是什么(下)
19 | 变量(Variable)是什么(上)
20 | 变量(Variable)是什么(下)
21 | 操作(Operation)是什么(上)
22 | 操作(Operation)是什么(下)
23 | 会话(Session)是什么
24 | 优化器(Optimizer)是什么
第四章:实战TensorFlow房价预测 (10讲)
25 | 第四章内容概述
26 | 房价预测模型的前置知识
27 | 房价预测模型介绍
28 | 房价预测模型之数据处理
29 | 房价预测模型之创建与训练
30 | TensorBoard可视化工具介绍
31 | 使用TensorBoard可视化数据流图
32 | 实战房价预测模型:数据分析与处理
33 | 实战房价预测模型:创建与训练
34 | 实战房价预测模型:可视化数据流图
第五章:实战TensorFlow手写体数字识别 (9讲)
35 | 第五章内容概述
36 | 手写体数字数据集MNIST介绍(上)
37 | 手写体数字数据集MNIST介绍(下)
38 | MNIST Softmax网络介绍(上)
39 | MNIST Softmax网络介绍(下)
40 | 实战MNIST Softmax网络(上)
41 | 实战MNIST Softmax网络(下)
42 | MNIST CNN网络介绍
43 | 实战MNIST CNN网络
第六章:实战TensorFlow验证码识别 (8讲)
44 | 第六章内容概述
45 | 准备模型开发环境
46 | 生成验证码数据集
47 | 输入与输出数据处理
48 | 模型结构设计
49 | 模型损失函数设计
50 | 模型训练过程分析
51 | 模型部署与效果演示
第七章:实战TensorFlow人脸识别 (9讲)
52 | 第七部分内容介绍
53 | 人脸识别问题概述
54 | 典型人脸相关数据集介绍
55 | 人脸检测算法介绍
56 | 人脸识别算法介绍
57 | 人脸检测工具介绍
58 | 解析FaceNet人脸识别模型
59 | 实战FaceNet人脸识别模型
60 | 测试与可视化分析
番外篇:TensorFlow社区参与指南 (7讲)
61 | 番外篇内容介绍
62 | TensorFlow社区介绍
63 | TensorFlow生态:TFX
64 | TensorFlow生态:Kubeflow
65 | 如何参与TensorFlow社区开源贡献
66 | ML GDE是TensorFlow社区与开发者的桥梁
67 | 课程总结
33 | 实战房价预测模型:创建与训练

33 | 实战房价预测模型:创建与训练

彭靖田
Google Developers Expert,《深入理解TensorFlow》作者
全集8230
新人首单 ¥29.9 原价 ¥129
登录 后留言

精选留言(5)

  • Geek_b75acd
    这里的代码感觉参考性不大了。tf2.0不支持placeholder要重新学习了。

    作者回复: 今年会出2.0课程

    2020-03-22
    1
  • 小颜
    老师你的矩阵相乘然后求均值计算损失值,我感觉可以替换成 tf.reduce_mean(tf.square(y_pred - y))这样会不会更加简洁

    作者回复: 可以的,之前那个是为了贴合公式,便于理解。

    2019-03-08
  • 王健
    那个二分之一 , 到底啥意思啊 . 为什么呢

    作者回复: 跟求导后的系数2相乘后方便计算,同时不影响梯度优化方向。

    2019-03-02
  • 王健
    老师, loss_op那个损失函数 , 没看懂啊, 感觉讲的不是很清楚啊, 不太明白 . 能把具体公式写一下吗
    2019-03-02
  • 老师你好,请问隔一段时间打印损失值和参数那里 loss, w = sess.run([loss_op, W], feed_dict={X: X_data, y: y_data}),这里只是为了打印吗?还是依赖这里持续给loss和参数w刷新赋值呢

    作者回复: 必须要 sess.run 执行后才有新的值

    2019-02-06
收起评论
看过的人还看
数据结构与算法之美

王争  前Google工程师

80讲 | 86458 人已学习

新人首单 ¥29.9 原价 ¥129
趣谈网络协议

刘超  网易研究院云计算技术部首席架构师

51讲 | 45030 人已学习

新人首单 ¥19.9 原价 ¥99
机器学习40讲

王天一  工学博士,副教授

46讲 | 9192 人已学习

新人首单 ¥9.9 原价 ¥68
左耳听风

陈皓  网名“左耳朵耗子”,资深技术专家,骨灰级程序员

109讲 | 45759 人已学习

新人首单 ¥69.9 原价 ¥299