Toni
2023-05-12
来自瑞士
今天的第27课是徐文浩老师的 "AI 大模型之美"系列讲座的收官之作,感觉来得很突然,都因心中还有期待。徐老师用短短的27讲,通过精心的安排,将 AI世界的各个触角展现在我们眼前,直接上手的实例体验更有拨云见日之功效。当我们亲手推开那一扇扇大门时,神秘变成自然。 Embedding 是一条线,它将大数据,多模态,深度学习,神经网络,机器学习,大语言模型都串了起来; 随之而来的各类算法,分类,递归,决策,都在忙着处理这些 Embedding,"跳出来"的情感分析,广告推送,"智能"聊天就是再自然不过的事了。 老师在"上手课"之后的第二节就引出了 OpenAI 的 Embedding,寥寥几行代码,其在零启动情感分析上的威力就显露无疑。 Embedding 将"万事万物"映射到高维空间,维数的增加标志着对事物描述得更细,但带来的是对算力需求的急剧增加,处理过程变慢。再经过多层迭代,反馈激励,最后连 AI 自己都说不清是怎么 Embedding的了。 既然是 Embedding, AI 就不可能做到尽善尽美,理解。人也无完人,更不要说一个"失败的触痛"极有可能成为另一个成功的"触发器"。 感谢徐文浩老师的这门课,给出了很多实例,包括对开源库的介绍,及相关重要论文的索引,同时还引发了更多的思考,再次感谢。
展开
作者回复: 感谢支持!
17
Toni
2023-05-12
来自瑞士
当ChatGPT4 还在玩waitlist, 新的挑战者已横空出世(https://www.anthropic.com/index/100k-context-windows)。 Claude-100k 以一次性读取10万个token,将GPT4甩开3倍有余。这意味着什么呢? 在第六课时我们学的聊天机器人,为了让它记住之前聊的问题,要将以前的聊天内容当作下一轮对话的prompt,再喂给OpenAI,但很快prompt 中的 token 数就超过了最高限制,我们只能裁去之前的内容,或小结,以满足token 数限制的要求,一般几轮对话下来聊天机器人就忘了之前的内容了,这就是应用中的痛点。第七节给文章做总结,第十六节用Langchain 给AI上手段使其"记忆力"变长,到第十九节用Whisper 语音转文字,将大段的录音裁成几段才能处理,都是那个痛点: token 数限制。 Claude-100k 一次性读取10万个token,意味着聊天机器人通天聊几天的内容都记得,7,8万字的书一次性提取中心思想,6小时的音频文件无须裁成数个小文件了。 "好事者"已经在用 Claude-100k 分析拆解 ChatGPT4,看看它到底是个什么"鬼",因为 ChatGPT4 也无法了解其自身。 我们在见证历史。
展开
作者回复: 👍
8
zhihai.tu
2023-05-14
来自上海
谢谢徐老师,墨问西东集训班再见。
作者回复: 到时候见!
风的叹息
2023-05-12
来自广东
确实很棒的课程,意犹未尽啊,老师后续可否对关键的某些技术节点可以加更一二,期待解读
作者回复: 要看时间安排,如果抽得出空的确想要再补充一些新内容。
Santiago
2023-05-13
来自山西
感谢老师的课程,极大的拓宽了我的知识面,也对AIGC有了一个很好的认识与理解,再次感谢徐老师!
2
JonSlow
2023-05-12
来自北京
微软这几天刚发布的 bing.com/create,体验也挺不错,推荐各位同学上手试试
1
Geek_f92fa7
2023-08-15
来自新加坡
搭建数据飞轮这里,个人部署模型后,也可以收集使用日志数据,来获取优质图片数据来迭代模型呀。
胡萝卜
2023-05-18
来自上海
qq频道接入了midjourney
共 1 条评论
芋头
2023-05-18
来自广东
课程学完了,感谢徐老师带我进入AI这扇神秘的大门,感谢老师为我解惑
昱宇
2023-05-15
来自江苏
非常感谢徐文浩老师带我们进入了AIGC的大门!受益良多!