当前播放: 万物皆可“Embedding”,NLP到底应该怎么做?(下)
00:00 / 00:00
    1.0x
    • 2.0x
    • 1.5x
    • 1.25x
    • 1.0x
    • 0.5x
    网页全屏
    全屏
    00:00
    付费课程,可试看

    万物皆可“Embedding”,NLP到底应该怎么做?(下)

    廖益玄 vivo AI NLP组技术负责
    15次播放
    ¥4.9 购买
    开通VIP
    讲师介绍:廖益玄,vivoAINLP组技术负责人、AI算法专家。负责vivo内容理解平台的算法研发工作,并主导实现了公司内的NLP技术框架VNF。资深IT人,AI技术发烧友,撸过代码,做过架构,写过算法,早年曾作为技术合伙人开发了国内第一款中文语音助手智能360。问题背景:做NLP的同学想必都知道,从2013年Word2vec词向量提出开始,深度学习的方法逐渐“占领”了NLP领域各个应用场景,比如用于文本分类的TextCNN,用于序列标注的RNN等等。而在2018年大规模预训练模型Elmo、BERT发布之后,NLP领域又开始了新一轮的“革命”。在这个万物皆可“Embedding”的年代,NLP应该怎么来做呢?跟之前传统机器学习方法又有何异同呢?内容看点:1.Networkweights计算词向量时,和Word2vec的不同2.文本表征模型的变化,从Transformer到BERT3.预训练时代下NLP开发的新范式
    展开
    登录 后留言

    精选留言

    由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
    收起评论
    我的每日一课VIP
    每日一课VIP
    0.1元 畅看850+技术视频
    开通
    相关推荐
    906
    53:03
    文本智能处理的深度学习技术
    陈运文 达观数据CEO
    试看
    474
    44:03
    讯飞AI广告平台机器学习算法演进之路
    吕昕 科大讯飞大数据研究院算法部负责人
    试看
    552
    52:37
    让商业没有语言障碍:深度学习在阿里机器翻译的应用
    施杨斌 阿里巴巴高级技术专家
    试看
    759
    50:26
    深度学习在推荐系统的进展及在微博的应用
    张俊林 新浪微博AI Lab 资深算法专家
    试看