• 黑翼天佑
    2017-12-15
    可以通过选择不同的阈值来画出roc曲线,然后计算auc来评价

    作者回复: 这是一个比较好的方法。

    
     2
  • xinfeng1i
    2019-05-08
    依次查看top1,top3,top5等不同提取数量的精度和召回,可以估计排序的好坏。
    
     1
  • 牧云
    2019-03-16
    通过用户对搜索结果的选择,选择与不选择,构建二分,来判断排序的好坏
    
    
  • 幻大米
    2018-12-24
    「如果我们返回所有的文档,“精度”和“召回”都将成为 1」精度不是 1 吧?
    
    
  • 无
    2018-03-03
    您好!请问如果正负样本比差别很大,比如1/1000的情况下,上述这些指标以及AUC是否就不准导致无法作为参考了?如果这样,应该如何应对正负样本比悬殊时模型评估的问题呢? 谢谢!
    
    
  • 老敖
    2017-12-04
    在计算召回或者精确率的时候,不是只计算文档个数,而是把它变成一个浮点数,把排序的相关性也考虑进去。就是相关性大的,查出来一篇顶两篇。是这样吗?

    作者回复: 计算AUC是一种思路。

    
    
我们在线,来聊聊吧