2012年6月27日,星期三

等级+ IR

门农等等在有论文 ICML 2012用排名损失预测准确的概率。基本思想是针对排名损失(例如AUC)训练分类器,然后使用 等渗回归 校准分类器。与使用 适当的计分规则 (例如,逻辑回归),此过程会非参数地探索链接函数的空间,并声称这会带来更好的结果。请注意,从模型复杂性的角度来看,非参数地探索链接函数的空间在直觉上是``安全的'',因为这是一维过程,对基础分类器输出的分数进行运算。

事实证明,我们在eHarmony意外地支持了这一点。当我加入生产系统时,顺序交付了比赛,所以我们从排名损失开始。后来,生产系统转而使用线性程序进行比赛,最简单的方法是在训练流水线的末尾添加校准步骤,然后使用线性插值进行等渗回归。我们想改用具有正确评分规则的直接训练进行分类,但是我们开始 对负数进行二次采样 因此我们需要继续校准分类器,因此从未发生过。我们一直都在怀疑自己是``不连贯的''。嘿,幸运总比好要好。现在,如果我发现自己将来处于类似情况,那么我将能够阐明该方法的基本原理。

这里的元课程是,如果您是一名应用机器学习的从业人员,并且看到上面写有Charles Elkan的名字的论文,则应该阅读。我还没有失望。

没意见:

发表评论