博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
WideBaselineFeatureMatcher一些细节
阅读量:2050 次
发布时间:2019-04-28

本文共 823 字,大约阅读时间需要 2 分钟。

WideBaselineFeatureMatcher

[1] CODE: Coherence Based Decision Boundaries for Feature Correspondence, IEEE TPAMI,2016, Lin et. al.

[2] RepMatch: Robust Feature Matching and Pose for Reconstructing Modern Cities, ECCV, 2016,, Lin et. al.

刚开始以为是高斯混合回归:

Feature Guided Biased Gaussian Mixture Model for image matching

 

这是期望最大化(EM)算法的实现,用于使用Python 3中的高斯混合模型(GMM)进行聚类

后来发现不是。。。。

 

回归的最大似然估计

Generalized Huber Regression

用于机器学习的高斯过程库

 

 

是线性回归+Huber loss + 谱聚类的那种高斯相似矩阵

具体如下:

Huber loss

鲁棒学习:L1约束的Huber损失最小化

 Huber损失最小化学习和高斯核模型 的Huber损失最小化,竞赛用到过,效果不错

Matlab代码:

Huber Loss

线性拟合——从最大似然估计到平方误差到huber loss

谱聚类(spectral clustering)原理总结

第三种定义:

项目笔记(四) 实验——通过对midi自相似矩阵的高斯核对角卷积分割乐段

聚类 -- 数据挖掘

MSE, MAE, Huber loss详解

决策树(十)--GBDT及OpenCV源码分析

统计中,Huber损失函数的参数是怎么确定的?

Likelihood Regression

Affine motion regression -> x
Affine motion regression -> y

 

转载地址:http://aegof.baihongyu.com/

你可能感兴趣的文章
Leetcode C++ 《第203场周赛》
查看>>
云原生 第十三章 Kubernetes网络概念及策略控制
查看>>
《redis设计与实现》 第一部分:数据结构与对象 || 读书笔记
查看>>
《redis设计与实现》 第二部分(第9-11章):单机数据库的实现
查看>>
算法工程师 面经2019年5月
查看>>
搜索架构师 一面面经2019年6月
查看>>
稻草人手记
查看>>
第一次kaggle比赛 回顾篇
查看>>
leetcode 50. Pow(x, n)
查看>>
leetcode 130. Surrounded Regions
查看>>
【托业】【全真题库】TEST2-语法题
查看>>
博客文格式优化
查看>>
【托业】【新托业全真模拟】疑难语法题知识点总结(01~05)
查看>>
【SQL】group by 和order by 的区别。
查看>>
【F12】谷歌浏览器--前台效果可以在不访问服务器的前提下直接改样式看效果是否是预期值。...
查看>>
【Python】详解Python多线程Selenium跨浏览器测试
查看>>
Jmeter之参数化
查看>>
Shell 和Python的区别。
查看>>
Python 列表(list)、字典(dict)、字符串(string)常用基本操作小结
查看>>
Loadrunner之https协议录制回放报错如何解决?(九)
查看>>