ios – 如何使用Open CV检测打呵欠

前端之家收集整理的这篇文章主要介绍了ios – 如何使用Open CV检测打呵欠前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在开发iOS应用程序,需要检测用户何时打呵欠.

我所做的是包括打开简历,并使用哈尔级联找到面孔,然后在脸部(也使用哈拉斯卡德)中找到嘴.

我所遇到的麻烦是,我相信发现打哈欠,就像做一些像(face.y – mouth.y) something =打呵欠

但是我所面对的问题是,面部和口腔的表情是“不可用的”,我的意思是每次循环运行时,脸和嘴的X和Y值都是(obwiusly)不一样.

有没有任何可以使用的“开口”哈尔级联,或者我怎么知道用户何时打开嘴巴?

解决方法

作为一般来说,支持向量机(SVM)用于诸如愤怒,微笑,惊喜等的面部表情识别,其中仍然有活跃的发展.谷歌给你很多关于这个话题的文章(甚至我的同学之一做了他的最后一年的项目).为此,起初你需要训练SVM,并且要做到这一点,你需要打呵欠和正常面孔的样本图像.

打呵欠几乎类似于惊喜,两个案件都是开口的.我建议您查看以下纸张的第3页:Real Time Facial Expression Recognition in Video
using Support Vector Machines
(如果您无法访问链接,以纸张名称为谷歌)

这篇论文(甚至我的同学)使用面部特征的位移矢量.为此,您可以在脸上找到一些特征点.例如,在本文中,他们使用眼睛瞳孔,极点点,鼻尖,口碑区域(嘴唇)等等,然后连续跟踪特征的位置,并找出它们之间的欧几里德距离.它们用于训练SVM.

看下面两篇论文:

Feature Points Extraction from Faces

Fully Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers

在下面的图像下面我的意思是特征点在脸上:

在你的情况下,我认为你是在iPhone中实时实现的.所以可能你可以避免在眼睛的特征点(虽然不是一个好主意,因为当你打呵欠,眼睛变小了).但与此相比,嘴唇上的特征点显示出更多的变化和主导性.所以,单独实施唇部可以节省时间. (嗯,这一切都取决于你).

唇部分割:已经在SOF中讨论过,并检查出这个问题:OpenCV Lip Segmentation

最后,我相信你可以找到很多关于谷歌搜索的细节,因为它是一个活跃的开发区域,很多论文都在那里.

另一选择:

这个地区的另一个选择,我听过几次,是活跃的外观模型.但我不知道什么. Google自己

猜你在找的iOS相关文章