行业新闻

iphone视奸我的内衣照?!这太吓人了!

发布时间:2017-11-03 浏览次数: 分享网址

Iphone视奸我的内衣照!自从美国妹子ellieeewbu通过Twitter发布这条消息,妹子们瞬间炸裂!Ellieeewbu称在iphone自带的“照片”应用中搜“brassiere”(各位小仙女也可以尝试搜索中文‘内衣’,如果你有的话),结果惊呆了,因为手机将所有的内衣照都收集了起来!

姐妹们你们猜怎么着!在苹果相册里搜一下“Brassiere”!你们说苹果为什么要把这些存成一个文件夹!!?!!?苹果想对我们做什么!!(双手捂胸)
就是!可怕!
Twitter上的女性用户们搜了搜自己的相册,开始了后续的连环炸裂……不出一天,上边这条“可怕!”的推文就被转发了上万次,收获了2万多个赞,以及近千条评论。
在这场连环炸裂中,评论区损毁严重,比如说,有一群搜完发图惊呼“WTF”的:

 

 

 

 

 

 

宅男家中坐,艳福天上来。有些小姐姐身材真是极好的,比如下面这位——

还有的明显受到了惊吓,虽然能保持文明用语,表示无论如何也想不明白“天啊苹果怎么知道”的:

当然,也少不了各种乱入,从大家发在评论中的图片来看,很多吊带裙、晚礼服都被认成了内衣。看来苹果识别技术堪比直男,露得稍微多一点就是“你咋穿着内衣就上街了”。还有更惨的,比如这个少年的脸,苹果的算法也觉得和内衣很相似:

 

苹果甚至还把两条腿,给认成了热狗(小编不禁想起金锣香肠,小时候总觉得跟手指很像):

在一众惊慌失措的妹子中,终于有人站出来摆事实、讲道理,展示“苹果真的不是只关心你们的内衣照”。她对妹子们说:你也可以搜“dog”啊,你所有狗狗的照片就都出来了,拿好不谢。

 小编看到这里也拿起手机,在自带相册中输入“猫”,果然我的“猫片”也被苹果捕捉了。

总的来说,不要慌不要炸,苹果并不是一个只对你内衣照有兴趣的变态。系统自带的“照片”应用能搜出来的物品,从内衣、烤肉、猫猫狗狗,到天空海滩,范围广得很。
而且苹果对内衣的识别,也没有大家想象得那么危险,这个我们后面再说。
 
在谈图像识别之前,我们先思考一个有趣的问题:苹果自带的“照片”应用,从什么时候开始有这个功能的,你还记得吗?从iPhone 8开始?从iOS 11开始?
认为上边两项是正确答案的,都不是合格的果粉。小编就不这样认为,因为小编拿的还是6s……
大家来温习一下历史。这项功能,在苹果公司2016年6月的WWDC上首次展示出来,是“照片”应用在iOS 10和macOS Sierra中获得的重大更新,借助人工智能技术,引入了对人脸、物体和场景的识别。
人脸识别带来的新功能,是“人物”相册。苹果会自动按照照片中的不同人物,分成不同相册,用户还可以为每个相册添加名字,便于查找。亲测识别得还是相当准确的,就是把远景中不同的人识别出来后,脸会有点拉大。

而对物体和场景的识别,带来的是“强大的搜索”。比如说一张有山有水有人有马的照片,以后就可以根据其中的场景(山、河)和物体(人、马)搜索出来。

另外,新版的照片还增加了按地点来检索照片的功能。
 
温馨的“回忆功能”
这三者结合起来,就有了新“照片”应用中的“回忆”功能。苹果会根据照片的拍摄时间地点、其中的人、物体和场景,将它们以“回忆”的形式组织起来,还附赠苹果帮你配了背景音乐的视频,比如说某次全家出门旅行的照片,就会被自动放在同一个“回忆”中。
同年10月,iOS 10更新推送,大部分苹果用户就都用上了新版的“照片”。广大用户用着用着,感觉眼前一亮的大概是新增的“回忆”功能,其次是“人物”和“地点”相册。
 
而需要用户主动发起交互的“强大的搜索”(即上文的内衣事件),就渐渐被淡忘了,大多数用户“从来没用过”,甚至有不少人从来都不知道它的存在。
温习完毕,我们再来谈一谈苹果“照片”里的物体和场景识别。
iOS 10刚刚发布时,有网友根据macOS Sierra照片应用中的代码统计得出,这一版照片应用可以识别7种面部表情,包括贪婪、厌恶,中性,尖叫,微笑,惊讶和怀疑,而能够识别的物体和场景,有3787种,支持中文的有3696种。
而现在,据说“照片”应用能识别的物体和场景已经有4000多种,其中甚至能看到不少中国用户并不熟悉的的名字,比如地中海雪貂、中东蔬菜球、伽蓝鸟等充满异域风情的名词,甚至还有“介质”这种抽象的东西。
 
为什么现在才发现图片识别的功能
图像识别这个功能之所以没有受到太多关注,除了需要主动搜索之外,大概也因为它并没有什么新鲜感。
这两年,从机场火车站,到手机上的支付宝、甚至你还没收到货的iPhone X,“刷脸”已经变成了一件司空见惯的事。识别除了人脸之外那些普通的物体、场景的功能,也渐渐普及起来。
“照片”应用里识别物体和场景的基本原理,就是大家已经渐渐熟悉的图像分类。
 
苹果是怎么做到的
苹果的图像分类算法有一点特别之处:他们的图像识别模型在手机上运行,而不是云端的服务器。在一张照片被识别的过程中,它不需要经历“传送到服务器→识别,打上类别标签→传送回来”这个过程,一切都在手机本地完成。
这也就是为什么说苹果识别内衣这件事,“没有大家想象得那么危险”,起码比将这些照片同步到iCloud要安全多了。
在移动设备本地运行图像识别模型这件事,苹果算是业内较早提出的。现在,让深度学习模型能在移动设备本地运行,也成了一股潮流。【注:深度学习是机器学习大家族的一员,与任务指向性的算法不同,深度学习主要学习数据的表示(分布)。】
 
iPhone上的人脸识别比Google Pixel上快6倍
早在今年4、5月份,Facebook和Google就抢在苹果之前,分别发布了适用于移动端的深度学习框架Caffe2和TensorFlow Lite。
而苹果为了让iOS生态中的App的开发者,也具备把图像分类模型压缩到能直接在iPhone上运行的能力,也在2017年6月的WWDC上推出了CoreML。
苹果说,用了Core ML,iPhone上的人脸识别比Google Pixel上快6倍。
 
这下大家可以彻底安心了,平常拍照、保存照片?开心就好。

打印保存责任编辑:本站编辑 发表评论>>
上一篇文章: 下一篇文章: