当前在线人数13450
首页 - 分类讨论区 - 电脑网络 - 葵花宝典版 -阅读文章
未名交友
[更多]
[更多]
文章阅读:Re: CIFAR10和卷积
[同主题阅读] [版面: 葵花宝典] [作者:wdong] , 2019年07月12日00:43:06
wdong
进入未名形象秀
我的博客
[上篇] [下篇] [同主题上篇] [同主题下篇]

发信人: wdong (万事休), 信区: Programming
标  题: Re: CIFAR10和卷积
发信站: BBS 未名空间站 (Fri Jul 12 00:59:08 2019, 美东)

卷积目前看来就是最接近图像本质的一种操作。
不需要训练这个需要存疑,毕竟按目前的科技发展水平,CIFAR10做到接近90%是
很基础的事情。70%-90%的区别还是相当大的。

卷积本质上其实是用暴力扫描的方式进行模式匹配。不光是图像。
训练其实本质上是一种聚类,找出模式的过程。找出来的模式确实是
domain specific knowledge。

适用范围是:
1. 模式(channel个数)种类比较少。几十上百个。
多层神经网络对应的是复杂模式的分解。

2. 具有扫描结构。比如图片音频字符串这些,扫到任何位置,
任何模式都有可能出出现, 同一个模式会反复在不同位置出现。
这样本质上每个位置都可以认为是一个训练样本。


我前阵子有个项目试图把卷积网络推广到网络结构,效果就不好。
网络上其实是有自然的 neighborhood定义的,并且套上
ontology,还可以搞出来层次结构。问题就出现在“同一模式
会反复在不同位置出现”。 我搞的那个gene ontology,每个
位置都是特殊的,没有“同一模式会反复在不同位置出现”这个
特点。最后分数没能超过xgboost,很可惜。







【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
: 我发明了个算法。没有参数,不做预处理。CIFAR10 40%准确率。模型大概是20张图大
: 小的size。
: 我现在感觉没有卷积。准确率无法超过50%。但是有了卷积,不需要训练,手工当滤波
: 器设计,据报道也可以到70%。所以卷积其实是imagine的domain specific
knowledge
: 。不知到这个看法对不对。



--

※ 修改:·wdong 于 Jul 12 01:02:54 2019 修改本文·[FROM: 108.]
※ 来源:·BBS 未名空间站 网址:mitbbs.com 移动:在应用商店搜索未名空间·[FROM: 108.]



[上篇] [下篇] [同主题上篇] [同主题下篇]
[转寄] [转贴] [回信给作者] [修改文章] [删除文章] [同主题阅读] [从此处展开] [返回版面] [快速返回] [收藏] [举报]
 
回复文章
标题:
内 容:


未名交友
将您的链接放在这儿

友情链接


 

Site Map - Contact Us - Terms and Conditions - Privacy Policy

版权所有,未名空间(mitbbs.com),since 1996