登录
注册
回到首页
AI
搜索
发现报告
发现数据
发现专题
研选报告
定制报告
VIP
权益
发现大使
发现一下
行业研究
公司研究
宏观策略
财报
招股书
会议纪要
稀土
低空经济
DeepSeek
AIGC
智能驾驶
大模型
当前位置:首页
/
行业研究
/
报告详情
6-5 基于图的视觉分类模型的可解释性
文化传媒
2022-07-18
DataFunSummit2022:图机器学习峰会
E***
AI智能总结
查看更多
Motivation
基于卷积神经网络(ResNet)的图像分类方法虽然能够有效捕获图像像素的相关性和抽象概念,但存在难以捕捉成对关系、全局上下文和属性特征的缺点。
图神经网络(GNNs)
GNNs(如GCN、GAT、门控GCN、MoNet、样条CNN等)通过图结构表示图像,能够更好地捕捉图像中的成对关系和全局上下文。
研究表明,GNNs在图像分类任务中表现出色,例如Monti等人(2017)提出的混合模型CNNS,以及Knyazev等人(2019)提出的分层多图网络。
图胶囊网络(GCNs)
图胶囊网络通过动态路由机制,能够生成更鲁棒的图像表示,并在物体识别任务中展现出可解释性。
顾金东(2021)提出的GraCapsNet在MNIST和CIFAR10数据集上实现了高效的图像分类,并通过图注意力机制增强了模型的解释性。
基于图形的视觉变换器(ViTs)
视觉变换器(ViT)将图像隐式地表示为图,通过自注意力机制捕捉图像中的长距离依赖关系。
Dosovitskiy等人(2021)提出的DeiT模型在图像分类任务中表现出优异的性能,但对自然损坏的补丁更稳健,而对对抗性补丁更脆弱。
比较ViT和ResNet的梯度可视化发现,DeiT上的对抗性补丁吸引了更多注意力,而ResNet上的对抗性补丁几乎没有。
结论
GNNs在图像分类任务中虽然性能未达预期,但能够提供解释性。
最先进的视觉模型将图像隐式地表示为图,解释可以从图表示的角度创建。
在特征空间而非输入空间建模视觉概念是有效的,解释可以在特征空间中创建。
你可能感兴趣
6-2 基于分解的图神经网络可解释性
医药生物
DataFunSummit2022:图机器学习峰会
2022-07-18
1 - 2 图学习中的公平性与可解释性
文化传媒
DataFunSummit2022:图机器学习峰会
2022-07-18
迈向深度基础模型:基于视觉的深度估计最新趋势
信息技术
浙江大学&深圳大学&上海AI实验室
2025-07-15
第九届挑战赛C3-基于LDA主题模型和LightGBM分类模型的在线旅游评论挖掘及分析
数睿思
2021-07-28
3-4 基于事件图结构的文本-视觉理解
信息技术
DataFunSummit2022:图机器学习峰会
2022-07-18