最终排名 85/1159
网址:https://zte.hina.com/zte/denoise
![在这里插入图片描述](https://img-blog.csdnimg.cn/8644ab73d5a24c8b9e0967fcb084a71a.png)
无缘复赛,太菜了,不好意思说自己学去噪的了,代码会开源,但是感觉没什么人看吧
尝试过的模型
- DnCNN:很差,0分
- UNet:很蓝,0分
- DAN:严重丢失细节,9分
- PMRID:48分
- FFDNet:只能做灰度图像
- SwinIR:输入图像太大了,爆显存
- DPIR:使用UNetRes+baseline达到20.97分
- baseline+baseline:38.42分
- HINet:很差
- Uformer:只能处理宽高一样的图片
- SRMNet:可以训练,好像很差?
- COLA-Net:爆显存
- DAGL:爆显存
- SADNet:CUDA报错了
- HWMNet:小波变换维度报错
- SCUNet:爆显存
- NBNet:报错
- DPHSIR:很差
- AODN:很差
- FAN:只适合rgb
- HDRUNet:报错
- AirNet:多个输入,无法用
- 旷视第一名:meg,没法用
- 旷视第二名:torch,很差
- 旷视第三名:meg,没法用
- 旷视第七名:meg,没法用
- 旷视第九名:meg,没法用
- 旷视第十名:torch,很差,验证报错
- DGUNet:爆显存
- MIRNet:使用warmup学习率,50.77分
- MIRNetv2:很差
- Restormer:使用warmup学习率,48.28分,很低
- NAFNet:很差
效果比较好的模型
- CycleISP:改进网络(不需要Variance),验证集53.87(e=160),测试集51.46分,使用warmup学习率验证集最高55.71
- MPRNet:使用warmup学习率,尝试加大网络结构(验证集57.01(e=473),测试集55.41分)
网络改进
- 尝试切块训练和数据增强:尝试分块训练MPRNet,训练比较久,很差
- 数据增强:很差
- 换了L1损失:没有改进
Attention Mechanisms in Computer Vision: A Survey
https://arxiv.org/abs/2111.07624
通道:
Squeeze-and excitation networks
MPRNet用了:Image Super-Resolution Using Very Deep Residual Channel Attention Networks
Ecanet: Efficient channel attention for deep convolutional neural networks
Context encoding for semantic segmentation
Global secondorder pooling convolutional networks
Srm : A style-based recalibration module for convolutional neural networks
Gated channel transformation for visual recognition
Fcanet: Frequency channel attention networks
Spatio-temporal channel correlation networks for action classification
You look twice: Gaternet for dynamic filter selection in cnns
Spsequencenet: Semantic segmentation network on 4d point clouds
空间:
70篇非常多
通道-空间:
19篇非常多,列举重要的
CBAM: convolutional block attention module,训练太慢了,停止
Dual attention network for scene segmentation,爆显存
SCA-CNN: spatial and channel-wise attention in convolutional networks for image captioning
Bam: Bottleneck attention module,很多错误
Simam: A simple, parameter-free attention module for convolutional neural networks
Coordinate attention for efficientmobile network design,可以训练,很差
SA-Net: Shuffle Attention for Deep Convolutional Neural Networks,可以训练,很差
MIRNet中的DAU,可以训练,很差
后续提升
损失函数:L2+L1+FFT(尝试中),MSSSIM,NAFNet中的PSNRloss
去模糊的网络:DeepRFT(signal number 32报错),mimonet
加入跳跃连接
NAFNet改参数([4,8] 8 [4,8]随机切图旋转)
unet+mixup
GAN的使用
学习大佬开源代码
第17名:https://github.com/Fivethousand5k/ZTE_RawDenoise
第58名:https://blog.csdn.net/weixin_44875593/article/details/124909747
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)