元学习是要学会任务中的特征表示,从而在新任务上泛化。元学习主要解决的是学会如何学习的问题。
元学习主要包括:zero-shot/One-shot/Few-shot learning。
元学习的主要方法包括:基于memory,基于预测梯度,利用attention注意力机制,借鉴LSTM,面向RL的meta learning方法,利用WaveNet方法,预测Loss的方法等。
-
基于记忆Memory的方法
基本思路:如果需要通过以往的经验来学习,是不是可以通过在神经网络上添加Memory来实现。
-
基于预测梯度的方法
基本思路:meta Learning的目的是实现快速学习,而快速学习的关键一点是神经网络的梯度下降要准快,那么是不是可以让神经网络利用以往的任务学习如何预测梯度,这样面对新任务,只要梯度预测的准,那么学习的就会更快。
-
利用attention注意力机制的方法
基本思路:人的注意力是可以利用以往的经验来提升的,利用以往的任务来训练一个Attention模型,从而面对新的任务,能够直接关注最重要的部分。
-
借鉴LSTM的方法
基本思路:LSTM内部更新非常类似于梯度下降的更新,那么,能否利用LSTM的结构训练出一个神经网络的更新机制,输入当前网络的参数,直接输出新的更新参数。
值得思考的一个问题:如何把LSTM的更新和梯度下降联系起来
-
面向RL的Meta Learning
基本思路:mete Learning可以用在监督学习上,那么增强学习上怎么做呢?能否通过增加一些外部信息比如reward,action等。
可以额外增加reward和action的输入,从而强制让神经网络学习一些任务级别的信息。
-
通过训练一个好的base mode的方法,并且同时应用到监督学习和强化学习
基本思路:寻找更加通用的方法可以同时应用到监督学习或者强化学习上。
-
利用WaveNet方法
基本思路:WaveNet的网络每次都利用了之前的数据,是否可以照搬WaveNet的方式来实现Meta Learning?学习充分利用以往的数据。
-
预测Loss
基本思路:要让学习的速度更快,除了更好的梯度,如果有更好的Loss,那么学习的速度也会更快,是否可以构造一个模型利用以往的任务来学习如何预测Loss?
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)