2020/10/11周报

  1. 对 miniimageNet 进行了训练,在普通的 4 层 CNN 以 5-ways 5-shot 的数据进行训练,得到的结果如下:
    2020/10/11周报
    准确率大致停留在 60% 左右。
  2. 完成了ISIC的数据处理部分代码的编写
  3. 对元学习的两个较为经典的算法 MAML 和 reptile 进行了学习.
    a. MAML 主要是在忽略二阶偏微分,以一阶微分来计算初始的模型参数。MAML和 pre-training 是不同的。MAML 更加在意的总损失最小,即其他任务到达较好的representation所迭代的次数较少。而 pre-training 需要的直接是 representation 较好。
    b. reptile 算法:MAML算法的内循环只迭代一次就计算损失,而reptile相当于在 MAML的基础上,使内循环多迭代了几次。
    c. ARUBA 为迭代时的内循环和外循环定义了学习率的变化策略。
  4. 任务的确定,到底以那些数据为输入,哪些数据为输出?