caffe SigmoidLayer 学习

2023-11-17

SimgoidLayer 的定义

neuron_layer.h

template <typename Dtype>
class SigmoidLayer : public NeuronLayer<Dtype> {
 public:
  explicit SigmoidLayer(const LayerParameter& param)
      : NeuronLayer<Dtype>(param) {}
  virtual inline const char* type() const { return "Sigmoid"; }
 protected://正向传播和反向传播
  virtual void Forward_cpu(const vector<Blob<Dtype>*>& bottom,
      const vector<Blob<Dtype>*>& top);
  virtual void Forward_gpu(const vector<Blob<Dtype>*>& bottom,
      const vector<Blob<Dtype>*>& top);
  virtual void Backward_cpu(const vector<Blob<Dtype>*>& top,
      const vector<bool>& propagate_down, const vector<Blob<Dtype>*>& bottom);
  virtual void Backward_gpu(const vector<Blob<Dtype>*>& top,
      const vector<bool>& propagate_down, const vector<Blob<Dtype>*>& bottom);
};

sigmoid_layer.cpp

template <typename Dtype>
inline Dtype sigmoid(Dtype x) {//内联函数,在程序编译时,编译器将程序中出现的内联函数的调用表达式用内联函数的函数体来进行替代。
  return 1. / (1. + exp(-x));
}
template <typename Dtype>
void SigmoidLayer<Dtype>::Forward_cpu(const vector<Blob<Dtype>*>& bottom,
    const vector<Blob<Dtype>*>& top) {
  const Dtype* bottom_data = bottom[0]->cpu_data();
  Dtype* top_data = top[0]->mutable_cpu_data();
  const int count = bottom[0]->count();
  for (int i = 0; i < count; ++i) {
    top_data[i] = sigmoid(bottom_data[i]);
  }
}
template <typename Dtype>
void SigmoidLayer<Dtype>::Backward_cpu(const vector<Blob<Dtype>*>& top,
    const vector<bool>& propagate_down,
    const vector<Blob<Dtype>*>& bottom) {
  if (propagate_down[0]) {//propagate_down[0]不为0就进行反向传播
    const Dtype* top_data = top[0]->cpu_data();
    const Dtype* top_diff = top[0]->cpu_diff();
    Dtype* bottom_diff = bottom[0]->mutable_cpu_diff();
    const int count = bottom[0]->count();
    for (int i = 0; i < count; ++i) {
      const Dtype sigmoid_x = top_data[i];
      bottom_diff[i] = top_diff[i] * sigmoid_x * (1. - sigmoid_x);
    }
  }

sigmoid_layer.cu

template <typename Dtype>
__global__ void SigmoidForward(const int n, const Dtype* in, Dtype* out) {
/*#define CUDA_KERNEL_LOOP(i, n) \
  for (int i = blockIdx.x * blockDim.x + threadIdx.x; \
       i < (n); \
       i += blockDim.x * gridDim.x)
*///下面这段的含义是进行一列一列的处理。
  CUDA_KERNEL_LOOP(index, n) {
    out[index] = 1. / (1. + exp(-in[index]));
  }
}

template <typename Dtype>
void SigmoidLayer<Dtype>::Forward_gpu(const vector<Blob<Dtype>*>& bottom,
    const vector<Blob<Dtype>*>& top) {
  const Dtype* bottom_data = bottom[0]->gpu_data();
  Dtype* top_data = top[0]->mutable_gpu_data();
  const int count = bottom[0]->count();
  // NOLINT_NEXT_LINE(whitespace/operators)
  SigmoidForward<Dtype><<<CAFFE_GET_BLOCKS(count), CAFFE_CUDA_NUM_THREADS>>>(
      count, bottom_data, top_data);
  CUDA_POST_KERNEL_CHECK;//判断返回是否争取
  //#define CUDA_POST_KERNEL_CHECK CUDA_CHECK(cudaPeekAtLastError())
  /*
  #define CUDA_CHECK(condition) \
  /* Code block avoids redefinition of cudaError_t error */ \
  do { \
    cudaError_t error = condition; \
    CHECK_EQ(error, cudaSuccess) << " " << cudaGetErrorString(error); \
    //这个是判断是否等于cudaSuccess,如果成功,返回的是cudaSuccess,失败的话打印出来错误的编号。
  } while (0)
  */
  // << " count: " << count << " bottom_data: "
  //     << (unsigned long)bottom_data
  //     << " top_data: " << (unsigned long)top_data
  //     << " blocks: " << CAFFE_GET_BLOCKS(count)
  //     << " threads: " << CAFFE_CUDA_NUM_THREADS;
}

template <typename Dtype>
__global__ void SigmoidBackward(const int n, const Dtype* in_diff,
    const Dtype* out_data, Dtype* out_diff) {
  CUDA_KERNEL_LOOP(index, n) {
    const Dtype sigmoid_x = out_data[index];
    out_diff[index] = in_diff[index] * sigmoid_x * (1 - sigmoid_x);
  }
}

template <typename Dtype>
void SigmoidLayer<Dtype>::Backward_gpu(const vector<Blob<Dtype>*>& top,
    const vector<bool>& propagate_down,
    const vector<Blob<Dtype>*>& bottom) {
  if (propagate_down[0]) {
    const Dtype* top_data = top[0]->gpu_data();
    const Dtype* top_diff = top[0]->gpu_diff();
    Dtype* bottom_diff = bottom[0]->mutable_gpu_diff();
    const int count = bottom[0]->count();
    // NOLINT_NEXT_LINE(whitespace/operators)
    /*CAFFE_CUDA_NUM_THREADS 的定义
    #if __CUDA_ARCH__ >= 200
        const int CAFFE_CUDA_NUM_THREADS = 1024;
    #else
        const int CAFFE_CUDA_NUM_THREADS = 512;
    #endif
    inline int CAFFE_GET_BLOCKS(const int N) {//使用好简洁啊,grid是一维度的。block也是一维的。
      return (N + CAFFE_CUDA_NUM_THREADS - 1) / CAFFE_CUDA_NUM_THREADS;
    }
    */
    SigmoidBackward<Dtype><<<CAFFE_GET_BLOCKS(count), CAFFE_CUDA_NUM_THREADS>>>(
        count, top_diff, top_data, bottom_diff);
    CUDA_POST_KERNEL_CHECK;
  }
}
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

caffe SigmoidLayer 学习 的相关文章

随机推荐

  • Jmeter录制脚本 模拟用户登录操作

    使用Jmeter测试web应用时 通常有两种测试计划 面向请求数的测试 面向场景的测试 模拟用户操作属于面向场景的测试 准备工作 1 1 建立线程组和HTTP请求 在测试计划中新建线程组 线程组中添加一个HTTP请求 并配置 1 2 录制控
  • 最小生成树总结1 prim算法

    最小生成树总结1 prim算法 最小生成树总结2 kurskal算法 文章目录 1 最小生成树问题概述 2 Prim算法流程 3 模板 4 板子题 1 最小生成树问题概述 给定带权节点网络 从中确定一个包含所有节点 n个 n 1条边 所有节
  • 机器学习到底是什么?

    关于机器学习最简单的定义来自于Berkeley所表述的 机器学习是AI的一个分支 它探索了让计算机根据经验提高效率的方法 为了更深刻的理解这一定义 接下来我们将对其进行拆分分析 AI的分支 人工智能是一种能够使得计算机及其系统能够成功完成通
  • MATLAB实现将数据写入到txt文件以及从txt文件中读取数据

    1 将数据写入到txt文件 global n global xm global ym xm 100 ym 100 global A global B n 10 A zeros 1 n B zeros 1 n for i 1 n A 1 i
  • 【Scala】scala ':' or newline expected \u200b

    1 背景 拷贝了网上一段代码 发现报错如下 这个是因为不可见字符 引起的 全局替换一下就好了 参考 IDEA IDEA报错 illegal character U 00A0异常解决
  • C++与C#类型转换例子

    C 部分类型定义 typedef struct SID AND ATTRIBUTES HASH DWORD SidCount PSID AND ATTRIBUTES SidAttr SID HASH ENTRY Hash SID HASH
  • Window11安装Docker Desktop(构建软链接解决Docker自动安装在C盘占用内存问题)

    一 查看电脑是否开启虚拟化 二 配置 Hyper V 三 构建软连接 使Dockor可以不安装在C盘 四 下载安装Dockor 五 配置环境 一 查看电脑是否开启虚拟化 打开设备管理器 gt 性能 gt CPU 查看是否开启虚拟化 若以开启
  • python中def main是什么意思_python - 为什么要使用def main()?

    其他人已经回答了 但我想我还有其他的东西需要补充 main 语句调用if的原因 无特定顺序 其他语言 如C和Java 具有main 函数 该函数在执行程序时调用 使用这个if 我们可以让Python像他们一样 这对许多人来说更为熟悉 代码将
  • python题库刷题网站_python在线刷题网站

    moduleinfo card count count phone 1 count 1 search count count phone 4 count 4 card des 阿里技术人对外发布原创技术内容的最大平台 社区覆盖了云计算 大数
  • java snack_Java 中 Snack3的使用

    网上看了一篇Java 中 Gson的使用 所以也跟着写篇Java 中 Snack3的使用 JSON 是一种文本形式的数据交换格式 从Ajax的时候开始流行 它比XML更轻量 比二进制容易阅读和编写 解析和生成的方式很多 Java中最常用的类
  • DHCP 服务器部署

    DHCP gt Dynamic Host Configuration Protocol 动态主机配置协议 背景 任何一个需要上网的设备 都必须得有IP地址 子网掩码 网关 等等网络参数 比如 手机 电脑 智能手表 智能眼镜 一个设备获取IP
  • 【深入理解C++】拷贝构造函数

    文章目录 1 拷贝构造函数 2 默认的拷贝操作 3 默认拷贝构造函数 4 何时调用拷贝构造函数 1 拷贝构造函数 拷贝构造函数是构造函数的一种 当利用已存在的对象创建一个新对象时 就会调用新对象的拷贝构造函数进行初始化 拷贝构造函数的格式是
  • linux的mmc子系统与块设备关联

    1 前言 本文主要block组件的主要流程 在介绍的过程中 将详细说明和block相关的流程 涉及到其它组件的详细流程再在相关文章中说明 2 主要数据结构和API 2 1 struct mmc card Elemete Name struc
  • Python打包系统简单入门

    最近把pyenv pipenv这种都研究了一下 然后我发现一个严重的问题 就是我虽然看了半天这些工具 但是我对Python自己的打包系统却完全没有了解 所以这篇文章就来研究一下Python自带的打包系统 pip 先来详细介绍一下pip的用法
  • IOS_swift_函数用法

    1 多个返回值 func x x Int y Int gt Int Int let a x y let b x y return a b let a b x 10 y 3 print a a let val x 10 y 3 print v
  • 【STM32】STM32F103基于CubeIDE移植ThreadX

    前言 本来ThreadX全家桶是无缝接入STM32单片机的 但是今天突然发现ST官方没有X CUBE AZRTOS F1这个软件包 使用CubeMX添加工程组件的时候 也没有ThreadX可以选择 因此就有了此文 Keil环境下的移植可以参
  • ad pcb界面变成灰色无法编辑

    在pcb库中编译后有一个error 点之后就无法编辑pcb了 解决方法 右键 gt 过滤器 filter gt 清除过滤器 clear filter
  • 【CVPR2022论文精读DiffFace】DiffFace: Diffusion-based Face Swapping with Facial Guidance

    CVPR2022论文精读DiffFace DiffFace Diffusion based Face Swapping with Facial Guidance 0 前言 Abstract 1 Introduction 2 Related
  • Python数据分析--读取npz文件

    使用pycharm的朋友们 需要在解释器来安装相应库 有想练手的朋友 用百度网盘 链接 https pan baidu com s 1aOTPRsqkgX4isGDhMjLdlQ 提取码 1234 国民生产总值案例 读取npz文件 第一步
  • caffe SigmoidLayer 学习

    SimgoidLayer 的定义 neuron layer h template