免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1411 | 回复: 0
打印 上一主题 下一主题

学习笔记TF013:卷积、跨度、边界填充、卷积核 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2017-05-23 07:32 |只看该作者 |倒序浏览

卷积运算,两个输入张量(输入数据和卷积核)进行卷积,输出代表来自每个输入的信息张量。tf.nn.conv2d完成卷积运算。卷积核(kernel),权值、滤波器、卷积矩阵或模版,filter。权值训练习得。卷积核(filter参数)权值数量决定需要学习卷积核数量。通道,计算机器视觉,描述输出向量。RGB图像,3个代表秩1张量[red,green,blue]通道。输出与input_batch同秩张量,与卷积核维数相同。两个张量卷积生成特征图(feature map)。特征图为输出添加新层代表张量卷积。访问输入批数据和特征图元素用相同索引,可了解输入与kernel卷积运算值变化。层,输出新维度。

计算机视觉卷积价值,修改卷积核strides(跨度)参数实现输入降维。strides参数使卷积核无需遍历每个输入元素,跳过部分图像像素。kernel在input_batch滑动,跨过部分元素,每次移动以input_batch一个元素为中心。位置重叠值相乘,乘积相加,得卷积结果。逐点相乘,整合两个输入。设置跨度,调整输入张量维数。降维减少运算量,避免重叠感受域。strides参数格式与输入向量相同(image_batch_size_stride、image_height_stride、image_width_stride、image_channels_stride)。

边界填充,卷积核与图像尺寸不匹配,填充图像缺失区域。TensorFlow用0填充。padding参数控制conv2d零填充数或错误状态。SAME:卷积输出输入尺寸相同,不考虑滤波器尺寸,缺失像素填充0,卷积核扫像素数大于图像实际像素数。VALID:考虑滤波器尺寸。尽量不越过图像边界,也可能边界被填充。

data_format修改数据格式。NHWC指定输入输出数据格式,[batch_size(批数据张量数)、in_height(批数据张量高度)、in_width(批数据张量宽度)、in_channels(批数据张量通道数)]。NCHW指定输入输出数据格式,[batch_size、in_channels、in_height、in_width]。

TensorFlow滤波器参数指定输入卷积运算卷积核。滤波器使用特定模式突出图像中感兴趣特征。图像与边缘检测卷积核的卷积输出是所有检测边缘区域。tf.minimum和tf.nn.relu使卷积值保持在RGB颜色值合法范围[0,255]内。卷积核初值随机设定,训练迭代,值由CNN学习层自动调整,训练一迭代,接收图像,与卷积核卷积,预测结果与图像真实标签是否一致,调整卷积核。


  1.     import tensorflow as tf
  2.     input_batch = tf.constant([
  3.             [#第1个输入
  4.                 [[0.0],[1.0]],
  5.                 [[2.0],[3.0]]
  6.             ],
  7.             [#第2个输入
  8.                 [[2.0],[4.0]],
  9.                 [[6.0],[8.0]]
  10.             ]
  11.         ])
  12.     print input_batch
  13.     kernel = tf.constant([
  14.             [
  15.                 [[1.0, 2.0]]
  16.             ]
  17.         ])
  18.     print kernel
  19.     conv2d = tf.nn.conv2d(input_batch, kernel, strides=[1, 1, 1, 1], padding='SAME')#conv2d卷积运算
  20.     print conv2d
  21.     sess = tf.Session()
  22.     print sess.run(conv2d)
  23.     lower_right_image_pixel = sess.run(input_batch)[0][1][1]
  24.     lower_right_kernel_pixel = sess.run(conv2d)[0][1][1]
  25.     print lower_right_image_pixel, lower_right_kernel_pixel
  26.     input_batch2 = tf.constant([
  27.             [#第1个输入(6x6x1)
  28.                 [[0.0],[1.0],[2.0],[3.0],[4.0],[5.0]],
  29.                 [[0.1],[1.1],[2.1],[3.1],[4.1],[5.1]],
  30.                 [[0.2],[1.2],[2.2],[3.2],[4.2],[5.2]],
  31.                 [[0.3],[1.3],[2.3],[3.3],[4.3],[5.3]],
  32.                 [[0.4],[1.4],[2.4],[3.4],[4.4],[5.4]],
  33.                 [[0.5],[1.5],[2.5],[3.5],[4.5],[5.5]]
  34.             ]
  35.         ])
  36.     print input_batch2
  37.     kernel2 = tf.constant([#卷积核(3x3x1)
  38.             [[[0.0]], [[0.5]], [[0.0]]],
  39.             [[[0.0]], [[1.0]], [[0.0]]],
  40.             [[[0.0]], [[0.5]], [[0.0]]]
  41.         ])
  42.     print kernel2
  43.     conv2d2 = tf.nn.conv2d(input_batch2, kernel2, strides=[1, 3, 3, 1], padding='SAME')
  44.     print conv2d2
  45.     print sess.run(conv2d2)
  46.     lower_right_image_pixel2 = sess.run(input_batch2)[0][1][1]
  47.     lower_right_kernel_pixel2 = sess.run(conv2d2)[0][1][1]
  48.     print lower_right_image_pixel2, lower_right_kernel_pixel2
  49.     input_batch3 = tf.constant([
  50.             [#第1个输入(6x6x1)
  51.                 [[0.0,1.0,2.0],[1.0,2.0,3.0]],
  52.                 [[0.1,1.1,2.1],[1.1,2.1,3.1]],
  53.                 [[0.2,1.2,2.2],[1.2,2.2,3.2]],
  54.                 [[0.3,1.3,2.3],[1.3,2.3,3.3]],
  55.                 [[0.4,1.4,2.4],[1.4,2.4,3.4]],
  56.                 [[0.5,1.5,2.5],[1.5,2.5,3.5]]
  57.             ]
  58.         ])
  59.     print input_batch3
  60.     kernel3 = tf.constant([
  61.             [
  62.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  63.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  64.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]]
  65.             ],
  66.             [
  67.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  68.                 [[8., 0., 0.],[0., 8., 0.],[0., 0., 8.]],
  69.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]]
  70.             ],
  71.             [
  72.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  73.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  74.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]]
  75.             ]
  76.         ])
  77.     print kernel3
  78.     conv2d3 = tf.nn.conv2d(input_batch3, kernel3, strides=[1, 1, 1, 1], padding='SAME')
  79.     print conv2d3
  80.     activation_map3 = sess.run(tf.minimum(tf.nn.relu(conv2d3), 255))
  81.     print activation_map3
  82.     lower_right_image_pixel3 = sess.run(input_batch3)[0][1][1]
  83.     lower_right_kernel_pixel3 = sess.run(conv2d3)[0][1][1]
  84.     print lower_right_image_pixel3, lower_right_kernel_pixel3
  85.     kernel4 = tf.constant([
  86.             [
  87.                 [[0., 0., 0.],[0., 0., 0.],[0., 0., 0.]],
  88.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  89.                 [[0., 0., 0.],[0., 0., 0.],[0., 0., 0.]]
  90.             ],
  91.             [
  92.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  93.                 [[5., 0., 0.],[0., 5., 0.],[0., 0., 5.]],
  94.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]]
  95.             ],
  96.             [
  97.                 [[0., 0., 0.],[0., 0., 0.],[0., 0., 0.]],
  98.                 [[-1., 0., 0.],[0., -1., 0.],[0., 0., -1.]],
  99.                 [[0., 0., 0.],[0., 0., 0.],[0., 0., 0.]]
  100.             ]
  101.         ])
  102.     print kernel4
  103.     conv2d4 = tf.nn.conv2d(input_batch3, kernel4, strides=[1, 1, 1, 1], padding='SAME')
  104.     print conv2d4
  105.     activation_map4 = sess.run(tf.minimum(tf.nn.relu(conv2d4), 255))
  106.     print activation_map4
  107.     lower_right_image_pixel4 = sess.run(input_batch3)[0][1][1]
  108.     lower_right_kernel_pixel4 = sess.run(conv2d4)[0][1][1]
  109.     print lower_right_image_pixel4, lower_right_kernel_pixel4
复制代码




参考资料:
《面向机器智能的TensorFlow实践》

欢迎加我微信交流:qingxingfengzi
我的微信公众号:qingxingfengzigz
我老婆张幸清的微信公众号:qingqingfeifangz

您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP