| @@ -0,0 +1,123 @@ | |||
| input: "data" | |||
| input_dim: 1 | |||
| input_dim: 1 | |||
| input_dim: 30 | |||
| input_dim: 14 | |||
| layer { | |||
| name: "conv2d_1" | |||
| type: "Convolution" | |||
| bottom: "data" | |||
| top: "conv2d_1" | |||
| convolution_param { | |||
| num_output: 32 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "activation_1" | |||
| type: "ReLU" | |||
| bottom: "conv2d_1" | |||
| top: "activation_1" | |||
| } | |||
| layer { | |||
| name: "max_pooling2d_1" | |||
| type: "Pooling" | |||
| bottom: "activation_1" | |||
| top: "max_pooling2d_1" | |||
| pooling_param { | |||
| pool: MAX | |||
| kernel_size: 2 | |||
| stride: 2 | |||
| pad: 0 | |||
| } | |||
| } | |||
| layer { | |||
| name: "conv2d_2" | |||
| type: "Convolution" | |||
| bottom: "max_pooling2d_1" | |||
| top: "conv2d_2" | |||
| convolution_param { | |||
| num_output: 64 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "activation_2" | |||
| type: "ReLU" | |||
| bottom: "conv2d_2" | |||
| top: "activation_2" | |||
| } | |||
| layer { | |||
| name: "max_pooling2d_2" | |||
| type: "Pooling" | |||
| bottom: "activation_2" | |||
| top: "max_pooling2d_2" | |||
| pooling_param { | |||
| pool: MAX | |||
| kernel_size: 2 | |||
| stride: 2 | |||
| pad: 0 | |||
| } | |||
| } | |||
| layer { | |||
| name: "conv2d_3" | |||
| type: "Convolution" | |||
| bottom: "max_pooling2d_2" | |||
| top: "conv2d_3" | |||
| convolution_param { | |||
| num_output: 128 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 2 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "activation_3" | |||
| type: "ReLU" | |||
| bottom: "conv2d_3" | |||
| top: "activation_3" | |||
| } | |||
| layer { | |||
| name: "flatten_1" | |||
| type: "Flatten" | |||
| bottom: "activation_3" | |||
| top: "flatten_1" | |||
| } | |||
| layer { | |||
| name: "dense_1" | |||
| type: "InnerProduct" | |||
| bottom: "flatten_1" | |||
| top: "dense_1" | |||
| inner_product_param { | |||
| num_output: 256 | |||
| } | |||
| } | |||
| layer { | |||
| name: "relu2" | |||
| type: "ReLU" | |||
| bottom: "dense_1" | |||
| top: "relu2" | |||
| } | |||
| layer { | |||
| name: "dense2" | |||
| type: "InnerProduct" | |||
| bottom: "relu2" | |||
| top: "dense2" | |||
| inner_product_param { | |||
| num_output: 65 | |||
| } | |||
| } | |||
| layer { | |||
| name: "prob" | |||
| type: "Softmax" | |||
| bottom: "dense2" | |||
| top: "prob" | |||
| } | |||
| @@ -0,0 +1,95 @@ | |||
| input: "data" | |||
| input_dim: 1 | |||
| input_dim: 3 | |||
| input_dim: 16 | |||
| input_dim: 66 | |||
| layer { | |||
| name: "conv1" | |||
| type: "Convolution" | |||
| bottom: "data" | |||
| top: "conv1" | |||
| convolution_param { | |||
| num_output: 10 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "relu1" | |||
| type: "ReLU" | |||
| bottom: "conv1" | |||
| top: "conv1" | |||
| } | |||
| layer { | |||
| name: "max_pooling2d_3" | |||
| type: "Pooling" | |||
| bottom: "conv1" | |||
| top: "max_pooling2d_3" | |||
| pooling_param { | |||
| pool: MAX | |||
| kernel_size: 2 | |||
| stride: 2 | |||
| pad: 0 | |||
| } | |||
| } | |||
| layer { | |||
| name: "conv2" | |||
| type: "Convolution" | |||
| bottom: "max_pooling2d_3" | |||
| top: "conv2" | |||
| convolution_param { | |||
| num_output: 16 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "relu2" | |||
| type: "ReLU" | |||
| bottom: "conv2" | |||
| top: "conv2" | |||
| } | |||
| layer { | |||
| name: "conv3" | |||
| type: "Convolution" | |||
| bottom: "conv2" | |||
| top: "conv3" | |||
| convolution_param { | |||
| num_output: 32 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "relu3" | |||
| type: "ReLU" | |||
| bottom: "conv3" | |||
| top: "conv3" | |||
| } | |||
| layer { | |||
| name: "flatten_2" | |||
| type: "Flatten" | |||
| bottom: "conv3" | |||
| top: "flatten_2" | |||
| } | |||
| layer { | |||
| name: "dense" | |||
| type: "InnerProduct" | |||
| bottom: "flatten_2" | |||
| top: "dense" | |||
| inner_product_param { | |||
| num_output: 2 | |||
| } | |||
| } | |||
| layer { | |||
| name: "relu4" | |||
| type: "ReLU" | |||
| bottom: "dense" | |||
| top: "dense" | |||
| } | |||
| @@ -0,0 +1,114 @@ | |||
| input: "data" | |||
| input_dim: 1 | |||
| input_dim: 1 | |||
| input_dim: 22 | |||
| input_dim: 22 | |||
| layer { | |||
| name: "conv2d_12" | |||
| type: "Convolution" | |||
| bottom: "data" | |||
| top: "conv2d_12" | |||
| convolution_param { | |||
| num_output: 16 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "activation_18" | |||
| type: "ReLU" | |||
| bottom: "conv2d_12" | |||
| top: "activation_18" | |||
| } | |||
| layer { | |||
| name: "max_pooling2d_10" | |||
| type: "Pooling" | |||
| bottom: "activation_18" | |||
| top: "max_pooling2d_10" | |||
| pooling_param { | |||
| pool: MAX | |||
| kernel_size: 2 | |||
| stride: 2 | |||
| pad: 0 | |||
| } | |||
| } | |||
| layer { | |||
| name: "conv2d_13" | |||
| type: "Convolution" | |||
| bottom: "max_pooling2d_10" | |||
| top: "conv2d_13" | |||
| convolution_param { | |||
| num_output: 16 | |||
| bias_term: true | |||
| pad: 0 | |||
| kernel_size: 3 | |||
| stride: 1 | |||
| } | |||
| } | |||
| layer { | |||
| name: "activation_19" | |||
| type: "ReLU" | |||
| bottom: "conv2d_13" | |||
| top: "activation_19" | |||
| } | |||
| layer { | |||
| name: "max_pooling2d_11" | |||
| type: "Pooling" | |||
| bottom: "activation_19" | |||
| top: "max_pooling2d_11" | |||
| pooling_param { | |||
| pool: MAX | |||
| kernel_size: 2 | |||
| stride: 2 | |||
| pad: 0 | |||
| } | |||
| } | |||
| layer { | |||
| name: "flatten_6" | |||
| type: "Flatten" | |||
| bottom: "max_pooling2d_11" | |||
| top: "flatten_6" | |||
| } | |||
| layer { | |||
| name: "dense_9" | |||
| type: "InnerProduct" | |||
| bottom: "flatten_6" | |||
| top: "dense_9" | |||
| inner_product_param { | |||
| num_output: 256 | |||
| } | |||
| } | |||
| layer { | |||
| name: "dropout_9" | |||
| type: "Dropout" | |||
| bottom: "dense_9" | |||
| top: "dropout_9" | |||
| dropout_param { | |||
| dropout_ratio: 0.5 | |||
| } | |||
| } | |||
| layer { | |||
| name: "activation_20" | |||
| type: "ReLU" | |||
| bottom: "dropout_9" | |||
| top: "activation_20" | |||
| } | |||
| layer { | |||
| name: "dense_10" | |||
| type: "InnerProduct" | |||
| bottom: "activation_20" | |||
| top: "dense_10" | |||
| inner_product_param { | |||
| num_output: 3 | |||
| } | |||
| } | |||
| layer { | |||
| name: "prob" | |||
| type: "Softmax" | |||
| bottom: "dense_10" | |||
| top: "prob" | |||
| } | |||