Deep Belief Networkによって選択された機能の名前を知るにはどうすればよいですか?

DBNを使用して、公称変換後の nslkddデータセットの41個の機能を削減したいデータを数値にすると、フィーチャの数は41から121に増加します。 3つのRBM(121-50-10)を使用しました。これで10個の選択された機能を知りたいと思います。どうすればいい? ベストアンサー 一般に、理論的に入力を再現する10個のフィーチャ、すなわち41個のフィーチャを抽出/作成しています。独自の機能は必ずしも意味をなさないと思われ、(データセットによっては)解釈が難しい場合があります。プリンシパルコンポーネント分析と結果コンポーネントをフィーチャとして比較することができます。 モデルを

もっと読む

ResNet50のレイヤーの種類を媒介する方法

私は最初からResNet50を作り直そうとしていますが、層のマトリックスをどのように解釈するのかはよくわかりません。 例えば: [[1×1,64] [3×3、64] [1×1,4]]×3 畳み込みレイヤーであるはずですが、数字のそれぞれは何を表していますか? ベストアンサー 説明を明確にするために、私は34層の例を使用します: First you have a convolutional layer with 64 filters and kernel size of 7×7 (conv1 in your table) followed by a max pooling layer. Note that the stride is specified to be stride = 2 in both cases. Next, in conv2_x you have the mentioned pooling layer and the following convolution layers. Here the layers are normally grouped in pairs (trios in bigger architectures) because is how the residuals are connected (the arrows jumping each two layers). The first matrix: begin{equation}begin{bmatrix} 3×3, & 64 \ 3×3, & 64 end{bmatrix}*3end{equation} kernel_size = 3×3、num_filters = 64の2つのレイヤーを持ち、これらがx3繰り返されていることを意味します。これらはプール/ 2とフィルタ128との間の層&

もっと読む

SqueezeNetアーキテクチャーディメンションテーブルの深さはどういう意味ですか?

初めてSqueezeNet用紙を読む。私の理解に基づいて、Fireモジュールには、1×1フィルタのスクイーズレイヤと、1×1および3×3フィルタの展開レイヤが含まれています。例えばfire2を取った場合、入力ディメンションは55x55x96であり、16個の1×1フィルタを使用してコンボリューションします。 55 x55x16の出力が返されます。次に、出力を取り出し、64個の1×1フィルタを有するものと64個の3×3フィルタを有するものとの2つの畳み込みを適用する。次に、2つの結果を連結して55x55x128の最終出力を作成します。この場合、2の深さはどういう意味ですか?また、各レイヤーのパラメータ数を計算するには&

もっと読む

ResNet50を再作成する

私はKerasでResNet50を作り直そうとしています。私は、ブロック間に残ったステップを作成するプロセス、またはブロック自体を作成するプロセスさえ理解していません。それは簡単です: CNNを作成する cnnModel = Model() ブロック1 cnnModel.add(Conv2D(kernel_size =(7,7)、input_shape =(256,256,3)、filters = 64、strides = 2)) ブロック2 cnnModel.add(MaxPool2D(pool_size =(3,3)、strides = 2)) ブロック3 cnnModel.add(Conv2D(kernel_size =(3,3)、input_shape =(256,256,3)、filters = 64、)) cnnModel.add(Conv2D(kernel_size =(3,3)、input_shape =(256,256,3)、filters = 64、)) cnnModel.add(Conv2D(kernel_size =(3,3)、input_shape =(256,256,3)、filters = 64、)) cnnModel.add(Conv2D(kernel_size =(3,3)、input_shape =(256,256,3)、filters = 64、)) ブロック4 cnnModel.add(Conv2D(kernel_size =(3,3)、input_shape =(256,256,3)、filters = 64、)) cnnModel.add(Conv2D(kernel_size =(3,3)、input_shape

もっと読む

オートエンコーダはどのように次元を減らすことができますか?

オートエンコーダでは、入力レイヤーからショートコードにデータを圧縮し、そのコードを元のデータに圧縮して縮小がどこにあるかを知ることができるので、次元の削減はどのように達成されるのか理解できません。 putputデータの次元が同じですか? ベストアンサー オートエンコーダーは、エンコーダーとデコーダーの両方のセクションを使用してトレーニングされますが、トレーニング後にはエンコーダーのみが使用され、デコーダーは廃棄されます。 したがって、次元削減を取得するには、エンコーダとデコーダの間のレイヤーを入力の次元よりも小さい次元に設&#x5B9A

もっと読む

多変量時系列異常エントリ検出

I have a multivariate data set of the following structure. 追加の文字列属性列id1とid2を持つログの時系列シーケンスです。あまりにも多くのエントリがid1またはid2のどちらかの値が似ているシーケンスに入っている場合は、それらを異常として分類してフラグを付けたいと思います。私はLSTMを使用しようとしましたが、特に入力として来ることができる値が常に同じではない(1つの時間枠に他の項目より多くの項目があるかもしれない)ときに、テキストデータのためにそれを使う方法が混乱しています。 同様のエントリは、必ずしも一緒になるとは限りませんが、特定の時間枠内で非常に頻繁に表示さ&#x

もっと読む

ネガティブネットワークの入力に新しい属性を追加する

私は少数の学生(38)の連続データを持っています。たとえば、1つの学生連続データは次のようになります。 A B B A C D E . . 各生徒のシーケンスの長さが異なり、使用された文字はこの5文字以内でした。したがって、次の文字/文字を予測するために、私はフィードフォワードニューラルネットワークとリカレントニューラルネットワーク(LSTM)を使用しました。私はこれらのモデルで合理的な精度を得ました。 ここでは、学生の新しい属性を入力に追加したいと考えています。学生は4つの異なる部門からのものであるとします。 私は、特定の部門のホットベクトルを対&

もっと読む

ハイブリッド畳み込みニューラルネットワーク

畳み込みニューラルネットワークは、通常、画像の分類およびセマンティックセグメンテーションに最適な選択肢です。一方、カテゴリー/数値データ(年齢、身長、都市など)は、(深い)ランダムフォレスト、サポートベクターマシン、または従来のニューラルネットワークなどの従来の機械学習モデルによって最もよく処理されます。 画像とカテゴリデータからなるデータセットを分類するための畳み込み型ニューラルネットワークと従来型ニューラルネットワークの両方を組み合わせたハイブリッドアーキテクチャはありますか?この問題はこれま&#x306

もっと読む

WGAN-GPを使用したベクトル算術(グラディエントペナルティを伴うWasserstein GANs)

潜在空間におけるベクトル演算は、Chintalaらによる論文の訓練されたDC-GANから有意義な出力画像サンプルを生成することが実証されている。実際、彼らが記述したベクトル演算は、潜在空間内の個々のベクトルそのものに直接ではなく、出力画像が不安定になることを報告していました。代わりに、彼らはまずメガネ付き男性 – 男性+女性=メガネ付き女性を実証する前に、同じように見える画像あたりの平均ベクトルをとった。しかし、Gulrajaniらによって導入された新しいWasserstein GANsのグラディエントペナルティのこの機能はどれくらい関連していますか?これらはDC-GANの改良版

もっと読む

埋め込み行列への誤差の逆投影

私は、ニューラルネットワークのバックプロパゲーションアルゴリズムと、エラーがどのようにレイヤー内で後方に伝搬するのかを理解しています。すなわち、私は、3層のフィードフォワードネットワークが与えられると、W1を変化させる量は、層2および3の重み、ならびにそれらの活性化関数の導関数に依存することを理解する。 Question: When your first layer is an embedding layer (i.e., consider initializing the embedding matrix with glove), how does the network update that matrix using backpropagation? How do you represent that layer as an equation consisting of the input and some weight matrix? ベストアンサー 埋め込み層は、実際には線形層である。この関数は、乗算後のアクティベーション関数を使用せずに、行列乗算を使用して入力を出力にマップしま&#x3059

もっと読む