回帰ニューラルネットワークモデルから生成する一般的な手法

私は、GANやVAEなど、世代のために設計されたニューラルネットワークを訓練するために使用されています。 私はDeep Dreamのアイデアに従って、回帰モデルによって学習されたターゲット/エネルギーを最小化するデータを生成するための一般的な手法が何であるか疑問に思っています。 私は2つの方法が考えられます: 1)訓練された回帰ニューラルネットワークを、第1ニューラルネットワークによって与えられた所与のエネルギー/ターゲットを生成する構造を生成するように訓練された別のニューラルネットワークの損失関数(勾配を有する)として使用する。 2)標&#x6E9

もっと読む

Pythonでデータサイエンスブックを選ぶ手助けをする

私は数年前からデータサイエンティストを経験してきましたが、最近私はPythonで自分の仕事のほとんどを始めました(少年、 ggplot2 コードが救助に来ている)。 I want to improve my Python skills and, since most of my work is related to developing Data Science & Analytics applications, I’d rather learn from a book about these topics than from a book on, say, Application Server frameworks. Also, since I mostly develop Deep Learning models, I was looking for a PyTorch book. However I could only find two, of which one is really crappy, and the other one is from authors I really respect, but on a topic I don’t work with (NLP): https://www.amazon.com/Natural-Language-Processing-PyTorch-Applications/dp/ 1491978236 だから私は少しの研究をして、次の本を見つけました: Scikit-LearnとTensorFlowを使った実践的な学習:インテリジェントシステムを構築するための概念、ツール、テクニック スクラッチからのデータサイエンス:第一原理とPython Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython(second edition recently came out) Python&#x

もっと読む

CNNの移転学習の実証済みの欠点はありますか?

私が特定の問題にResNet-101アーキテクチャーを使用したいと思っているとします。 ImageNetで訓練されたReseNet-101モデルがあります。 これらの事前トレーニングされたモデルを使用し、特定のクラス数に一致するように最後の(少数の)レイヤーをリセットするだけの欠点はありますか? ちょうどあなたの腸の感覚を投稿しないでください…私も腸の感情を持っていますが、私は知りたいです。 ベストアンサー ImageNet だけでなく、自分の経験に基づいて、十分なデータがある場合は、ネットワークを最初から訓練する方がよいでしょう。理由を説明できる理由はたくさんあります。 まず、こ&#x306

もっと読む

最適化問題としてニューラルネットのトレーニング?

次のトピックに関する参考文献を見つけるのを手伝ってください。 現在、ニューラルネットのトレーニングのセットアップが成功したのは、多くのパラメータを持つwoodooのようです。トレーニングデータの量と品質、ネットのサイズと構成など。 結果は、例えば、主に高精度であり、誤検出率が低い。 一連の実験を通して多くのデータポイントを生成する研究があるので、最適化の問題を解決できますか?それともGPUが足りないのですか? (あなたに標準的な代表データコーパスがあり、問題は十分に一般的です) ベストアンサー 申し訳ありませんが、適切な答えはありま&#

もっと読む

k個の頂点の最大連結部分グラフを求める高速アルゴリズム

k個の頂点の最大連結部分グラフを求める高速アルゴリズム ベストアンサー これはセルフ・プラグですが、高密度サブグラフ問題に適用される疎グラフの固定カーディナリティー最適化のためのアルゴリズムフレームワーク私たちは、あなたが記述したもののような問題を厳密に考慮します。アルゴリズムの実行時間は$ T(n、k)$ cdot( Delta-k) k)$は、目的関数$ f $を評価するのに必要な時間である。ここで、$ Delta $は入力グラフの最大次数です。このアルゴリズムは、次数$ k $の連結部分グラフの列挙に基づいている。グラフは、そのような誘起された部分グラフを$ Omega($ cdot( Delta-1)^ k cdot n/k)$する&#x

もっと読む

別の平面セパレータの質問

別の平面セパレータの質問 ベストアンサー ここにはよく知られているハンマーを使った証拠があります。 $ G $が接続されているwlogを仮定しましょう。したがって、$ t + 1 $ edgesを加えたスパニングツリーです。明らかに、$ G $のどのサイクルにも、スパニングツリーの一部である$ t + 1 $エッジの1つが含まれている必要があります。 私は$ G $の幅が$ O( sqrt {t})$であると主張しています。これは所望の区切り文字を意味します。クレームを証明するために$ k $を$ G $の幅とする。そして、Robertson-Seymour-Thomasの定理によって、$ G $は平面であるので、サイズ$ Omega(k)$のグリッドマイナーがあります。しかし、サイズ$ Omega(k)$の&#x

もっと読む