グラフの希薄化と固有空間のグラフ化

私は現在、希薄化剤の固有空間と元の行列との関係についていくつかの主張をすることができるかどうかを理解しようとしています。このコンテキストでは、最初にいくつかのエンティティを定義しましょう。 Definition 1: Partial Ordering Among Matrices: We say that two commuting matrix $mathbf A,mathbf B$ have a partial ordering $mathbf A preceq mathbf B$ if the matrix $mathbf B – mathbf A$ is positive semidefinite, i.e. $vec x^T (mathbf B – mathbf A) vec x geq 0 $ for all non-zero $vec x$. Now with this definition we can define an $epsilon$-approximation of the graph to be $(1- epsilon) mathbf B preceq mathbf A preceq (1+epsilon) mathbf B$, i.e. $mathbf B$ is an $epsilon$-approximation of $mathbf A$ (definitions vary here slightly). SpielmanとPengは、グラフをスペクトル的にスパースするための最初のアルゴリズムを有名にした。すなわち、グラフは$ G =(V、E)$で与えられ、アルゴリズムは$ H $を$ ε$スペクトル近似とするグラフ$ H $を返す。 $

もっと読む

疎な場合の$ {0、 pm1 } $行列の複雑さ

もし$ O(n)$が非ゼロのエントリーしか持たず、ハダマードの$ M odot M $が対称である行列であれば、$ { 1,0、 1 } ^ {n times n} $ O(n)$ビット複雑さで$ Det(M)$を計算できますか? 行列は$ 1、-1 $の場所があるリスト形式で与えられているので、プレゼンテーションは$ O(n)$のサイズしかないとします。 ベストアンサー 行列の乗算の指数についてどのように感じるかによって、$ omega = 2 $と非常に近くなります。 あなたの質問に対する答えが肯定的であれば、任意の対称$ n times n $ $ {{1,1}}行列$ M $(=無向グラフの隣接行列、おそらく自己-loops)を$ O(n ^ 2)$ timeで実行します。行列の乗法と行列式の代数的複雑さは本質的に同じであるた&#x3

もっと読む

非常に大きなスパース行列を縮小する方法

Let $A$ be a matrix where $A in mathbb{F}^{n^s times n^s}$ and $s>2$. Assume $A$ is a sparse matrix where its rank $leq n$ and that there is only constant number of non-zero elements in each row. The positions of the non-zero elements are predefined. 私の質問:どのようにして、各値が元の行列から計算された等しいランクでサイズ$ n times nの行列を満たすことができますか?その建物の複雑さは$ O(n ^ 2)$でしょうか? (ランダム化されたアルゴリズムも考えられます) ベストアンサー 申し訳ありませんが、適切な答えはありません

もっと読む

スパースコーディングとマッチングの追求アルゴリズム

実際に効率的に動作する既知のスパースコーディングアルゴリズムには収束プルーフがなく、現在のディクショナリでマッチング/サブスペース追求アルゴリズムの中間ステップを常に使用するのは本当ですか?そして、中間の辞書の圧縮された感知問題を解決するために追跡アルゴリズム中間体を使用するこのステップは、分析的に扱いにくい難しい部分である。 または、マッチング追跡アルゴリズムまたはスパースコーディングのいずれかで知られている硬度結果がありますか? arXiv:1206.5882(フルランク辞書)、arXiv:1309.1952、arXiv:1310.7991、arXiv:1503.00778、arXiv:1407.1543のような校正&#x30B

もっと読む

圧縮センシングとスパース表現との間の接続

私が正しく理解していれば、 Sparse Representation のアプリケーションとしての Compressed Sensing は次のように定義されています: 巨大な入力信号に対する線形圧縮方式を見つける   疎な表現を有することが知られているので、入力信号は   圧縮から効率的に回復する(「スケッチ」)(ref:   質問) だから私の理解に基づいて、圧縮センシングは、アナログ – デジタルデータ変換前のプリコーディングのようなものです。 そして、疎な表現に私の取る: 信号は、基底関数の集合を線形結合として表現することができ、基底関数の集合は辞書と呼ばれ、データ標本はそれらの特徴&#x308

もっと読む

過完した辞書のよく知られたインスタンス

sparse representation is: A signal can be represented as a linear combination of basis functions where the set of basis functions is called dictionary and data samples are much more than their features. Mathematically, in the system of linear equations $Y=DX$ where $Y in mathbb{R}^{n times N} (n ll N)$ we seek a dictionary that results in sparse representation of $Y$. 疎な表現の歴史を掘り下げてみると、私はそれをすべて Dとして変換を使って始めました。ウェーブレット、フーリエなどです。彼らは彼らが設計されたアプリケーションでは良いものでしたが、より広い領域への一般化は失敗でした。したがって、基底関数の組み合わせは、各基底関数のサイズよりも多くの基底関数を持つ overcomplete 辞書Dとして使用されました。異なる変換とその結果の例はたくさんあります。しかし、 overcomplete 辞書の例は考えられません。それ&#x306

もっと読む