その他の統一された範囲

理論的な機械学習では、VCディメンション(VCD)とRademacher平均(RA)は、頻繁に使用される2つの均一な境界であり、Chernoff
boundやHoeffdingなどの境界よりも優れたサンプルの複雑さを提供します。

VCDやRA以外のタイトな他の統一境界はありますか?

ベストアンサー

私が解決しようとする質問には混乱があります。まず、「Chernoff boundやHoeffding
boundのような境界よりもサンプルの複雑さを増やす」ことはしません。これらの集中結果は、VCとRademacher境界で暗黙的または明示的に呼び出されます(分散情報を考慮する必要がある場合を除き、Bernstein
[高速レート]を参照してください)。 OPの範囲を超えて)。

次に、「均一な境界」という用語を明確にしましょう。 Uniform
は、通常、指定された関数クラスを意味しますが、ディストリビューションを指定する必要もあります:固定ですか?ユニバーサル境界のために、VCは厳密な上限と下限を提供するので、本質的に全話を伝えます。ここで改善することは何もありません。
(私は敷物の下にいくつかの微妙な部分を掃除しています;この質問を参照してください:
VCディメンションの範囲を学習する適切なPAC
。)

さて、普遍的ではなく固定分布について話しましょう。カバーナンバーは全体の話を伝え、Rademacherの複雑さの上限と下限も提供します。これはかなり関連性の高い質問です。

無神論者の設定を超えたRademacherの複雑さ

返信を残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です