プロコン
コーディングイディオム
非厳密アルゴリズム
アルゴリズムの構築法

概要

  • アルゴリズムよく知らない人間の「一から自分で作ります!」ってメッチャ嫌な予感しません?
  • ランダムにアルゴリズムを立てない。「この条件での答えがわかっているとする」のようなスタートの仕方をする。

参考

目次

勉強すべきこと

  • 重要度順

重要

  • LPとして見るとポテンシャルは双対変数で、グラフアルゴリズムとして見ると負辺を消すために導入する量ですね(直感的にはポテンシャルの値は原点からの最短路長で、この時辺のコストは「最短路よりどれくらい無駄か」みたいなものを表します)
    • 何故か最大流アルゴリズムで、負のコストがあるのにダイクストラを使って良い理由
  • オフラインクエリに関するDecomposable searching problem
  • lowlink
  • 第2回ドワンゴからの挑戦状「花火」に対するシンプルな解法と最小費用流の双対 - とこはるのまとめ
  • LCAの高速化
    • オイラーとO(1)RMQが良かったって、かみぺーぱー先生が言っていた。
  • Kahn's Algorithm (square君が天下一Aで出たと言っていた)
  • Cartesian Tree
  • monge
  • ウェーブレット木
    • 動的ウェーブレット木
    • 永続ウェーブレット木
    • 動的永続ウェーブレット木
    • ウェーブレット行列
  • Blackbox Algebra
  • Link-Cut Tree(木で最強)
  • インタバル木
    • 二次元平面の範囲点クエリ?
  • マージ可能ヒープ
    • skew, 乱択、フィボナッチ、Pairingソートなど
  • 分割統治法,逐次構成法,
  • 平面走査法
  • Gray Code
  • 「パターンlの1文字目からマッチさせる場合は(自由度と引き換えに)スコアが増加する」DPの自由度とスコアの関係について
  • cyclic shift
  • Dominator tree
  • dsu on tree
  • 演算に結合性があるかの判定(決定論でO(N^2 log N) ランダムでO(N^2)でいける)
  • Zobrist hash
  • 最小包含円
  • palindromic tree(eertree)
  • オートマトンDP。桁DPの一般化。かなり強そう

そこそこ

どうでもいい

  • ADS
  • Treap, RBST(k-th tree), 平衡二分木
  • デク・優先度付キュー
  • ボロノイ図とデローネイ三角形分割
  • 美術館問題
  • Stern-Brocot木
  • ベルヌーイ数列挙 O(n^2)
  • 分割数 O(n√n)
  • スターリング数 O(n^2)
  • Chordal graph
  • 点と直線の双対
  • Stoer-Wagner
  • 永持-茨木法 (全点対最小カット)
  • Bairstow法
  • スターンブロコット木
  • 有向木の部分木のハッシュ
  • Knuth-Morris-Pratt
  • CIPR (最長共通部分列)
  • 部分回文列挙
  • Skip List
  • Van Emde Boas tree (vEB tree)
  • Fixed Universe Structures
  • 永続的平衡2分探索木
  • BK-tree
  • Meldable heap
  • 削除・更新のできる2分ヒープ
  • Double-ended priority queue
  • キュー with minimum
  • Shunting-yard algorithm
  • 平面グラフ 双対なものが構成できる。
  • 木について
(1) 頂点uの値をxに変える
(2) 頂点u, vを結ぶ最短パスの頂点のうち、最小値を答える
というクエリを、O(log n)で処理できないという結論に至った。(今の僕には)
  • Shunting-yard algorithm
  • top tree
    • LC木に加えて、直径とかが取れる

PolyominoEnumeration?

ADS

フロンティア

  • フロンティア法の長い解説
  • BDD
  • ROBDD
    • Create Reduced Ordered Binary Decision Diagram (ROBDD)
    • 変数に全順序関係が定義されている&限界まで簡約化されている
    • BDDというとROBDDを指すことも。
    • 構築は二つのルールを適用し続ければROBDDになる。冗長な接点を全て削除。等価な接点を全て共有。
    • BDD 同士の演算 (Family Algebra) and, or, xor, not, ... みたいな色々な BDD 同士の演算ができる,便利
  • 組合せ集合(集合族)を表現する ZDD(Zero-Suppressed BDD)
    • 「計算爆発お姉さん」の問題が、O(nB)(n: fのビット数、B: BDDの頂点数)
    • お姉さん本
    • 集合族を表現するZDD
    • BDDと違うのは、頂点削除のルールのみ
      • BDDは「ここが0でも1でも結果が変わらない→頂点削除」
      • ZDDは「ここが1だったらどうやっても結果が0になる→頂点削除」
    • 疎な部分集合族を表現するのに適している
    • BDD同様、ZDD 同士の演算がそのままできる(Family Algebra)
  • フロンティア法
    • ZDDはめちゃめちゃメモリ食う(1頂点当たりO(V))
    • 実は、フロンティアの連結と次数だけ覚えれば十分
  • その他
    • 文字列集合を表現する SeqBDD (Sequence BDD)
    • 置換の集合を表現する πDD (PiDD, Permutation DD)

計算複雑性理論

  • O(n), o(n), Ω(n)、Θ(n)

全探索

n^k

  • rep(i, ni) rep(j, nj) rep(h, nh) rep(k, nk) cout << i + j + h + k << endl;

深さ・幅優先探索

名前データ構造デメリットメリット
DFSstack最適性は保証されない省メモリで全探索可能
BFSqueueメモリをいっぱい使うHITしたものが最短経路経路であることが保証される。BFSは回数小さい方固定の全探索
  • 深さをメモするqueueの実装は、unordered_mapやmapが必要
    • AOJ Reverse Sort
    • そもそも深さ付きDFSはvectorをqueueとして使ったほうが楽
    • queueでやりたいなら、queueに突っ込むnodeのunordered_mapを用意して、node tmp = q.top(); ll cost = depth[tmp]; q.pop();とかやるしかない。

  • DFSしてください

グローバルにデータを持つDFS, BFS

  • 木の持つデータが大きい場合、「逆操作が軽い」DFSならば、メモリ使用量をO(1)に出来る。
    • Codeforces 368 D2D
  • もし操作が「戻れる」なら、再帰関数を呼ぶ前と後に状態変化を書くことで、グローバルにデータを持てばよい

n!

  • next_permutation
  • 局所する場合は挿入DPを使うのが良い
  • 置換しても平均・分散・総和・二乗和などは保存する
    • YES/NOしか求められていない時は、こういう情報の落とし方もある

nCr

  • next_combination
  • めんどい場合はnext_permutationを使っても良い(Codeforces #395 Div1 C.)

総和を固定する全探索

  • 数列aに対して、総和Sが含まれる評価式を満たすaを1つ挙げたい
    • しかし、数列aは非常に探索空間が大きいので無理
  • なぜ難しいか?
    • aを動かすと、Sが動いてしまうこと
    • 前から貪欲に決めていこうとしても、途中の更新で今まで確定していたと思っていた添字がだめになるケースがある。
  • どうすればいいか?
    • Sを固定すればいい!
    • Sを固定した条件で、a[i]を構成していき、総和Sを実現できるかを見れば比較的簡単に全探索できる。
  • SRM 697
    • aの小さい方から確定させようとします。a[0:m-1]がすべてa[i]×(b[i]+1)>=Sを満たしていてa[m]が満たしていない時、a[m]をa[m]' = a[m]+kに更新するとa[m]'が条件を満たすとします。ここでa[0:m-1]の、もう確定したと思っていたものは確定したとは言い切れない気がします。なぜなら、以前に確定させたp<=m-1の添字に関する条件は、a[p]x(b[p]+1)>=S'=S+kとなり、元よりも条件が厳しくなるからです。
    • しかし、S固定すると貪欲に取れて、最終的に構成されたa[i]<=Sならばa[n-1]をS-sum(a[0:n-2])とすれば合計がSのaが構成可能

総和がk以下の全探索

  • 1=”1”, 2=”10”, 3=”100”, 4=”1000”... と 0/1 文字列に変換して考えてみる。
    • 直前に現れた値が 1,2,3 だとすると”110100”と変換する。この文字列の長さは値の sum と等しい。つまり、前の値を合計が 16 以下まで保存するというのは、長さ 16 の0/1 文字列に対応する

10^18

  • じつは、2^18に落とせれば通る

約数全探索

  • gcdの答えはどうせ約数

探索範囲が2次元ある場合

  • どちらかを固定するともう一方が厳密解が求まる可能性がある

基本

状態

  • アルゴリズムでは「状態」が重要である。
    • 全探索は状態を全て走査する
    • DPは状態と遷移の組み合わせを考察する
    • ゲーム理論ならgrundy数には状態が必須
  • 全頂点にどんな情報を載せるか?というデータ構造みたいなものが決まると、自動的に処理が決まっていく
    • どういう頂点に対して何を載せるか、という思考回路が足りてなさすぎるし、何が載っていると嬉しい、みたいな思考回路も足りない。CF 398 D2C
  • 状態の抽象度
    • 一見n!であっても、上手く見ると状態を減らせる、というのが非常に重要
  1. 順序 n!
    • 一番一般的なもの。
    • これをそのまま扱うためには挿入DPが必要
    • 無理なら、貪欲法によって順序を固定するという選択肢がある
  2. 被覆+最後 n 2^n
    • 被覆とは、集合のどれかを選ぶという意味。
    • 巡回セールスマン問題
      • 被覆とその最後に使うノードを指定する
  3. 被覆 2^n
    • 集合のどれかを選ぶ
  4. 区間 n^k
    • 1次元の区間は[l, r)で表される。
    • 2次元の区間は[(a, b), (c, d))で表される
  5. 個数 n
    • 個数だけ見ればよい、という問題
  6. mod n
    • 法をとっても同じ、という意味
  7. 偶奇 2
    • mod nの2バージョン。よく使う。
  8. 関数形状をもつ
    • ARC 77E
    • ARC 82F

二分探索

  • 使う場面
    • 最小値・順位などを計算する場合、単調ならば二分探索を考えて常に簡単になる。
    • 「 X の最小値を求めよ」と「X の最小値が m 以下かどうか判定せよ」という問題があったとき、前者が解ければ後者は解けるので、後者の方が常に簡単

二分探索のデバッグ

  • 特性関数だけまず確認したほうがいい
   while (1) {
       ll t; cin >> t;
       cout << check(t) << endl;
   }
  • 実装
    • 二分探索の変数名をpassとfailとすると超わかりやすい
    • l, rは厳しい
  • パラレルバイナリサーチ=クエリまるごと二分探索
    • Incrementalなデータ構造に対して、「〜であるのはいつか?」というクエリをQ個処理するのが基本形。
    • O((Q q+t)log T)(qはクエリ応答計算量、tはデータ構造の構築時間)
    • 永続の特殊バージョンの場合に使える二分探索
    • クエリQ個を、IncrementalもしくはDecrementalな構築途中のデータ構造の時間に対して二分探索したいが、二分探索のための構築に時間がかかる時に使う
    • より形式的には、Q個のクエリ先読み可能+クエリが時間に対して単調な場合、時間幅Tの永続データ構造に相当する機能を、省メモリでO((Q q+t)log T)で計算できるもの、と認識している
    • Atcoder AGC 02D, yukicoder 416
  • クエリ最小化
    • Codeforces 499 D2Dでは、クエリを一回も無駄にできない制約で、f(x) (x in [2, 1e9])上の二分探索をする必要があった。
    • ng = 1, ok = 1e9として、結果+1を聞くということをして、QLEを出した。
    • 閉じてる区間の整数二分探索は、[2, 1e9]ならばng=1, ok=1e9+1と、一つずつ拡大しないといけない。

ダブリング

  • ダブリングは、f(x)=f(f(x-1))なる関数であれば、f(x)の計算がO(log n)で計算できる
    • なぜなら、f(2^{k+1})=f(f(2^k))だから、f(2^k)を求めることが簡単。
  • ダブリング上での二分探索は「〜を超えない最大の添字」を探す、と覚えると良い
    • 木やFunctional Graphのある頂点から、n個上の親・n個上までの加算・n個上までのminを求める

計算量解析

  • アルゴリズムイントロダクションでは、漸近的にタイトとは限らない上界O、漸近的にタイトとは限らない下界Ω, 漸近的にタイトでない上界o、漸近的にタイトでない下界をωと表している。なお、漸近的にタイトな限界をΘと表している
    • 例えば漸近的にタイトとは限らない上界\( O(f(n)) \)は、ある\( n_c, c_0 \)について\( \forall n \ge n_c\ g(n) \le f(n) \)なる任意の\( g(n) \)の集合のこと
    • 形式上集合であるが、これをなぜか\( g(n)=O(f(n)) \)と書くと都合が良いことがある
  • 計算量は一般的には数学的帰納法によって解く
  • マスター定理
    • 計算量に関する漸化式を解くための3通りの公式。iwiwiさんの\( O(n^2) \)の木DPの計算量解析や、多倍長のリダクション\( O(n^2) \)などを証明できる。

しゃくとり法

Monotonic Queue

  • 数列aが与えられる。全てのiについて、min a[i, i+w)を求めよ。
    • これは、尺取り法でO(n)でできる
    • 幅wに限定したが、尺取りの区間についてならば同様にO(n)
    • (ちなみに、スライド中央値はw固定ならば、multisetを持ちながらやるとO(log n))
  • 尺取り法
    • 状態 = 「v = 区間[i, i+w)の最小値の位置mに対して、[m, i+w)の厳密な増加列の添字列」
    • 遷移(左): a[i]よりa[v.back]が大きければ、ひたすらv.pop_backする。 v.push_back(i)。
    • 遷移(右): v.frontがiならば削除
    • a = [9 3 4 2 7 3 9], w=3
    • i = 0; v = [1 2] (値は3 4)
    • i = 1; v = [3] (値は2)
    • i = 2; v = [3 4] (値は2 7)
    • i = 3; v = [5] (値は3)
    • i = 4; v = [5 6] (値は3 9)
  • いわゆるスライド最小値はMonotonic Queueと一般的には言われている
  • Monotonic queueは、再帰的に「q[i] = [q[i-1], r)の最小値」と簡潔に書くことができる。(a[q[i-1]]を認めるかは実装次第)
  • Monotonic Queue qは数列で表され、
    • q[0] = [l, r)の最小値
    • q[1] = [q[0], r)の最小値
    • q[2] = [q[1], r)の最小値…と繰り返される列のこと
  • 計算上重要な性質は、
    • [l, r)の最小値が常にq[0]であり
    • かつl->l+1や、r->r+1にする操作がO(1)でできる、ということである。
    • 具体的には、l->l+1の際には、q[0]がlならば削除するだけでよい。
    • r->r+1の際には、qを最後から見てa[r]超のqを全削除してq.push(a[r])すればよい。
  • お気持ち
    • 「数列a[0, i)を見終わった後に、a[i]に何が来るかはよくわからないけど、解の候補となりうる位置の候補を全部列挙すると?」みたいなことを考えると、厳密単調性が保証される添字集合を考えたくなって、これは尺取れる
  • 数列のquantile
    • 範囲を尺取りみたいにしていいならO(log n)
    • 上手くイテレータを操作すれば、普通のsetでもいい

stackテク

  • stackに不変構造を保存する。
  • 最大長方形などstack系ははpopの時に更新するのがスマート(ARC 81F)
    • popの時に更新する場合、最後popされていないものがstackに残ると悲しいので、最後に番兵を投げるのがよい。

問題の見方

  • アルゴリズムの重要なことは、脳内の整理
  • 図や表を多用しまくることが重要

基本的なこと

  • 凸凹してたら
    • 全探索
    • DP
    • 半分全列挙
    • 分枝限定法
    • 枝刈り全探索
  • マッチング
    • フロー
    • 二部グラフ(結局これもやってることはフロー)
  • 割り当て(全体の拘束のもと、満足度を最大化)
    • 最小費用流
  • 「5歩で」「10回で」
    • 半分全列挙
    • AOJ Reverse sort, yukicoder 五輪ピック
  • 「辞書順最小で」
    • 辞書順は取れるときにとれば最適になる
    • 待っていても良い物がこないし、一回一回で最適なものを選べばいいだけだから
  • 「n<200のグラフ」
    • Nが小さいグラフはとりあえずWFで全点から全点にすぐ行けると思うと良い
  • 「全て異なる」
    • 割り当て問題。「n人の人がm個の仕事をする。人iが仕事jをするときの達成度vのリストが与えられる。全体で最大の達成度はなにか。同じ仕事は複数人で受けられない。」
    • 厳密に小さいと全て異なることになる。全部異なるものを仕事側とすると、割り当て問題の「同じ仕事は複数人で受けられない」に相当することになる。
    • AOJ Dangerous Tower

問題の図示

##
###
#######
########

変数の動きの整理

  • 例えば以下のようなプログラムで
int a; cin >> a;
b = a * a;
c = a * b + (a > 0);
  • 以下の様な表を書く
a  b  c
--------
-1 1  -1
0  0  0
1  1  2

変数のまま網羅

  • sに(1) a足す (2) bかけるを何回行えばtになるか??
    • \( s+a \), \( sb \), \( sb+a \), \( sb^2+2ab+a \)などが作られる
    • 一般化すると\( b^k s + a(c_0+c_1 b + ... + c_{k-1} b^{k-1}) \)で網羅できる!など。

発想

  • 順像的に見る
    • どこかを固定すると、二分探索ができたりしないか?
  • 逆像的に見る。
    • 逆から塗りつぶしたら、塗り剥がしたらどうなる?(SRM 696 D1E Gperm, SRM 655D1E)
    • 逆からループを回したら?(CF らてさんが神だったD2C問題)

テスト前のチェック

  • 回しきれていないループミスをひたすら探す
  • 誤読
  • assertしまくる
    • 特に構築系
  • 関数を分けて部分問題をassertしまくる
  • コメント書きまくる。

用語

  • multiset
    • 同じ要素が複数入っていても良いデータ構造。eraseでは全部ではなく1個だけ消す(Codeforces 367 D2D)
  • 部分列(subsequence)は、部分文字列(substring)とは異なることに注意する。前者は元の列の連続した項からなる必要はない

データ構造の数学的構造

俯瞰

  • データ構造Gと演算○のセットを、(G, ○)という。
  • これがどのような代数的構造を持っているかで、適用可能なアルゴリズムを限定できる。
  • アルゴリズム構築に重要な代数的構造は以下である
名前特徴具体例
モノイド並列処理可能性(整数, min), (整数, max)
0-indexだけ計算すればi-indexに出来る(整数, +)
ベクトル空間行列演算可能性(実数, +, *)
半環行列累乗可能性(bool, XOR, AND)

代数的構造のまとめ

  • 環からは、2つの演算子に関する代数的構造。
  • 下に行くほど、制約が強い
  • 演算子について
名前定義具体例
マグマ(S, ○)が全域性を持つ=演算結果も集合Sに入る。集合Sを台集合という
半群○が結合則を満たすマグマ(S, ○)
モノイド単位元eを持つ半群(S, ○)(自然数, +), (自然数, *)
逆元を認めるモノイド(G, ○)二値転倒数のマージ則 (0の数, 1の数, 転倒数)
アーベル群○が可換な群(G, ○)(整数, +), (有理数から0を除いた集合, *), (実数から0を除いた集合, *)
半環(R,•,+)、+下の可換モノイド、•下の半群, +上の•の分配性。逆元がなくてもOK(自然数, *, +)。max-plus代数=(整数, +, max)は+が乗算なのが面白い!
(R,•,+)、+下のアーベル群、•下の半群, +上の•の分配性Nは任意の自然数としてZ/NZ=(Z, * mod N, + mod N)は環、これは余剰環と呼ばれる。
単位環•について単位元1を持つ環
可換環•の可換性を持つ環
整域•に対する非ゼロ因子付き単位元を持つ可換環
非ゼロ元の•に対する逆元を持つ可換環Z/pZ=(Z, * mod p, + mod p)は余剰体と呼ばれる。ただしpは素数に限る。またp=2の余剰体はブール体と呼ばれてZ/2Z=B=(Z, AND, XOR)
  • イデアル
    • 環の特別な部分集合
    • 「何を取ってきても、自分と乗算すると自分になっちゃう」(例: (整数, *, +)で、偶数はイデアル。どんな整数を取ってきても、偶数と掛け算すると偶数になっちゃう)
    • 環は可換性を前提しないので、左イデアルと右イデアルがある。両側イデアルを単にイデアルと呼ぶ
  • ベクトル空間について
    • 体Fを複数連結した「体Fのベクトル」に関して加群であればベクトル空間になる。
    • 「Vを体F上のベクトル空間とする」などと表現する
名前定義具体例
環上の加群左R-加群Mの定義を行う。アーベル群(R, +)と、RxM->Mを定義するスカラー乗法*について、+の分配則・スカラー乗法の結合則・*に対する単位源の存在を満たすならば、Mは左R-加群。
ベクトル空間体(G, *, +)に対して、+の分配則・スカラー乗法の結合則・*に対する単位源の存在を満たす
  • annihilate
    • 日本語では「零化」
    • Rを環、Mを左R-加群、SをMの部分集合とする(大体R=実数, M=ベクトルの集合, S=ベクトル部分集合だと思えばいい)
    • Rに関してAnn(S)={r in R | 左からrをかけるとSの全ての元が0になる}
    • Ann(S)は左イデアルであるため、これを日本語では「零化イデアル」と呼ぶこともある。

モノイド

opTT0
maxint0
minintinf
(+)int0
(*)int0
sort.(++)[int][]
^(累乗)int1
andbool1
orbool0
xorbool0
(++)string""
集合和[int][]
集合積[int]全体集合
gcdint0 (0とするとユークリッドの互除法とも整合する)
lcdint1
  • 非自明モノイド
    • [l, r)の連続部分列の総和の最大、はモノイド(AOJ Do use segment tree)

  • 結合法則と逆元が存在する
    • 0-indexの計算だけで、i-indexの計算が可能という特徴がある。

データ構造の機能の名称

  • 動的
    • 木・配列・グラフなどの構造そのものが変わること。
    • 動的凸包、動的kd-Tree、動的Ford Fulcarsonの場合、「削除ができること」という意味。
  • オンライン
    • 構築後にデータの更新ができること。
  • 永続
    • データ構造の途中結果に、更新が終わったあとにアクセスできること。
    • 入門には永続Union-findが一番わかりやすい。
    • だいたいのデータ構造は永続にできる。永続配列、永続平衡二分木(RBSTがよく使われる)、永続union-find、永続set、永続セグメントツリー、永続ウェーブレット木…
  • 範囲更新
    • [s, e)までに演算を行う、木の頂点sを根とする部分木全てに演算を行う、木の頂点sから木の頂点eの最短パスの全てに演算を行う、など。

永続

  • 何個か種類がある
    • 部分永続(メモリ軽い)
    • 完全永続

コンセプト

  • ノードに持たせるのが 1 つの値では不十分で,データ構造を持たせたいような際,親ノードとの差が小さいことを上手く利用して効率的に全ノードにデータ構造を持たせることができる
  • 部分永続と完全永続
    • 部分永続は最新版のみ変更可能だが、部分永続は全て変更可能
  • 永続の種類
    • 履歴としての永続
    • 値型としての永続???
  • 永続の制約
    • ならし計算量のものは大概ダメ
    • 乱択も難しい

永続配列

DFSでできる永続

  • 逆操作が簡単な永続データ構造は、ただ「グローバルにデータを持つ」DFSを掛けばよいだけ。
    • Codeforces 368 D2D

永続BIT

永続UnionFind?

永続平衡二分探索木

  • 融合永続まで行けるのは、AVL木。他にはマイナー過ぎるのを除けば赤黒木ですね
    • RBSTは永続までは行けますがコピペみたいな融合永続になると死にます

bit manipulation

  • pukiwikiのパイプは|
名前プログラム特記事項
set_unionA | B
set_intersectionA & B
set_subtractionA & ~B
negateA ~ ((1 << size) - 1)
set(bit)A |= 1 << bit
clear(bit)A &= ~(1 << bit)
get(bit)(A & 1 << bit)
count trailing zeros__builtin_ctzll(bit)
count leading zeros__builtin_clzll(bit)
count pop count__builtin_popcountll(bit)
空集合以外の全部分集合の列挙(mask)for (ll i = mask; i > 0; i=(i-1)&mask) { cout << bitset<4>(i) << endl; }「空集合以外の」であることに注意。これを使ってDPする場合など。
空集合以外の全部分集合の列挙(mask)for (ll i = mask; i >= 0; i=(i-1)&mask) { cout << bitset<4>(i) << endl; if (!i) break; }
maskを部分集合に含むsize nのbitsetを全列挙(mask, n)for(int i=mask; i<(1<<n); i=(i+1)|mask) { cout << bitset<4>(i) << endl; }

Union Find Tree

  • 連結成分の数え上げ
    • Union Find Treeで、「頂点数-**異なる連結成分が連結された**回数」を計算すればよい
    • これは全域木の辺の数を数えていることになる

有理数

整数論

「割り切れる」を表す表現

  • k | a+bとは、a+bはkで割り切れるという意味。この表記はa + b = 0 mod kの簡便な表記となっている。

modの図形的意味

  • modを円環というか、複素数というか、回転としてみなした考察をすると割と良い
    • modは円環数列での操作。ビジュアル的にはそんな感じ。

modを取る意味

  • 浮動小数点誤差によるバグと、アルゴリズムのバグを切り分けられる
    • 10億7で割った余りからなる剰余体は体なので、ほとんど実数と等価な演算ができて、しかも厳密に答えが出る。
    • したがって、実数を入出力とするアルゴリズムを新しく作るとして、提案アルゴリズムと、提案アルゴリズムに一致するはずの愚直アルゴリズムを、一旦10億7の余りで実装して比較する。これが一致すれば大体OKだろうということが分かる。
    • また、10億7は結構自由度が大きいので、ランダム入力を2, 3個生成してその一致を見るだけで、実質ユニットテストの代わりになる。
    • あと、なんかバグった時のリカバリが早い。浮動小数点系のバグって、1e6に1e-4を足してて大体似ているからOKっぽい…となりがちだが、剰余体だと変数に入っている値の大きさに大小を定義できないので、バグを特定しやすい。

巨大数

  • 素数でmod取るのは何か(囲碁の局面数など)を数え上げたいときに複数mod並列で回して最後に中国剰余することがあるというのを聞いたことはあります
  • 中国剰余定理はGNFSかなにかの実行時に巨大数を扱うためのテクとして使われているという話を聞いたことがある(32bit素数を多数とってmodで計算して復元)

分数のmod

  • AOJ Fast Division

素数の密度は高い

  • y 付近の素数の密度は Θ(1/log y) なので、O(log y)個程度調べれば、一つは素数が見つかる計算
  • 「これを用いると、n以下の最大の素数を計算せよ」を高速に求められる。

Z/pZ体の逆元

  • 結論、拡張ユークリッドの互除法が高速

フェルマーの小定理による逆元

  • *a^(p-2)が逆元となる。
  • 重要なのは、pが素数でない場合には、逆元が存在するとは限らないこと!
    • 逆元が存在しない場合は、ダブリングのようなもので代用することを考える。

拡張ユークリッドの互除法による逆元

  • nのmod pでの逆元を計算する場合、nとpが互いに素であれば、\( (g, x, y) = extgcd(n, p) \)として\( g=gcd(n, p)=1=xn+py \)よりmod pを取って\( xn=1 \)となり、xが逆元となる。
  • この方法では、pが素数でなくともn, pが互いに素であるだけでよい&ちょっと高速
  • n, mが互いに素だけで生成された1/n mod mは一意? and どれくらい自由に演算して良い?
    • 一意だし、自由に演算していいらしい
5の逆元(mod 13)を求める。

5y ≡ 1(mod 13)
⇔ ∃k 13k + 5y = 1となる整数yを求める
このk, yを求めるのはextgcdでできるので、yを持ってくればOK

ax mod b (a,b:定数、x:変数)

  • とりうる値はgcd(a,b)の倍数(超典型、AGC26B, CF499D2E)

N^M (mod p)

  • pは素数なのでフェルマーの小定理より、N^M=(N%p)^(M%(p−1)) (mod p)
    • フェルマーの小定理
    • a^(p-1) = 1 (mod p)
    • より、あるkと0<=m<pについて、
    • a^b = (a^(b/(p-1))) a^(b%(p-1)) (mod p) = a^(b%(p-1)) (mod p)

x^(2^n)

  • x^(2^n)はf(n)=f(n-1)^2,f(0)=xというふうにO(n)で求められます

nCr

  • n!と1/n!をO(n log mo)で前計算することで、nCrはO(1)で計算可能

nCm mod 素べき

n!

nCm mod 一般

sqrt(n) mod mo

nCk mod mをm進数の桁ごとに

  • リュカの定理

ユークリッドの互除法

  • \( b=qa+r \)について、\( gcd(a,b)=gcd(a,r) \)を示す。
  • より一般的に、
    • \( D_{a, b} \) = {a, bの共通約数}
    • \( D_{a, r} \) = {a, rの共通約数}
    • について、
    • \( D_{a, b} = D_{a, r} \Leftrightarrow D_{a, b} \subset D_{a, r} \land D_{a, b} \supset D_{a, r} \)を示す。
  • 証明
    • 全ての\( d \in D_{a, b} \)について、db'=qda'+rなのでr=d(b'-qa')より、rはdの倍数。dは、aとrの共通約数であるため、\( d \in D_{a, r} \)である。全ての\( d \)について満たすので\( D_{a, b} \subset D_{a, r} \)
    • 全ての\( d \in D_{a, r} \)について、\( b=d(qa'+r') \)なので\( b \)\( d \)の倍数。\( d \)は、\( a \)\( b \)の共通約数であるため、\( d \in D_{a, b} \)である。全ての\( d \)について満たすので\( D_{a, r} \subset D_{a, b} \)
  • gcd(a, r)は必ず小さくなっていくので、a=0なりb=0となり、いつかアルゴリズムが停止する。

拡張ユークリッドの互除法

lint ext gcd(lint a,lint b,lint&x,lint&y){
  if(b==0){
    x=1;y=0;return a;
  }
  lint q=a/b;
  lint g=ext gcd(b,a−q∗b,x,y);
  lint z=x−q∗y;
  x=y;y=z;
  return g;
}
  • 拡張ユークリッドの互除法は、
    • 順向き計算と逆向き計算がある。順向き計算でgcd(a, b)を計算し、逆向き計算で\( g = a_i x_i + b_i y_i \)を満たす\( a_i, x_i, b_i, y_i \)を計算している。
    • 順向き計算は、ただのユークリッドの互除法。
    • 逆向き計算は、\( g = b x_1 + (a - [a/b] b) y_1 \)のうち、\( gcd(a, b), a, b, x_1, y_1 \)が既知である時、\( g = a x_0 + b y_0 \)\( x_0, y_0 \)を求めよ、という問題を再帰的に解いている(答えは\( x_0=y_1, y_0=x_1-[a/b]y_1 \))。境界条件は\( g = g 1 + 0 0 \)

ルジャンドルの定理

  • \prod (0, k]で2で割れるものは何個か?
    • [k/2]+[k/4]+...
  • \prod (p-k, p]で2で割れるものは何個か?
    • 同じじゃないよ!p=17, k=3とか。累積和を使おう!
  • \prod (2^n-k, 2^n]で2で割れるものは何個か?
    • \prod (0, k]とはじめ以外同じだよ!!

除算回避

平方剰余

  • 奇素数pに対してmod pの場合、\( a \in [1, p) \)のうち\( a=x^2 (mod p) \)なる\( x \)が存在するような\( a \)の個数は、ぴったり\( (p-1)/2 \)個。存在しないような\( a \)の個数も、ぴったり\( (p-1)/2 \)個。
    • 存在する場合、\( a \)\( mod p \)での平方剰余であると言う
  • 平方剰余判定
    • 極めて簡単
    • \( a \)\( p \)における平方剰余である \( \Leftrightarrow \) \( a^{(p-1)/2} = 1 \)
    • \( a \)\( p \)における平方剰余でない \( \Leftrightarrow \) \( a^{(p-1)} = -1 \)
  • \( p \)における平方剰余\( a \)のxを具体的に求める
    • \( p=2 \)は全探索できるので割愛
    • \( p=4k+3 \)なら簡単
      • \( x=a^{(p-1)/4} \)である。\( x^2=a^{(p+1)/2} = a a^{(p-1)/2} \)だが、\( a \)が平方剰余であることは既知なので、平方剰余判定より\( x^2=a \)
    • \( p=4k+1 \)の時はTonelli-Shank Algorithmを使う必要がある(めんどい)

中国余剰定理・Garner's Algorithm

  • x % m_i = a_iという形のアルゴリズムからxを復元するあるごりずむにはGarnerのアルゴリズムというのがある
  • m_iが素数なら中国余剰

aのB進数の桁和はa mod b-1に一致

素数

  • 素数系のライブラリは、隣接性を利用したものと、しないものを明確に分けなければならない。
    • 隣接性利用: O(n log log n)
    • 隣接性非利用: O(n sqrt(n))
  • 素数の個数はO(n / log n)
  • 約数の個数は、exp(log n / log log n) / 10個くらい。
  • Prime系は特にint型やめたほうがいい気がする
  • (こどふぉでミラールビンが使えないのあれなので、uint128を使わないのも用意したほうが良い)

構築付き素数判定

  • エラトステネスのふるい
    • 長い配列を用意して、必要のないところにはそもそも試し割りしないようにしながら素数を列挙する
    • O(n log log n)
  • Atkinの篩
    • O(n / log log n)

連続する素数に関する問題は速く解ける

  • 具体的にはO(n sqrt(n)) -> O(n log log n)に落ちる。
  • エラトステネスのふるいと同じようなアイディアで、試し割りするともに素因数の数を数えることで、隣接100万くらいの素因数なら全列挙できる。
    • 具体的には、SRM 565 D1Mのように隣接100万個の素因数の数え上げはO(n log log n)と高速である一方、構築後の素因数を一つ一つ見るのでO(n sqrt(n))となりn=100万では無理。

非構築素数判定

  • Millar-Rabin Test
    • O(20)くらいで構築なし、64bitの素数判定ができる!

区間篩

  • 大きな範囲の素数全列挙にはこれが必要との噂

約数全列挙

  • sqrt(n)まで試し割りして、全部の割れたものに関して(i, n/i)を全列挙すればOK

ローのアルゴリズム

  • 構築なし爆速素因数分解 O(n^1/4 log n)くらい(n > 1e6で高速)
  • 体感計算量
    • 体感平均計算量 O(n^{1/4} log n)
    • 体感最悪計算量 O(n^{1/4} log n * 20)

素数の数

素因数分解クエリを高速に行うための前処理

  • osak法 http://www.osak.jp/diary/diary_201310.html#20131017
    • 配列fac[W]を用意します(Wは最大値-1)
    • エラトステネスの篩をやるとき、i*jを非素数と判定するときにfac[i*j]=iとすると、篩が終わったとき各整数xについてfac[x]がxの最小の素因数になっています(xが素数ならfac[x]==xとなるようにする)
    • 配列facを持っていれば、整数vが与えられたときv/=fac[v]をv==1になるまで繰り返すことで、vの素因数の個数程度の手間で素因数分解ができます。
v=60
fac[v]=2
v/=2, v=30
fac[v]=2
v/=2, v=15
fac[v]=3
v/=3, v=5
  • 「sum_{i in [1, 1e6]} iの素因数の個数」は3.6e6個なので、fac配列を持つことによる省メモリ効果は1e6で30%くらい?省メモリということは、計算時間もそれだけ短くなっているはずなので、素因数分解がO(1)からO(log n)になることで5倍程度の高速化がお手軽に得られるなら確かに強いか。
  • 素数テーブル高速化のためにAtkin使ってるけど、エラトステネスでも素数テーブル構築できるようにしようかな。

区間

区間スケジューリング問題系

  • 有名な貪欲:とりあえず右端ソート
    • 「◯日から×日までの間に1日は働かなければならない」というルールさえ守ればいいなら誰でも期限ギリギリまで働くのを延ばし続ける
  • 区間スケジューリング問題の双対
    • ABC103D
  • 何か区間みたいなのがあって、「左端がx以下のもの」「左端がx以上のもの」「右端がx以下のもの」「右端がx以下のもの」「左端がxより小さいのもの」「左端がxより大きいのもの」「右端がxより大きいのもの」「右端がxより小さいのもの」みたいなのをlower_boundで見つけるみたいなのってどうすればよいの?左右・上下で4つset持っておかないといけないの??
    • 少なくともused関数は不要だった(setがその役割を果たすので)
    • 基本全比較関数で実装しとくしかないと思うけど、ラムダでやるのがこんがらがりまくって-x.firstみたいなのを突っ込んだ区間集合を別に管理した。これをやるととにかくinsert忘れたりerase忘れたりして慎重さにかける僕にはつらい
  • ABC103 D

kd-tree

  • 区間の数え上げは2次元平面にプロットしてkd-treeになりがち
  • 区間の唯一性は「直前が入っておらず直後が入っている」でカウントできる

範囲クエリ

静的範囲クエリ

  • 静的クエリの場合、配列で十分な場合が多い
  • 集合aでrangefreq, rangesumは簡単。vector aを持って
    • rangefreq([l, r)) = a.lower_bound(r) - lower_ bound(l) // 集合aの中で[l, r)の個数を数える
    • rangesum([l, r)) = as[a.lower_bound(r)] - as[lower_bound(l)] // 集合aの中で[l, r)のものの総和を求める。数列asは数列aの累積和。

演算

演算結合可換可逆
+ooo
*ooo
minoo
行列積o
拡大回転行列積oo

まとめ

名称結合可換可逆構築後のデータ変更構築参照クエリ更新クエリ範囲更新備考
Fenwick Tree = BIToooO(n)O(log n) 0-indexのみO(log n)x
Fenwick Tree = BITooooO(n)O(log n) i-indexも可能O(log n)x
Sparse TableooxO(n)O(log log n)--出力の選択性を要求(演算はmin, 2番目のようなもののみ)
Segment TreeooO(n)O(log n)O(log n)x
Lazy Segment TreeooO(n)O(log n)O(log n)o
いもす法oxO(n)O(1) 0-indexのみO(1)o
いもす法ooxO(n)O(1) i-indexも可能O(1)o
ナイーブ構築ありooO(n^2)O(1)--
ナイーブ構築なしoxO(1)O(n)O(1)x

BIT

  • Fenwickは、「点更新」「範囲参照(0-indexにしかならない!)」
    • もしデータと演算が群ならi-indexになる
  • Fenwick Tree=BIT=Binary Indexed Tree
    • 実装が簡単で高速。

Segment Tree

  • Segment Treeは、「範囲更新」「範囲参照」(範囲更新はlazyによって実現)
  • Segment TreeはBentley, J.L., “Algoritluna for Klee’s Rectangle Problems”, (1977)で初めて導入されたと言われているがかなり怪しいと思っている
  • セグメント木
    • モノイドでいいので応用力が高く、自分で考える部分が大きい。
  • 「S([i, h]) = f(S[i, j], S[j+1, h])なるfが簡単な形で求まるか?」を考えると良い
    • yukicoder 往復漸化式
  • 平方分割でできるならセグ木でもできるだろう、と思考回路もありえる
    • 逆にできないパターンは?

セグ木に変なもの

Lazy Segment Tree

  • min/max/sum 全部乗せで更新が ax+b の遅延セグ木を持っておくと大抵のやつはなんとかなります
  • 作用素T_Pは、パラメータPに応じた入力xに関するフィルタで「副作用としてxを変更する!!!」
  • 例えば、作用素T_a = 入力xをaに変更する(要するにaを代入する)とする。
    • すると、x -> T_a -> aとなるので、x = aと代入される
    • このような x -> T_a -> aを、T_a x = aと表現されるが、これは便宜上の表記であって、x=aに実際に変更されているというのが注意点。
    • T_a T_b x = T_aなど
  • 作用素は一つの要素に対するものを基礎に置いたほうが良い。
  • 遅延セグ木では以下の二つを両方扱うひつようがある。
    1. 遅延評価
    2. 遅延伝播
  • 遅延評価
    • ノードvが持つデータx_iが全てT_Pで変換されるとする。
    • ノードvのリダクションは x_v = (T_P x_1) \otimes (T_P x_2) \otimes \cdots \otimes (T_P x_{|v|})となっている。
    • 例えば作用素T_a = xをaを代入する、\otimes = +とすると、x_vはf(x_v, a, v) = a |v|と変更できる
    • 例えば作用素T_a = xをx+aを代入する、\otimes = +とすると、x_vはf(x_v, a, v) = x_v + a|v|と変更できる
    • ここでいうf: T -> Dが、遅延評価演算子となる。
  • 遅延伝播
    • 子供がT_{c, P}の作用素を遅延していて、親がT_Pを遅延しているとする。
    • 親がT_Pを評価した時、子供は「子供のT_Qを評価した後にT_Pを評価する」という二段の作用素を遅延することになる。これを一つにまとめたい。
    • これは T_{g(P, Q)} = T_P T_Q のようにマージできるようなgが持ってこれれば良い。
    • 作用素T_{a, b} = xをax+bに変更する、とすると、T_{a_p, b_p} T_{a_q, b_q}は x -> a_q x+ b_q -> a_p (a_q x + b_q} + a_q = a_p a_q x + (a_p b_q + a_q)であるため、T_{g*1} = T_{a_p a_q, a_p b_q + a_q}であると言える。
  • ここで表されたf: (P, D, |V|) -> Dと、g: (P, P) -> Pが定義できていればよいことがわかる。
  • 遅延評価時、データに作用素を適用してデータを出力するラムダ関数で、データが保存されているノードの長さが必要なケースがかなりある気がするんですが、これは本当にいるのか?
    • 実用上で必要かという話なら、値の方を (V, int) にしてサイズを保持させれば不要です
    • 本質的にどうこうという話であれば、https://yukicoder.me/problems/no/235 こういう問題の特殊ケースと考えれば本質ではないと考えることもできます
    • 的外れなことを言っていなそうで良かったです。(V, int)は確かにですが、コンテストを考えるとまあラムダ自体が長さに対応させた方がコンテスト的には良さそうですね。めぐるはめぐるは勉強することがめっちゃ増えてうれしいです(ありがとうございます)
    • 使用頻度高すぎるのでコンテスト用に組み込んでも良さそう、というのはその通りですよね (未だに迷ってるんですが)
  • Lazy Propagation, 全てのノードkを対象とする関数はそれが終了後に必ず対象のlazinessをnothingにする、という強い意思が実装に必要
  • 本当に遅延セグ木は要りますか?
    • 取得が一点しかない場合、遅延セグ木を普通のセグ木で代替できる(yukicoder 悪くない忘年会にしような!)
  • 遅延セグ木のコツ
    • あるノードより上のノードとその子のlazyを、上から全部解消すると、そのノードの本当の値が出てくる。
    • 「Segment [l, r)が値v遅延xを持っている時、range min(a, b)がSegment [l, r)を含むreductionを要求する場合、xが正しくないので遅延を解消しなければならない。だからその時にSegment [l, r)の遅延のみ解消するようにpushする」で解決したけど、結局僕の表現も厳密ではない。
    • 自分を含めた祖先にlazyが0元ではないものが存在するならば正しくない
  • 遅延セグ木の必要十分条件として適切な表現は「クエリ圧縮可能」
  • 何かこれ、遅延セグ木の気持ちが書いてあって有用
  • 遅延更新セグ木のアルゴリズム
    • 範囲更新の手順
    1. 更新すべき被覆X={X_i}を列挙する。以下i固定
      1. X_i以上に未解消のlazyがあれば、そのlazyを全て解消
      2. X_iの真下があれば、真下にlazyを追加
      3. X_iをdataに追加し、上方向に一貫するように更新
    • 範囲クエリの手順
    1. 更新すべき被覆X={X_i}を列挙する。以下i固定
      1. X_i以上に未解消のlazyがあれば、そのlazyを全て解消
      2. 解消後のX_iをメモ
    2. op(X)を計算
  • 実装
    • コツ:1-indexで実装し、data[0], lazy[0]は使わない
  • lazy segtreeに必要な条件、集合A上の+っていう演算結果が欲しくて、更新クエリが写像A -> Aの部分集合Fの元になっているとき、(A,+)がモノイドで、Fが合成で閉じていればokな気がした。あとはFの元f,gについて合成f*gとf(x_i)の区間和が高速に計算できれば
  • デバッグ
    • 大変。
    • クエリをインタラクティブに与えられるようにして、紙に書きながらデバッグする。とか。
    • これを大きい紙でやったらデバッグできました。なるほど…(バグらせる最小個数クエリでこれをやりました)
  • 遅延セグ木の実装はきゅうりさんのブログを参考にして作りました
    • lazy_updateを呼び出すタイミングとか凄くなるほどってなった記憶があります
    • そのあとマヨ子さんの実装を参考に整形して、びーとくんが抽象化で騒いでいたので抽象化をして今に至ります
  • デバッグの方法として、毎回query(i, i+1)を全てに投げておくと作用素同士のマージがバグっているのか作用がバグっているのかがわかります
    • 全部に投げてバグがお隠れになる場合、作用素同士のマージがバグってる
    • 遅延が全部伝搬しきるので、lazy x lazyの演算が消えます

永続Segment Tree

動的Segment Tree

部分列の最大値を計算するSegment Tree

  • AOJ Do use segment tree解説資料参考
  • Segment Treeの各ノードに必要そうな値を考える
    • その区間の最大値ansは絶対必要
    • その区間の合計allも必要そう
    • 左端を含んだ最大値left、右端を含んだ最大値rightがあれば便利
  • マージ則
    • m.ans = max(l.ans, r.ans, l.right + r.left)
    • m.all = l.all + r.all
    • m.left = max(l.left, l.all + r.left)
    • m.right = max(r.right, r.all +l.right)

Shift Segment Tree

  • 勉強しないと

Segment Treeの応用

範囲クエリ上での二分探索

  • つまり、範囲で見ると単調性が現れるものが、範囲クエリでの二分探索に相当する。
  • 数列のminとmaxは範囲に対して単調になる。
  • ''全要素が正ならば、積分すると単調になる
    • segment tree上の二分探索が可能''
    • Segment tree上の二分探索、要するに積分すると単調=全要素が正ってことなんだよね。

imos法

  • 累積和の意味論
    • 棒を横に並べた時、そのちょうどi個までを見た時の長さの総和
    • また、sum[i]=i個の和、という意味になる

二次元Fenwick

http://codingmelon.com/2015/12/17/range-sum-query-2d-mutable-leetcode-308/

二次元セグ木

http://algoogle.hadrori.jp/algorithm/2d-segment-tree.html http://d.hatena.ne.jp/ishikado/20111130/1322657085 logicmachineさんの実装 https://github.com/logicmachine/LibCompetitive/blob/master/structure/segment_tree_2d.h 遅延二次元セグ木は?

範囲更新点取得は、点更新範囲取得に変換可能

  • 範囲更新の端点が常に0かnならば、範囲更新点取得は遅延評価要らない
  • 例えば、以下の二つのクエリは、
    1. a[0, i) += x
    2. get a[i]
  • BIT bを保持して、以下によって実現できる
    1. b[i] += x
    2. get sum b[i, INF)
  • オペレータは群ならa[l, r) += xができる

クエリスキップ

  • 初期値が単位行列的だったり、ゼロ的な場合、クエリで変更されていない部分をスキップできる
  • yukicoder 往復漸化式

ソート

クイックソート

  • std::sort

バケツソート

  • バケツソート
    • 静的配列にひたすら突っ込むだけのソート。O(n)でソート可能。1000万はいける。
    • SRM D2E 671?

自分でソート

  • 優先度付きキューで自分でソートする
  • SRM D1E スターウォーズのやつ

平方分割

  • 平方分割は、深さ2の sqrt(N) 分木で、深さが2であることによって色々な操作ができるようになっている、という説明を見て、目から鱗が落ちた覚えがあるわ。

クエリ平方分割

  • Codeforces Educational contestのどこかのF

木平方分割

Permutation

  • 要するに個数が固定でほかはどうでもいいということ(もちろん長さに対して種類が有意に少ない場合にのみ有効)

並列二分探索

  • n個の二分探索する必要がある場合に高速化される(きちんと表現して)
  • 例題
    • yukicoder 416
    • AGC 02 D
    • Stamp Rally
    • LimitedMemorySeries1
    • yukicoder 511

グラフ

グラフに関する基本的名称

  • 頂点
  • 入次数・出次数
  • DAG
    • ループが無いグラフのこと
  • 平面グラフ
    • 双対なものが作れるらしい。かなりすごい性質。
  • Functional Graph
    • 頂点が入次数、出次数がともに1
    • Topcoder Sunny Graph, Codeforces Educational 16くらいのやつ(Functional Graphはサイクル分解しなくてもダブリング出来るよ、という問題)
  • 二部グラフ
    • 二色彩色可能なグラフ
    • 奇サイクルが存在しない!!!
  • キャタピラグラフ
    • ゲジゲジみたいになっているグラフ(パスに次数1の頂点が大量につながっている)
    • 構築とかで考察を忘れる(ARC95F)

実装上問題

  • グラフに容量とかいろいろつけてると平気で3倍くらい遅くなってTLEする
    • yukicoder 274

有名問題とそのクラス

  • 概観
    • いろいろ長い問題名が出てくる。同じ名前で違う呼ばれ方がするので、以下に統一
    • 問題=最小独立パス被覆問題、最小頂点被覆問題、最大独立集合問題、最小パス被覆問題、最小辺被覆、最大マッチング
    • 性質=DAG、推移性、二部グラフ
  • 最小独立パス被覆問題
    • グラフの頂点を、非連結な何個のパスで全て覆い尽くすことが出来るか?
    • 非連結なの部分が「独立」に相当している。重要。これがないと、多項式時間にするのに推移性が更に必要になる。
    • DAGだと多項式時間で解ける
  • 最小頂点被覆問題
    • 頂点被覆=全ての辺が、選んだ点に接続するようにする頂点集合
    • グラフの頂点に色を塗る。色を塗られていないところの隣に必ず色が塗られているようにしたい。色を塗る最小回数を求めよ(NP完全)
    • |V|=最小点被覆+最大独立集合
    • 一般にはNP完全
  • 最大独立集合問題=最大安定集合問題
    • 独立集合=辺で隣り合っていないような頂点集合
    • 一般にはNP完全
  • 最小パス被覆問題
    • グラフの頂点を、何個のパスで全て覆い尽くすことが出来るか?二回同じ頂点を使っても良い。
    • 推移性があるDAGだと、最小独立パス被覆問題に一致し、多項式時間で解ける。
  • 最小辺被覆
    • 全ての点が、選んだ辺に接続するようにする頂点集合
    • 詳しくは
  • 推移性
    • 「a->bとb->cに辺があるならば、a->cにも辺がある」を満たすDAGに関する性質
    • 推移性のあるDAGなら、最小独立集合問題と最小パス被覆問題と最小独立パス被覆問題は一致し、多項式時間で解ける [Dilworth 1950]
  • 二部グラフ
    • 二色彩色可能なグラフ
    • 二部グラフでは、最大マッチングが多項式時間で求まる
    • 二部グラフならば、最小頂点被覆=最大マッチング
    • 奇サイクルがないのと同値!!!
  • cograph
    • 1頂点のグラフはcograph, cographを繋げず並べたグラフはcograph。補集合を取ったグラフはcograph。
    • LexBFSというアルゴリズムでO(n+m)で実装できる(かなり定数倍遅い)
    • http://hos.ac/slides/20110504_graph.pdf

複雑なグラフ構築のコツ

  • グラフ構築ゲーはname server作ったほうがいい(name server = 文字列からノードの番号を得るmap)
    • ルイージの酒場

最短経路問題

  • ベルマンフォードって何のために使うの?(LatteさんのSelf-constructing witchが1つの解答になるかも)
名前計算量アルゴリズム特徴
ベルマンフォード法O(VE)前提:負の閉路がない連結グラフ。全辺を見て、現状より辺を通じたほうが良ければ更新。更新するものがなくなるまで行う負のコストを許容。負の閉路がなければOK。また、すべての負の閉路の検出も可能(更新が規定回数で止まらなかったら)
ワーシャルフロイドO(V^3)全始点全終点。実装楽。
実行可能ポテンシャルを使った全始点全終点O(mn+n^2logn)
ダイクストラ法O(ElogV)前提:負のコストがない連結グラフ。コスト最小の未確定頂点を選び、そこから行ける頂点を更新して未確定頂点とする。これを未確定頂点がなくなるまで続ける。priority queueを使って実装する場合は「確定」の概念が明示的には入らず、コストが同じなら一番初めに処理した頂点が強いことで弾く負のコストを許容しない。
経路復元O(E)かO(V)O(V)は以前の道を記憶する。O(E)は以前の道をあとから探すE: d[j]=d[k]+cost[k][j]なるkを探す。V: 更新時prev[j]を記録する。
  • ダイクストラ
    • 要するに集合拡大
    • 拡大ルールは「集合から到達できる頂点のうち、最も小さいコストの頂点を拡大する」
    • 実装にはフィボナッチヒープでBFSが高速
    • 実装が2パターンある
      • 先読みダイクストラではwhile(q.size())if(dist[q.top().se]>q.top().fi)はたかだかちょうどn回しか回らない
      • 通常ダイクストラではwhile(q.size())if(dist[q.top().se]!=INF)はたかだかちょうどn回しか回らない
      • 先読みは、「今までに見た最短」を記憶して枝刈りするので少し速い(がバグる)
  • Atcoder ABC 51D(良問)
    • 最短パスの部分パスも最短パス
    • 頂点xを通る頂点s->頂点tの最短パスが存在→dist(s, t) = dist(s, x) + dist(x, t)
    • 辺i=(a[i], b[i], c[i])を通る頂点s->頂点tの最短パスが存在→dist(s, t) = dist(s, a[i]) + c[i] + dist(b[i], t)
    • 適当なことを言うと、最短距離問題は、最小性と唱えまくれば正当性が出てきます

整数重みの最短経路問題の方法

ダイクストラ

  • コストが1ではない時は工夫の無い普通のBFSで最小性は担保されない。いい加減に実装して有向グラフのBFSとして扱うと、頂点の個数だけ最悪頂点全ての再計算が必要になるのでO(V log E)ではなくO(V^2)になってしまう。
  • 副作用を持つ遷移が有る場合、その遷移を合成する(今回の場合、(1)->(2)と、(2)と、(3)の遷移と考えた方が良い)
  • ダイクストラのusedチェック後のdistは、絶対にwhile (!q.empty())のステップに対して単調増加する!なので、BFSと同じように見つかったら即返って良い!!!
  • Radix heapを使うとダイクストラが速いらしい

動的ダイクストラ

0n-BFS

  • ダイクストラと一致より速い。O(V)
  • ダイクストラでは、priority_queueに同じ頂点が複数含まれる可能性がある!!!ので、遷移時に存在判定してはならない!!whileのループ内部でdistに代入する前での、到達性チェックが必須。
V={0, 1, 2}, E(from, to, cost)={(0, 2, 6), (0, 1, 4), (1, 2, 1) }, 初期にv=0, cost = 0とすると、
v=0, cost=0	q={(1, cost=4), (2, cost=6)}	d[0] = 0
v=1, cost=4	q={(2, cost=5), (2, cost=6)}	d[1] = 4
v=2, cost=5	q={(2, cost=6)}			d[2] = 5

閉路検出

  • 有向閉路検出→SCC
  • 無向閉路検出→BFSで二度来たら閉路あり。
    • 極めて実装がトリッキー

強連結成分

  • 強連結成分
    • Kosarajuのアルゴリズムはよく知られている。

グラフの縮約

  • 有向グラフならばSCCによってDAGに、無向グラフならば二重辺連結成分分解(biconnected component, lowlinkとも言われる)によって木に潰すことができる。
  • SCCで縮約すると、任意のグラフはDAGになり、トポロジカルソートができるようになる
  • BCCで縮約すると、任意の無向グラフは木になり、木DPなどができるようになる

トポロジカルソート

全域森

  • 重要なのは「ループがない」こと
  • 全域森のモチベーション (Minimum spanning tree, MST)
    • なるべく少ないコストで全部繋ぎたい
    • なるべく少ないコストでグラフのループを消したい
プリム法O(ElogV)統合頂点群から未統合頂点への最小距離をメモする。未統合頂点のうち統合頂点群に最も近い頂点を探す。統合頂点群に追加する。頂点追加によって、最小距離が変わるので更新する。最も近い頂点を貪欲的に追加する方法
クラスカル法O(ElogV)辺をコストの小さい順に並べる。コストの低い順に見て、閉路ができないならば連結していく。閉路ができることは連結先と連結元がUnion-Findで同一かによって検知可能最もコストの小さい辺を貪欲的に選び続ける方法

Functional Graph

  • 全ての頂点が唯一の有向辺を持つようなグラフ。
  • 木の頂点がサイクルでつながっている形をしている。
  • 実は、サイクルを分解しないでダブリングできる(Educational codeforces 15のE問題)

最小パス被覆

  • DAG上だと多項式時間で解ける
    • AOJ Merry Christmas
  • 「DAGを無理やり二部グラフにしたもの」を「2V個の頂点V, V’を用意して、元のグラフx->yに辺があるならばx->y’に辺を張る、としたときの二部グラフ」と定義する
  • DAG上での最小パス被覆(全頂点を通るような)は、|V| -無理やり二部グラフにしたものの最大マッチングである

最大流

  • 完全ユニモジュラだったら整数計画問題を線形計画問題に落とせる
    • 完全ユニモジュラ=任意の小行列の行列式が0,±1になる行列
    • フローはこの整数計画に相当する。
やりたいこと名前計算量
一般重みつき最大マッチングEdmondsの花分解アルゴリズムO(V^3)
一般最大マッチングO(VE log V)
最大流Push RelabelO(V^3)
最大流Ford FulkersonO(FE), Fは流量
最大流DinicO(E V^2), 辺容量全部 1 の Dinic は O(Esqrt(E))
最小費用流Primal DualO(V^2 U C)
最小費用流Primal DualO(F E logV), ベルマンフォードを使っているので負コストにも対応
二部グラフ最大マッチングHopcroft–KarpO(E V^0.5)
二部グラフ最大マッチング最大流なら何でも
二部グラフ重み付き最大マッチング最小費用流なら何でも
  • マッチングの貪欲
    • ある順番で辺を見るとして、(1) 辺eを見る (2) マッチングできるなら貪欲にマッチング (3) 辺を消す、を繰り返す時に(1)で辺の端点のいずれかの頂点の次数が1なら、貪欲にそのへんをマッチングさせても良い。
    • 別に木に限った話ではなくて、一部にループがあっても、適宜次数1の頂点を含む辺はは消していってOK。辺e=(次数=1, 次数>1)を使わない場合、次数>1の頂点は必ずマッチングに使うべきである(なお、区別出来ない頂点は縮約可能)。
    • 木の最大マッチングはO(n)。
  • 双対問題
    • 最短経路双対=差分制約下でのポテンシャル最大化
    • 最大流双対=最小カット
    • 最小費用流双対=折れ線一次関数和の最大最小化(http://www.prefield.com/algorithm/math/hungarian.html
    • 最大マッチング双対=和制約化でのコスト最小化
  • 最大流は頂点に情報が乗り、最小費用流は辺に情報が載ってるように見える…
  • 双対
    • AOJ How to Create a Good Game 解説1 解説2
    • AOJ Longest Shortest Path 解説

最小費用流

  • 最小費用流は割り当て問題を解ける。
    • 全体で限られた資源で、個々人が資源を使うことにより個々人の不満度が定義され、その不満の総和を最小化する」ということができる
    • 全体で限られた資源で、個々人が資源を使うことにより個々人の満足度が得られ、その価値の総和を最小化する」ということができる
  • 最小費用流の非常に良いテキスト
    • 輸送問題
    • 割り当て問題
    • 複数シンク
    • 特定の枝に少なくともこれだけのフローを流す、といった制約も解説
    • 特にオアシスの例は非常にわかりやすい
  • 輸送問題
  • AOJ Dangerous Tower
  • Dangerous Towerでなんでダミー変数が必要なのかわからん…
    • 最小費用流は流そうとするフローが固定だからです
  • マッチング問題
    • n, mの数の点群p_i, q_jがある時、マッチングをk個作りたい。その距離の総和をなるべく少なくするためにはどういうマッチングをすればよいか?
      • 二部グラフの最小費用流
      • 二部グラフだと、ハンガリー法が定数倍の意味で高速O(n^3)。nが10000くらいならこれでOK
      • メモリが足りない場合は、枝刈りしておいてO(V E log V)とかにするとよい
      • ほんま雑でいいばあい、距離小さい辺から貪欲にとって、取ったらその辺のsrc, dstをもう使ったというふうにメモをする。これだけでO(E log E)の最適解の50%を保証する解答を得ることができる。ちなみに、LAMというO(E)の解法もある(実装めんどい)
    • n, mの数の点群p_i, q_jがある時、マッチングをなるべくたくさん作りたい。距離の最大値をなるべく少なくしたい。どういうマッチングにすればよいか?
      • 距離d以下を枝刈りしておいた二部グラフに対して、最大流をford-furkersonする。定数倍高速。

二部グラフ

  • グラフから二部グラフ構築はたったのO(n)
    • 二色彩色可能ならば、塗った白黒を左右に振り分けて、必ず二部グラフを構築可能
    • 二食彩色不可能ならば、二部グラフは構築できない
    • AOJ RabbitWalking?

マッチング

ランダムカラーリング

最短経路として使われる辺

  • クエリv, u, e = 「vからuへの最短経路として、辺eを使うものがあるか?」はd(v,e.fi)+cost(e)+d(e.se, u) == d(v, u)でO(1)判定可能
    • 幾何的に見たら最短経路で要らない辺⇔3つなり4つなり見て辺の長さで多角形を作った時に多角形が作れない長い辺

最大クリーク

  • MCS
    • マックスクリークサーチが爆速
    • 富田悦次って人の書いた論文

補グラフ

  • 補グラフを取ると二部グラフになるような問題が多い
    • POJ 3692 Kindergarten は、「補グラフをとると二部グラフになるようなグラフ」の最大クリークを求めなさい
    • Independence [AtCoder? Regular Contest 099 E]

最大流

  • マッチング問題が解ける(AOJ Luigi's Tarvan)
  • Ford Fulcarsonを動的にする問題が大量にある
    • 残余グラフの理解が必要
  • 残余グラフ
    • Ford Fulkersonでは、「流せる余力」を表したグラフを作る
    • 元のグラフと何が違うかというと、「さっき順方向に2だけ流したから、逆方向に2だけ流す余力がある」というのを許可する点。
    • これを前提すると、大概の操作が貪欲に行うことが出来る!
    • また、流れているフローを、順方向の辺に対応する逆辺の容量を見ればよい。
  • 動的Ford Fulcarson
    • 辺Add:
      • 残余グラフの余力が増える→フローが流せるか試すだけ。簡単
    • 辺Erase:
      • フローが流れていないなら、消すだけ。flowは変わらない。
      • フローが流れていれば、まずその辺のフローを他のルートに押し付ける!これは、辺を含む閉路が存在したら押し付けることが出来る。
      • その結果フローが流れなくなったら、消すだけ。flowは変わらない
      • もしフローが足りないなら、終点から始点への消すフローFの増加路を押し戻す。そうすると、上記閉路が必ず存在するようになるので、他のルートに押し付けて、自分は消える。
  • 計算量
    • O(V^3)の最大流 Push-relabel

最小カット

  • 幾つかの要素に 2 つの状態を割り振り,何かを最大化/最小化する問題で,更に DP ではとても解けそうにない場合,最小カットを疑うとよいです。

雑多

  • 頂点は難しい、枝は簡単
  • 葉を指定した最小全域木→Kruskalの変形
  • 分散最小全域木、比最小全域木などは、パラメータ化して何かを止めると凸にする
  • k-th最小全域木

最大独立集合

一筆書き

  • オイラーの公式
    • 一筆書きの定理
    • これって平面グラフじゃないと成り立たないの??
    • 実は、拡張版があって、連結成分数が入ったものもある。
    • オイラーの公式 G の頂点数が n,辺数が m,面数が f ,連結成分数が k のとき, n − m + f = 1 + k

埋める燃やす

  • sからtへの有向グラフを以下のように構成する
    • sが常に赤、tが常に青とした時、グラフを赤青に塗り分ける方法のうち、最小コストのものを計算することができる。
    • コストの定義は、「辺のsrcが赤かつdstが青ならば、コストc」
    • ここでは、グラフの構成法の意味論を書く
  • 意味論
    1. ノードxには、「赤に塗る状態」「青に塗る状態」を割り当てる(定義通り)
    2. x->yがある場合、「xが赤かつyが青の時のコスト」を表す(定義通り)
    3. s->x->tとした時、s->xは「xを青に塗るためのコスト」、x->tは「xを赤に塗るためのコスト」
    4. 「xが赤ならば、yもzも赤」は、x->yとx->zにinf
    5. 「xが赤ならば、yもzも赤」は、x<-yとx<-zにinf
    6. 「xが赤かつyが赤ならば、報酬r」は、まず新しい頂点wを作る。s->wにr、w->tに0, w->xにinf, w->yにinf
    7. 「xが青かつyが青ならば、報酬r」は、まず新しい頂点wを作る。s->wにr、w->tに0, w<-xにinf, w<-yにinf
  • 重要な制限(負辺ができるので)
    • xが赤かつyが青で、報酬rは不可能
    • xが赤かつyが赤で、コストcは不可能
  • 注意
    • ノードごとに赤青の定義を入れ替えることができる。
    • 意味論を見ればわかるように、赤と赤の連動みたいなものを表現するためには、色の定義をうまく割り当てないとグラフが作れない可能性がある。

最近点対

平面グラフ

  • Lindström-Gessel-Viennot lemma

静的木

  • 木の構造そのものが切られたり追加したりしないものでの、様々な木の上でのクエリの処理方法
  • 木いろいろ

基本的な性質

  • 頂点n辺n-1かつ連結なら必ず木構造
  • 木構造はどこを根にしても木構造

まとめ

  • パスの二分探索
名称計算量説明
頂点から根へ向かうパスの二分探索O(log n)ダブリングで可能
  • 部分木の積分
名称結合可換可逆構築後のデータ変更木の構造変更構築参照クエリ更新クエリ備考
オイラーツアー+Segment TreeoooxO(n)O(log n)O(log n)min, maxもできる
  • パスの積分
名称結合可換可逆構築後のデータ変更木の構造変更構築参照クエリ更新クエリ備考
オイラーツアー+Segment TreeoooxO(n)O(log n)O(log n)min, maxはできない
Heavy-Light Decomposition+Segment TreeooxO(n)O(log^2 n)O(log n)min, maxもできる
Heavy-Light Decomposition+Unbalanced Segment TreeooxO(n)O(log n)O(log n)min, maxもできる。行列もできる。遅延・永続もできる。 [[yosupoさんのブログ参照http://yosupo.hatenablog.com/entry/2015/10/02/233244>]]
Link-cut TreeoooO(n)O(log n), 最悪O(n)O(log n), 最悪O(n)min, maxもできる。行列もできる。 遅延はできるが、永続はできない。yosupoさんのブログ参照

オイラーツアー

  • オイラーツアーはDFS順序とも呼ばれる。
    • 2種類あるので注意!
      • 2n-1 Euler Tour(通るたび。こっちはfiからseが部分木。fiからfiの深さminのidがLCA)
      • 2n Euler Tour(最後に抜ける時。こっちはfiからfiがPath。)
    • bfsの経路を添え時に直したもの
    • 木を列で扱える!
      • しかも、各頂点番号が最初に登場するインデックスと最後に登場するインデックスの間が部分木に。
      • 上から下への辺の重みも、上から下への経路で無向グラフ辺を足したものとして表現できる。
    • セグメント木などのデータ構造を扱えるようになる!
      1. 部分木のコストを変える・部分木のコストのsum, min, maxを求める。(無向辺のコストを両方向正にして実現)
      2. 辺(上から下へに限定)のコストを変える・u から v へのパスのコストのsum, min, maxを求める(無向辺のコストを片方1片方-1にして実現)
1 2 3 2 3 2 1 2 3 2 1 // オイラーツアー
1 [2 3 2 3 2] 1 2 [3] 2 1 // 頂点に対応する部分木
1 [2 3 2 3 2 1 2 3] 2 1 // 最小要素の判定区間→1が最小で、この区間で1を持つ頂点がLCA

直属の親子のパスの頂点に乗ったデータの積分

  • 頂点に群のデータを載せるタイプのオイラーツアーで実現できる。
    • 木Gが与えられる。
    • 木Gの根からの、オイラーツアーEを考える。
    • |E| = 2*|G|
      • Eには頂点が二回ずつ必ず出てくる
    • 頂点iがオイラーツアー上で出てくる1回目を、f_i, 2回目をs_iとする。(fはfirst, sはsecond)
例)
        0
      1   2
    3    4 5
のオイラーツアーは
    0 1 3 3 1 2 4 4 5 5 2 0
    f = [0, 1, 5, 2, 6, 8]
    s = [11, 4, 10, 3, 7, 9]

である。
  • 前提
    • 木Gの頂点には、結合二項演算opと合わせて群をなす型のデータAを持っている。
    • 頂点x, yについて、xがyの直接子孫とする
    • [x, y]を頂点xから頂点yへの最短パスの経路上にある頂点(端を含む)とする
  • やりたいこと: [x, y]のデータ型の積分をしたい。
    • 具体的には、例でx=0, y=6とすると、#0 op #4 op #6を高速に計算したい。
  • 実は、これはデータ型の群的性質を用いると、簡単に計算できる。
    • データの保持をオイラーツアーと同じ長さの配列Dで持つ。
    • 頂点iのデータをA_iとすると、を、D[f_i] = A_i, D[s_i] = A_i^{-1}と、初めの出現に普通に格納し、二回目の出現には逆元を格納する。
    • ここで、[x, y]でのデータのopによるパスの積分を考えると、これは数列上で、D[s_x:s_y]の積分に一致する!
    • 今データ型は逆元を持つことを前提としたので、D[s_x:s_y] = D[0, s_y] - D[0, s_x-1]であり、BITによってO(log n)で計算可能である。
  • 今までの議論では、「xはyの直接祖先」を前提していたが、LCA(x, y)を求めることができれば、最短パスの積分もO(log n)で計算できる。
  • The Euler Tour representation of trees was originally used in fast parallel graph algorithms (R.E~ Tarjan and U. Vishkin, An efficient parallel bieormectivity algorithm, SIAM J. Compur 14 (1985) 862-874. ).

頂点から根までの列の二分探索

  • 先祖のダブリングによって実現

重軽分解

  • 用語定義
    • Centroid Path Decomposition
      • 「子のうち最も子数が多い子」への辺を選ぶ
    • Heavy-Light Decomposition
      • 親の子数が、「最大子数をもつ子」の子数の倍より以下ならばHeavy(つまり、1つのノードからHeavyな辺が二つ以上は出ない)
    • 本当は、Centroid Path DecompositionはHeavy-Light Decompositionの一種、という言い方が正しい。
    • プロコンではCentroid Path Decompositionのことを、Heavy-Light Decompositionと言及することが多い
  • pekempeyさんのHL分解を使って木の上のクエリに高速に答える方法を紹介してくれている
    • http://pekempey.hatenablog.com/entry/2015/11/06/193123
    • 実装するときはLCA(u,v)を含むパス以外はすべて[0,x]という形のクエリになっていることを意識するとやりやすい。
    • O(log^2 n)なのかー…
    • HL分解には辺クエリと点クエリがあるので、両方ライブラリを作っておかないといけない?それとも、子に辺のデータを載せれば拡張せずにできる?

トポソされた木の制約

  • For each i, parent[i] will be between 0 and i, inclusive.
    • 有名な木の制限
    • 任意のグラフに対して、この条件だけで、
      1. 木だし
      2. ループないし
      3. 自己ループないし
      4. 多重辺ないし
      5. 予めトポソされている
    • トポソされている木は、以下で超簡単に深さが求まる(配る再帰が、再帰不要になる!!(集める再帰は??逆から見ればOK?))
rep(i, n) if (i) {
  d[i] = d[parent[i-1]] + 1;
}

heap

  • decrease_key
    • dijkstra法で使用すると計算量が落ちる
    • 実用速度としてはシンプルな二分ヒープ+読み捨てに勝てないが
    • 整数なら基数ヒープはかなり早いが

再帰

返り値をメモするタイプの再帰

  • 異常条件→メモ条件→遷移→メモ→return
int f(int i, int j) {
	if (i < 0 || j < 0 || i >= n || j >= n) return 0; // 入力異常条件
	if (memo.count(P(i, j))) return memo[P(i, j)];	// もう答え知ってる

	int ret = 0;
	rep(d, 4) ret+=f(i+di[d], j+dj[d]);

	memo[P(i, j)] = ret;
	return ret;
}

条件を満たし続ける再帰

  • 異常条件→メモ条件→メモ→自分→遷移→return
  • 処理されているということは、必ず条件が満たされている、という再帰
int f(int i, int j) {
	if (i < 0 || j < 0 || i >= n || j >= n) return 0; // 入力異常条件
	if (field[i][j] != 'o') return 0;	// 探し物じゃない
	if (memo.count(P(i, j))) return 0;	// もう来てた
	memo[P(i, j)] = true;			// 次からは来ない

	int ret = 0;
	ret += point[i][j]; // 自分を取って
	rep(d, 4) ret+=f(i+di[d], j+dj[d]); // 近くのを取りに行く

	return ret;
}

座標圧縮

絶対値

  • 絶対値がaと-aの大きい方
    • 結構重要な知見

DP

  • 関数\( f(s) \rightarrow t, s \in S \)を考えて、それぞれの状態\( s \)について遷移後状態\( T_s \)を考える。\( s = g(f(t_1), f(t_2), \cdots, f(t_{|T_s|})) \)を計算する方法。ただし、T_sにエッジを張ったグラフがDAGである!
  • DP の遷移とか書きながら詰める訓練を積んだほうがいい。「いける」って思ったら細部詰めずに書き始めよう。

DPの状態

  • DPの状態集
    • 「i人見て」
    • 「直前maskで」
    • 「j人余って」
    • 「最後にjさんを見て」
    • 「i人、i人グループ以上を許容するという制約を付けて」
    • 「直前にAが出てきたのが添字iで」
    • 「S の残りの部分に対する処理を行う方法」の個数のように、前を状態に持つのと後を状態にもつのと両方あり得る。こういう後が不明なDPの場合、「i番目を観測して、どういう状態がありえたか?」を網羅して足し合わせる感じ
    • 「DPで状態をNにしたいならばどこかに境界線を引かざるを得ない」という直感。境界で状態を持つ MUJIN 2018 F

DPの見通し

  • 配るDPは大きめに作っておいて、必ず全状態を操作する。
  • もらうDPは大きめに作る意味が無い。

DPに関する愚痴

  • DPはとにかく、ある状態にいる人の気持ちになって考える=状態を固定した時に、次にどこに行くか、を考えることが非常に大事
  • 難しさ
    • 分かったつもりで実際に問題をといても、アクセプトされない。
    • デバッグしにくいので、しかも何でアクセプトされないかわからない。
    • 解説を見ても、DPは図を書かないと絶対理解不能。漸化式を文章で書かれても困る。
  • DPの類型化
    • 本当はやりたい。
    • 無理矢理でもとにかく大量の(200問以上の単位で)ものを分類したい

参考

DPの漸化式

  • コツ
    • 「i未満の添字を使って」という表現をする
    • 「〜が確定している時」という表現をする

DPの種類

名前特徴できること
戻るDP漸化式の方向が逆のもの特になし
配るDP漸化式の関数が可換、かつ漸化式の関数に単位元が存在し、かつ更新前の添字から更新後の添字を計算可能実装が楽。配れないならcontinueできる
集めるDP更新後の添字から更新前の添字を計算可能汎用的
前回のみに依存するDP空間計算量が抑えられる。DP配列を2だけ用意して偶数奇数で分ければいい。配る前回のみに依存するDPは初期化に注意
使い回すDP前回のみに依存し、かつ更新式が後ろにのみ依存する場合、添字を前から後ろに回して、空間計算量を更に抑えられる。DP配列を使いまわせるので。
制限するDP考える添字を、条件によってうまく使い分ける。Codeforces 416 D2C

DPのデバッグ

  • コツ
    • 変更後の状態を
    • 別のループで
    • 自明でないものだけ出力!

DPはメモ化再帰のループ版

  • メモ化からの漸化式構築=動的計画法
    • 「これまでに得られる〜」をメモ化する
    • 幅・深さ優先探索のメモ化のときに保存した状態と、ここで計算するテーブルの状態変数は一致する
    • 「ありえない組み合わせ」というものが存在する
  • DPは指数計算量探索の合流である
    • 探索の「状態」と「合流法則」を抽出したものがDPとなる
    • まず指数計算量探索を図示してみる
    • 丸の中に状態(=添字や重さや価値)を書いたグラフを書いてみる
    • すると、合流を見つけることができる。合流のルール(=その上流すべての情報の集め方)を抽出する
    • 状態と合流から自動的にDPが計算できる
  • 初期条件は初めが決まっていることも、深いところの拘束条件があることもある
    • DPでは深いところしか決まっていないとやりづらい
    • 場合の数も、初めに自明に決まる場合の数から始めるとDPが楽になる

何を考えるべきか

  • 自明な条件(=初期条件)はないか
    • 「1個も取らないと答えは自明に0」
    • 「最後の1つだけを取ると自明に1」
  • 1セット
    • 状態を適当に定めてみる
    • 今の状態から次の状態がどう決まるかを考えてみる
    • 次の状態が今の状態から統合されるかを考える
    • 何の情報が足りないかを考え、情報を状態に追加する

全探索との対応

グラフ分析メモ化探索DP
状態ノード引数DPテーブル添字
ノードに付属する値返り値DPテーブル
遷移上から下への操作再帰関数(更新)漸化式(代入演算)
結合法則二つ以上のノードから一つへのリダクション再帰関数(結合)漸化式(左辺値)
初期条件初めのノード関数呼び出し境界条件

使い回すDP

  • テーブルを使い回して空間計算量と、計算時間の定数倍高速化ができるDP
    • 直前にしか依存しないDPの進化版
  • 考察を頑張ると実装が楽にタイプのテクだから乱用していきたい
  • 定数倍時間早くなる理由
    • テーブルに値がデフォルトで入っているので
    • 自分に何もしない遷移がある場合に、速い。配るDPでchmin(dp[i+1][j], dp[i][j])があるケースなど。
    • 配る場合、デフォルトでdp[i+1][now] += dp[i][now]がなされる(これが嫌ならばdp[i+1][now]-=dp[i][now]をしておく)
    • 集める場合はデフォルトでdp[i+1][j] = dp[i][j]がデフォルトで入っているが、これは始めてそこに遷移できる場所なので、嫌ならばdp[i+1][j] = 0としてもよい。
  • 使える問題クラス
    • 集めるDPでは一般的にはdp[i+1][j] = f(dp[i+1][0, j), dp[i][j, n))のみに依存する場合に使い回すDPができる
    • 配るDPではこれにfが可換モノイド演算のsumの形式になっている必要がある
    • 配る・集める向きが逆でも、逆向きに見る使い回すDPで行ける

reuse_dp_table.jpg

桁DP

  • A未満の非負整数を数えるが入門に非常によいと思う。
  • A: N桁の数字
  • dp[i][j]: 以下の状態の時の場合の数
    • i: 上からi桁目の自然数集合において (i=0, 1, ..., N, inclusive. つまりi=0では空集合を見ている)
    • j: A未満であることが確定している (j = 0, 1)
#include <iostream>
#include <string>
#define rep(i, a) for (int i = 0; i < (a); i++)
using namespace std;
CTRL: Left Allegro Hand controller initialized.
const int mod = 1e9 + 7;
int dp[101010][2]; // pos, less

int main() {
    string A;
    cin >> A;
    int n = A.length();

    dp[0][0] = 1;
    rep (i, n) rep (j, 2) { // DPテーブルの結合則の数 「DPテーブルから決まっていく様子を想像する」というのはこれを思い浮かべること。
        int lim = j ? 9 : A[i] - '0';
        rep (d, lim + 1) { // DPテーブルの結合則の具体的な計算数。「DPテーブルから決まっていく様子を想像する」というのはこれを思い浮かべること。
            (dp[i + 1][j || d < lim] += dp[i][j]) %= mod;
        }
        // dp[i + 1][0] = dp[i][0]; d[i + 1][1] = (A[i] - '0') * dp[i][0] + 10 * dp[i][1];
        // でもいいはず。でも与えられたdによってDPテーブル添字が一意に決まるので、上のようにdで全探索している
    }

    int ans = 0;
    rep (j, 2) (ans += dp[n][j]) %= mod;
    cout << ans << endl;
    return 0;
}
  • たまに、「上からi桁見て後が全部0で埋まっている…」みたいなDPが必要になることがある。(ARC52 D)

実装の構造

dp[初期状態] = 初期値;
for (状態) {
    for (遷移) {
        次の状態 = 遷移(状態);
        dp[次の状態] = dp[状態];
    }
}
  • コメントの書き方
// ↓のようにコメントを書いておくとよい
dp[i + 1][k][j] = (dp[i][k][j] //i番目は選ばない
                 + dp[i][k - 1][(j - i + N) % N]) % MOD //i番目を選ぶ

初期値

  • 探索がベースの DP はどこから始めれば全列挙ができるか考えると自然に初期値が定まる
    • 初期値を定めることは探索ベースの時の関数呼び出しに相当する!初期値
    • 初期値はDPの定義外.(そうじゃないと,空集合に対する場合の数みたいなのって扱われるべき?i=0, つまりAが空集合の時の場合の数が自明になる?A未満であることが確定している(j = 1)、「空集合」の元である自然数の場合の数は?→0A未満であることが確定していない(j = 0)、「空集合」の元である自然数の場合の数は?→1???本当に???みたいな悩み方をすることになる)
  • ナップザックのような数え上げの問題では,初期値は0となる.

一方向に依存するDP

  • DPで漸化式が前にのみ依存している=ループを逆に回せば、後にのみ影響するDPを実現可能
    • 一方向にのみ依存するDPは、用意する配列を1つだけに抑えることができる=漸化式が後にのみ依存している場合、i+1->iとして同じ配列を使いまわしていい(なぜかというと、DPの材料が必ず新鮮だから)
  • d[i+1][j] = d[i][j]+d[i][j+1];
    1. i: 0 1 2 3 4 5
    2. 0: 0 2 7 5 3 2
    3. 1: 2 9 12 17 20 22
    • ↑を0の配列のみを使って更新してみよ

区間DP

  • 数列や盤面に対して、非常に典型的なDP
    • 数列の典型区間DP dp[i][j] := [i, j]の区間での最大値(閉区間)
    • 盤面の典型区間DP dp[i][j][k][l] := (j, i)(左上)から(l, k)(右下)の盤面での最大値(閉区間)
  • 例えば50*50の盤面で、左上から右上に移動するパターンは2^100くらいあって無理ゲーだが、区間DPを使うと50^4となり現実的に
  • 例題
    • 数列: SRM 693 D1E
    • 盤面: AOJ Stack Maze
    • 盤面: ABC 8D
  • 環状区間DP
    • 「first枚目からcount枚の連続した区間の中から」みたいにやる

bitDP

  • bitDPのコツ
    • 「部分集合と初めと終わりさえ決まっていれば、余集合の最適解は変わらない」
      • 初めを持つ必要がないことが多々
    • n!はダメだけど2^nがOK系は、とにかくbitで状態を持つことを考える。
    • http://www.slideshare.net/iwiwi/ss-3578511 (50ページ目がわかりやすい)

最後を全て持つDP

  • 和風いろはちゃん

挿入DP

確率DP

  • 確率のDPは条件付き期待値を計算すると良い(つまり今までのことを考えてはならない!!!)
    • これは、DPの遷移で、その和が必ず1になるように注意できるから。assertとかも最悪掛けられる。
    • 656 D1E
  • 確率DPは、未来が未知であることを加味した世界線を状態を設定しなければならない。「ここまででどういう状況で、未来は未知である」と表現する。
    • 未来が確定した最終的な状態が境界条件となるので、メモ化再帰と相性がいい。
    • 確率DPの遷移では、ある世界線での戦略は、その世界線から移動可能な世界戦となる。
    • 確率の遷移は、遷移可能な世界線の確率と、足して1になるようなw_iによる内積となりがち
    • 遷移は未来の固定(不確定要素を残した状態を確定していく過程となる)
  • 確率の状態遷移図があって、iからjに行くための遷移回数の期待値は? どうやって期待値を集めるの? 確率変数 X(s) = 「状態sからゴール状態に到達するまでに必要な操作回数がiである」という事象に対する確率変数 事象「操作回数がi回である」に対応する確率はP(X(s) = i) E[X(s)] = sum i P(X(s) = i) Y(s) = 「状態sにいる時に、操作を1回して状態sからtに遷移する」という事象に対する確率変数 この時、期待値DPでは、 E[X(s)] = sum_{sから遷移可能な状態t} P(Y(s) = t) (cost(s -> t) + E[X(t)]) であるらしい Jみたいなのは分配法則の気持ちになると分かりやすくて、例えばゴールまでの遷移列を列挙するとpqr, pst, abc, adeになったとして、これらはp(qr + st)とa(bc + de)に分割でき、qr + stもbc + deもある頂点からゴールまでの遷移列を列挙したものなので、これを使えば再帰的に色々定義できる。そう考えるとDAG上でE[trans(s)] = \sum_{t} P(s -> t) (cost(s -> t) + E[trans(t)])みたいな式が成立するのが自明に見えて来ます(trans(v)はvからゴールまでのコスト) 期待値の線形性 https://abc008.contest.atcoder.jp/tasks/abc008_3 直感的には、コインの枚数の総合計は、組み合わせごとに区 切って数えても、各コインが全組み合わせのうち何 通りの組み合わせで表を向くのかという数え方で数 えても一致します。よって、それぞれのコインにつ いて、そのコインが、何通りの並べ方で表を向くの かという方針で計算することにします。期待値に全事象をかけることを考えると、 sum_組み合わせ sum_コインの数 コインiが表 = sum_コインの数 sum_組み合わせ コインiが表 みたいになっている。 例題2 各桁が独立に確率 12 で 1 か 2 であるような 9 桁の数字の並びがある。このとき「 111 」と並ぶ部分の個数の期待値を求めよ。例えば「 111221111 」は1〜3,6〜8,7〜9番目の三箇所とみなす。

解答 1〜3の部分が「 111 」と並ぶ確率は 18 。同様に他の部分についても 1 が三つ並ぶ確率は同じで,候補は7箇所あるので,18+18+⋯+18=78

このように,確率変数たちが独立でない場合も期待値の線形性は成立します。 これは各事象についてE[sum (X_i == 1 && X_{i+1} == 1 && X_{i+2} == 1)]を計算していて、そのsumを求めている

事象の変形が苦手すぎるんだよな。P(X)とかE[X+2 = 5]などの、中身の部分は、ランダムではなく事象が固定されたとみなして変形する!!!!!事象の変形では、cupで変形する(X(s)=iということは、cup_t s->t and X(t) = i - cost(s -> t)など) 確率変数同士の四則演算等はちゃんと確率変数になる E[X]はXの事象をひとつ取ってきてるし、E[X=1 && y=2]は01をとる。 確率変数列X_iに対してE[sum(X_i + X_{i+1})]も、sum(X_i + X_{i+1})は「コインをn枚振って、sum(X_i + X_{i+1}) = xとなる事象に対応する確率変数」である

E[X(s)] = sum_{sから遷移可能な状態t} P(Y(s) = t) (cost(s -> t) + E[X(t)]) の証明(操作回数の期待値) 「排反事象の和の確率は確率の和」「有限個の総和の入れ替え」「j=i-c(s→t)の置き換え」を使っている。確率の変換は、いろいろなテクニックを駆使する必要がある。特に問題特有の構造みたいなものは、事象レベルでの議論をするのが良さそう。

範囲を選択_206.png

未確定のDP

  • 「n個未確定で」というタイプ
  • AOJ 箱根駅伝

問題特有の構造による状態削減

  • yukicoder ドーナツ
    • ストレス溜めすぎるのは良くない
  • Rabbit Walking

包除原理のDP

  • AOJ Hyperrectangle

経路復元

  • 経路情報を持っても良いし、経路情報を持たず実際のdpテーブルの値だけを見ながらシミュレーションしてもよい
    • 後者の方が筋がよいというか実装量が減る傾向にあるらしい。
  • 動的計画法の復元
    • 上記の方法の効率悪い部分を解決できる有力な方法は
    • 各マスの値を更新するときに、ついでに、どのマスから伝播して来たかをメモしておく
  • minのDPや最短経路長から、「最適な選び方」や「最短経路」や「最短経路の個数」や「辞書順最小な最短経路」を復元する方法。
  • 各地点 v でゴールからの距離 d[v] を計算して、「e=(v,w) がゴールへの最短経路に含まれる道である <=> d[v] = (eの重み)+d[w] 」を利用して、貪欲に適切な道を選んでいけばいい
  • 結論:以下の2つの概念を使うとDAG上の問題に落ちてDPができるようになったりする
    • 最短経路DAG:最短経路として使われうる辺のみを残す。i->jの辺は、iにおけるjへの遷移が最適解として使われうる時に限り張る(D[j] = f(D[j], i->j))
    • 到達可能最短経路DAG:最短経路DAGのうち、始点sから終点tへの経路として使われうるもの
  • 到達可能最短経路DAGの必要性と計算方法
    • 最短経路DAGだけでは、終点に到達しない可能性がある。
    • なので、誤ったアルゴリズムとして、「始点sから最短経路DAGを辿って、終点tにたどり着けばよい」、みたいなのを考えがちだがこれはダメ。
    • 到達可能最短経路DAGの構築は、最短経路DAGの逆辺グラフに対して、tから到達可能な辺のみ残すとできる。
  • 経路のみ欲しい場合は?
    • 到達可能最短経路DAGを構築するとDPができるようになって嬉しいが、実装重い。
    • 始めからDP更新時に逆辺を張っておいて、終点tからDFSすれば必ず始点sに到達する(そこからスタートしたので)というアルゴリズムを組めて実装が軽くなる。
  • DPでバグった時は、間違ってるところを見つけて経路復元したほうがよい。その場合全探索コードを書くこともできる
  • ARC 32C 仕事計画
    • 経路復元用の複数の情報を載せる(DP[i] = (x, y), xは時間yは次の最小位置)
  • ARC 81 - E - Don't Be a Subsequence
    • 具体的な構成の問題だが、まず最小値を求めるDPを書き、それの経路復元として構成を与える

戻すDP

  • ってなんですか?

インラインDP

  • 例題: Code Festival 2019 Qual A - D
    • 後ろから見ていく集める DP をすると分かりやすい
    • 累積和を動的に求めていく方法は初めて見た(logかけてsegtreeで足しこんでいっちゃった)

戦略DP

  • 未来が不確定の場合、「iまで見て、その後最適解を行った場合の…」というようなDPになりがち
  • ARC 32C 仕事計画
  • ARC ??B せんべい

区間集合DP

  • 遷移が、「区間を取るか取らないか?取ったら、今見ている区間の最後までワープする」みたいになりがち
  • ARC 32C 仕事計画
  • Codeforces ??? D2D - My pretty girl Noora

制限付きDP

  • Codeforces 416 D2C(「座標iの右端にかぶる区間の左端がiを全て上回るような…」とかいう意味不明な状態を含める)
  • SRM 653D1E 複数制限があるけど、初めにあたった制限のみを展開すると、再帰的に網羅できる。

連結DP - 接続関係のDP

Monge

  • DPはいくつか高速化できるパターンがある。
  • 性質の定義
    • チョイス=minを与える遷移k
    • チョイスの単調性=状態が増加するごとにチョイスも増加
    • Quadrangle Inequality(QI) = 全ての\( i \le j \le k \le l \)について\( w(i, l) + w(j, k) \ge w(i, k) + w(j, l) \)であること
    • Inverse Quadrangle Inequality(IQI) = 全ての\( i \le j \le k \le l \)について\( w(i, l) + w(j, k) \le w(i, k) + w(j, l) \)であること
    • Monotone minima = \( w(i, j) \)\( w(i, *) \)での最小値\( m(i) \)が単調
    • Totally Monotone Minima = \( w(i, j) \)の任意の小行列について、\( w(i, *) \)での最小値\( m(i) \)が単調
    • Closest Zero Point = \( w(i, j) \)を状態\( i \)のための遷移\( j \)による候補とすると、任意のxについて\( w(i, r) - w(j, r) \ge x \)なる最小の整数\( r \)\( O(1) \)で計算可能
  • DPと書くと目がチカチカするので式\( D_i \)とします
名前DP求める性質高速化前高速化後例題備考
Convex Hull Trick 1D\( \displaystyle D_i = \min_{0 \le j < i}\ f(D_j, j)+g(i)h(j) \)\( g(i), h(j) \)が単調でかつ単調性が逆\( O(n^2) \)\( O(n) \)$p, p, p, p
Convex Hull Trick 2D\( \displaystyle D_{i, j} = \min_{0 \le k < j}\ f(D_{i-1, j}, j)+g(j)h(k) \)\( g(i), h(j) \)が単調でかつ単調性が逆\( O(k n^2) \)\( O(k n \log n) \)p(おすすめ), p, p
Divide and Conquer 0D\( \displaystyle D_i = \min_{0 \le j < n}\ w(i, j) \)\( w(i, j) \)がMonotone Minima\( O(n^2) \)\( O(n \log n) \)web、DPではない
Divide and Conquer 2D\( \displaystyle D_{i, j} = \min_{0 \le k < i}\ D_{i-1, k} + w(k, j) \)wがQI(だと、チョイスが単調になる。すなわち\( A_{i, j} \le A_{i, j+1} \))。また、w(k, j)は区間拡大縮小さえ高速に計算できればよい。\( O(d n^2) \)\( O(d n \log n) \)p(おすすめ), p, p(尺取るコスト)Convex Hull Trick 2Dで解けるものは全てこれも適用可能?
Bar-Noy's Optimization\( \displaystyle D_{i, j} = \min_{0 \le k < i}\ D_{i-1, k} + w(k, j) \)\( w(i, j) \)がQIもしくはIQI。\( O(n^2 d) \)\( O(n d) \)[6] まだ理解していない。Divide and Conquer 2Dの上位互換っぽい
Knuth-Yao's Optimization\( \displaystyle D_{i, j} = \min_{i<k<j}\ (D_{i, k} + D_{k, j}) + C_{i, j} \)CがQIを満たす(すると、チョイスが縦にも横にも単調になる)\( O(n^3) \)\( O(n^2) \)p[1]
Zvi-Giancarlo's Optimization\( \displaystyle D_i=\min_{0 \le j < i}\ f(D_j, j)+w(j, i) \)\( w(i, j) \)がQIもしくはIQI。\( O(n^2) \)\( O(n \log n) \), wが更にClosest Zero Propertyを満たすならば\( O(n) \)p[2]、Convex Hull Trick 1Dで解けるものは全てこれも適用可能?
Eppstein's Optimization\( \displaystyle D_{i, j} = \min_{1 \le \hat{i} < i, 1 \le \hat{j} < j}\ f(D_{\hat{i}, \hat{j}}) + w(\hat{i}+\hat{j}, i+j) \)\( w(i, j) \)がQI\( O(n^4) \)\( O(n^2 \log^2 n) \)[3] まだ理解していない
SHAWK\( \displaystyle D_i = \min_{0 \le j < n}\ w(i, j) \)\( w(i, j) \)がTotally Monotone Minima\( O(n^2) \)\( O(n^2) \)[4], web
  • [1] Donald E. Knuth. Optimum binary search trees. Acta Informatica, 1:14–25, 1971.
  • [2] Galil, Zvi, and Raffaele Giancarlo. "Speeding up dynamic programming with applications to molecular biology." Theoretical Computer Science 64.1 (1989): 107-118.
  • [3] Eppstein, David, Zvi Galil, and Raffaele Giancarlo. "Speeding up dynamic programming." Foundations of Computer Science, 1988., 29th Annual Symposium on. IEEE, 1988.
  • [4] A. Aggarwal, M. M. Klawe, S. Moran, P. Shor, and R. Wilber: "Geometric applications of a matrix-searching algorithm", Algorithmica, Vol.2, pp.195-208, 1987.
  • [5] L. L. Larmore and B. Schieber: "On-line dynamic programming with applications to the prediction of RNA secondary structure" Journal on Algorithms, Vol.12, pp.490-515, 1991.
  • [6] A. Bar-Noy, M. J. Golin, and Y. Zhang: "Online Dynamic Programming Speedups", Theory of Computing Systems, Vol.45, No.33, pp.429-445, 2009.
  • Convex Hull Trickの解説

DPOptimizationConvexHull.jpg

その他

  • CF438F
    • 分割統治と monge
  • Yao-Knuthは変更点が非常にすくなくてわかりやすいね。。K[i][i] = iで初期化してやるだけ
  • いろんなパターン
    • X(i) = min_{j<i} { X(j) + w(i,j) } 型のDPは,wがMongeなら O(n) で計算可能(これめっちゃすごいので是非勉強したい)
    • X(i,d) = min_{j<i} { X(j,d-1) + w(i,j) } 型のDPは,wがMongeなら O(nd) で計算可能
    • f(i,j) がMongeのとき,「各 i について最小を与える j」を全部求めるのは O(n) で計算可能
    • X(i,j,p) = min_{i≦s<j} { X(i,s,p) + X(s+1,j,p-1) } + w(i,j) 型のDPは,wがMongeかつ単調なら O(n^2 p) で計算可能(一般化Knuth-Yao 一般化ハノイの塔)

Mongeの気持ち

  • Mongeと行っているものは数学的に華麗だが、別に4角不等式はコンテスト中に証明できるものでもないので、DPのminを与える添字kがi, jについてともに単調、という表現で一般化したほうが実際の設計には役に立つ。
    • minを与える最小のkをK[i][j]とする。mongeを考えるときは、f(i, j, k)のkを固定した2変数関数がmongeかどうかを議論する。minみたいなのが大事!もしgがあるなら、これはMongeかつ単調でなければいけない。個々別には、基本的には、Kテーブル上での不等式で考察することになる。
      dp[i][j] = mink < j{dp[i - 1][k] + C[k][j]}一般的に
      ・K[i][j] <= K[i][j+1]・・・①
          あるiで、jを動かした時に、kの探索範囲を減らせる具体的には、以下のように回せば良くなる。
          dp[i][j]=min_{k \in [K[i][j-1], j)} (f(i, j, k))
          でも、これでは最悪ケースだと、for all j K[i][j] = 0の時にO(n^2)、と思いきや、この性質+CがmongeでO(log n)に落ちる (分割統治法)
      ・f(i, j, k)がkについて凸関数
          Kが上昇した時点で探索をやめて次に行くことができる。
          でも、これだけでは最悪ケースだと、極小値がめっちゃ奥にあるケースでO(n^2)、と思いきや、3分探索することによってO(log n)に落ちる
dp[i][j] = mini < k < j{dp[i][k] + dp[k][j]} + C[i][j] このケースに限定
・K[i-1][j]<=K[i][j]<=K[i][j+1]
   これが満たされているだけで、計算量が落ちる。
   DPテーブルを斜めに埋めていく(要するに、区間[i, j)の長さlenに関して小さい順に埋めていく)ことができる。min_[k \in [K[i-1][j], K[i][j+1]] (f(i, j, k))
   満たされているかどうかの直感的なチェックは、[i, j)の区間を広げたり狭めたりするとわかりやすい
   数学的なチェックは、a<=b<=c<=dについてC[a][c]+C[b][d] <= C[a][d] + C[b][c]かつC[b][c] <=C[a][d]ならば、上の条件が満たされる(十分条件)。また(f*g)(i,j) := min{i≦s<j} { f(i, j) + g(i, j) }は、f, gがmongeなら

dp[j] = mini < j{dp[i] + C[i][j]} CがmongeならばO(n) http://codeforces.com/blog/entry/8219#comment-139241

Monotone minima

  • 「行ごとの最小値の配置が(行列として見たとき)右下に単調に下がっていく」(重要!というかこれが本質)
    • totally monotone minimaはそれの強いバージョン(部分行列に限ったとき,その中の行最小値配置が単調)
  • mongeならばTM(逆は不成立)
  • KYスピードアップと、TMスピードアップというものがある。しかし、Bein-Golin-Larmore-Zhang(2009)でKYできるならTMできることが示されたので、アルゴリズム的には大して変わらない
  • KYとTMによるアルゴリズムのちがい
    • Monotone minimaならO(m log n)でできる。これが所謂分割統治と言われているやつ
    • TMMinimaなら、SMAWKアルゴリズムでO(n+m)でできる。
  • どんなやつがSMAWKかというと、「最近点問題」の特殊版
    • 入力:平面上の点集合 P, Q,ただし P は x 軸上に乗っている
    • 出力:各 p ∈ P に対する最近点 q(p) ∈ Q。f(p,q) := d(p,q) とおくと,
    • P, Q が x 座標でソートされているとき,f は Totally Monotone となり,したがって SMAWK が適用できます.
  • (Not tottaly) Monotone Minimaの時はa[i][j]<a[i][j+1]が満たされているとは限らないが、四角形2つを分割するD&Cになる。tozanさんのスライドも同様。
  • 何が言いたいかというと、D&CはSMAWKの前の奴とa[i][j]<a[i][j+1]のやつで2つある
  • こないだのD&Cでのコストが具体的に計算どうするのか(結論、あのD&Cはコストが左右両方に尺取りO(w)で(n w log n)が行ける)みたいな計算論的な問題もあってですね。
  • Monge(O(n^3)->O(n^2))<Totally monotone(SMAWK, O(mn)->O(m+n))<Minima(O(mn)->O(m log n)) という構造
  • Monge.cppを、Monge, Totally Monotone, Monotone, n!=m,の性質と、何が使えるか(SHAWK, 分割統治、KY Speedup)をきちんと整理して出すようにする
  • f(i,j) がMongeのとき,「各 i について最小を与える j」を全部求めるのは O(n) で計算可能( A. Aggarwal)が、SHAWKのこと
  • mongeの重要なポイント!DPテーブルの一番端っこが埋まっていること!つまり、DP[n][n]であること。なぜかというと、DPから外れたところの上限を参照し始めてしまうから。つまり、mongeで高速化される領域はDP[n][m]の場合にはmin(n, m)^2にしかならない!

不思議なDP高速化

  • Codeforces Round #422 (Div. 2) D. My pretty girl Noora
    • なんだっけこれ
  • AtCoder? ARC 44C - ビーム
    • 自明DP O(HWW)
      • 状態
        DP[i][j] = i秒目に座標jにいる時の最短コスト 
      • 遷移
        DP[i][j] = inf (i秒目に座標jにビームが飛んでくる)
        DP[i][j] = min_{0 <= k <= w} D[i-1][k] + |j-k| (i秒目に座標jにビームが飛んでこない)
    • これを以下によって改善すると
      1. マンハッタン距離を局所的に見ると近くで距離1
      2. ビームが飛んでくる数が疎
      3. 時刻0.5の状態を作る
    • 改善DP O(Q)
      • 遷移
        DP[i+0.5][j] = DP[i][j] (時刻iで座標jにビームがこないなら)
        DP[i+0.5][j] = min(DP[i+0.5][j], DP[i+0.5][j-1]+1) (時刻iで座標jにビームがくるなら)
        DP[i+0.5][j] = min(DP[i+0.5][j], DP[i+0.5][j+1]+1) (時刻iで座標jにビームがくるなら)
        ビームが来ない遷移がQW-Q回と大量に行われることに着目すると、DPテーブルを使い回すことによってO(Q)で上記の遷移を実装することができる。
        
        また、DP[i+0.5]からDP[i+1]への遷移はビームが来る場所が行けないというだけなので、
        DP[i+1][j] = INF (時刻i+1で座標jにビームがくるなら)
        DP[i+1][j] = DP[i+0.5][j] (時刻i+1で座標jにビームがこないなら)
  • Code Festival 2017 予選C D
    • 条件を集合の演算にしてminを入れ替えると、漸化式の中に漸化式が出てきて高速化される

状態と格納された値を交換するテク(min, max)

DPではない

  • DPのように見えるが、さらなる高速化のためには考察が必要な問題
  • ARC60D
    • 実は答えが2以下であることを利用する

典型

  • 分割数
    • NをK個の整数に分割する方法は何個あるか?
    • N番目を求めることもできる
    • http://d.hatena.ne.jp/DEGwer/20170829 に書いてあり、一般的なテクニックなので理解すべき
  • 01ナップザック
    • 逆順に使い回すDP
  • 部分集合を全列挙するbitDPはO(3^n)である
    • 理由は(1+2)^nの二項展開を考えると自明
    • ちなみにO(4^n)は自明。\( S \)\( O(2^n) \)で固定する。\( i \cup mask \)なる\( i \)\( O(2^n) \)で全列挙すればよい。
# jのループが、iの空ではない部分集合を全列挙している
int dp[32768]={0};
rep(i,1<<n)for(int j=i;j>0;j=(j-1)&i)dp[i]=max(dp[i],dp[i^j]+mazeru[j]);
# jのループが、iの全部分集合を列挙している(雑だけど)
int dp[32768]={0};
rep(i,1<<n) {
  bool first = 0;
  for(int j=i;j>=0;j=(j-1)&i) {
    if (j == 0 && first) break;
    if (j == 0) first = 1;
    dp[i]=max(dp[i],dp[i^j]+mazeru[j]);
  }
}

関数DP

  • 状態に連続値が入る場合、関数を持つ必要がある (ARC 72F)

最小値のDPは遷移をサボれる

  • DPはお気持ちが大切と思ってる立場としては、「組み合わせの個数を求めるDPと、最大値を求めるDPの、決定的な違いはなんですか?」というのを割と考えてほしいなぁとよく思ってます(この辺は記事にするつもりでめんどくなってやめた)
  • 組み合わせは、「辺が切れる」ってのがあんまりないんだけど、最大化・最小化は「辺を切る」ってのが出来ることが結構多い
    • こうなんか、数え上げだと「この遷移を考えるのは無駄」みたいなのは絶対ないんだけど、最小化だと「この遷移は考えなくて良い」みたいなのが大量発生する、みたいな。
  • dp[i][j]=min{dp[i-1][k]+L[k] | j<=k}+R[j]みたいになるL,Rがあるなというところからスタートするとよさそう、逆方向にもう一本式があるけど
  • 実家処理として
    • dp[i][j] = max{dp[i-1][k]+L[k]+F([k,j])+ R[j]}みたいな構造を
    • dp[i][j]=max{(L[k]+dp[i-1][k])+F([k,j])}+R[j]
    • として
    • dp[i-1][j]+=L[j]
    • dp[i][j]=max{dp[i-1][k]+F([0,k-1])}
    • dp[i][j]+=F([0,j])+R[j];
    • みたいに分けることが重要だと思っていて
    • でこういうのはもらう愚直DPをかくとみえやすくて
      for(i=1 to n) {
        for(j=0 to m) {
          sum=0;
          for(k=j to m) {
             sum+=A[k];
             dp[i][j]=max(dp[i][j], dp[i][k] + L[k] + R[j] + sum);
          }
        }
      }
    • で明らかにR[j]の部分は後から足せばよくてL[k]は事前に足しておけばよいため

遷移をくくり出すことによるDP高速化

  • なんか遷移がk個あって混み合っている場合、k=0をくくり出すと高速化されるケースがある
  • \( D_{i+1, j} = \max_{0 \le k} D_{i,j-k w_i} + k v_i \)
    • \( = \max_{1 \le k} (D_{i, j}, \max(D_{i, j-k w_i}+k v_i)=\max_{0 \le k} (D_{i, j}, \max(D_{i, j-k-1 w_i}+k v_i)) \)とくくり出す
    • すると、\( D_{i+1, j} = max(D_{i, j}, D_{i+1, j-w_i}+v_i) \)となり、計算量が落ちる。
  • 蟻本 - 重複組み合わせ、も同じ方法で計算量が落ちる

遷移の中のmin, maxの単調性

  • \( D_{i, j} = \max_{0 \le k<i}(D_{i-1, k} + \min(x, a_j-a_k)) \)
  • minでどちらが選ばれるか?に対して、kが単調。したがって、\( x>a_j-a_k \)となる最小の\( k = m \)を事前計算しておくことで、RMQで解けるようになる。

DP内DP

集めるDPと配るDPの変換

  • 配るDPと集めるDPの機械的変換
    DP[i+1][j+a_i] <- DP[i+1][j]+b_i
    DP[i+1][j] <- DP[i+1][j]
  • だとすると、それぞれの左辺の添字をi', j'のように置いてj=f(j')の形にできれば良い。
  • 集めるDPでは、集める元のDPが有効かどうかを確認する必要がある
    • if (DP[i][j] != INF) など

使い回すDP

  • 使い回すDPは数式と実装が食い違う
  • コメントに「通過しているときは…」「通過していないときは…」という注釈をつけるのが良い。
    // dp[j][h] = 
    // i番目のループで
    //      j, hがもう通過しているときは、ちょうどi個見てコストjでAがhである時のBのmax
    //      j, hが今かまだ通過してないときは、ちょうどi-1個見てコストjでAがhである場合のBのmax
  • 使い回すDPでは、添字が全部マイナスなら逆順、全部プラスなら正順と覚えてしまおう。

循環するDP

環状に循環参照しているDPの更新は、何周か愚直に更新すればいいことがあるわ。例えば、dp[0]=min(dp[0],dp[1]+1),dp[1]=min(dp[1],dp[2]+1),...,dp[k-1]=min(dp[k-1],dp[0]+1)という操作を同時にやりたい場合は、k-1から0の順番に2周して更新すればいい。

状態削減

  • 「i個見て、j個やって、最後にhで処理した場合の最小値」などで、hを削減できることがある
    • どこで最後に選択かわからなくなる場合、i個の最後で必ず選択するという拘束条件を状態に明示すれば、状態の自由度を下げずに集めるDPができる「i個見て、最後は必ずやったとして、それを含めてj個やって…」
    • Code Festival 2016 Tournament 3A

木DP

  • 頂点に状態を載せて、ある頂点の状態を更新するためにその子すべての状態がわかれば更新できるという場合に使えるDP
  • 頂点に載せる状態は、スカラの場合もあるしDPテーブルそのものである場合もある。
    • DPテーブルを載せて、大きさL, Rの子をマージするのにO(LR)かかる場合であっても、全体の計算量はO(n^2)であることが知られている。二乗の木DP。

二乗の木DP

  • 要するに頂点の状態としてDPテーブルを持つDP
  • 通常子の状態を全部集めてから頑張るぞーってやるんだけど、この時にDPテーブルが状態だと、総和とか総minみたいなリダクションやソートに限らず、O(l)のDPテーブルとO(r)のDPテーブルをO(lr)でマージしないといけない
    • (dp[v][i+j] = f(dp[l][i], dp[r][j])みたいな)。
  • 子が複数ある場合は、O(|c_1| |c_2| ... |c_x|)になってマージ死ぬね、という話になるけど、子1とDPテーブルと子2のDPテーブルのマージがO(|c_1| |c_2|)でできるなら少なくとも二乗では解ける。
  • この時、DPテーブルの単位元というか初期値みたいなのが必要で、一つも繋いでいない時のDPテーブルみたいなのを前提できると嬉しい
    • 2019 AISing Eは、a_vが正ならdp[v] = [(a_v, a_v), (nan, nan), (nan, nan)...]、負なら[(nan, a_v), (nan, nan), (nan, nan), ...])
  • あと、連結成分を見る場合は、今見ているもの以外は全部満たされていると前提する、みたいなそういう状態削減方法はかなり汎用性がある
    • RGBSequenceとかもそうだけど、制限付きとして「ここまではできている」という条件を上手く入れるのが大事
    • 木であれば見ているものの連結成分以外はもう満たされているという制限をつけたというだけの話
  • 二乗の木 DP、dfs で DP テーブルを丸ごと返してもいい
    • DPテーブルのサイズもメモ化しなくちゃいけなくて、どれがどのサイズなのかを変数に管理させるより、vectorのsizeメンバ関数で取得できたほうが実装しやすい
    • やっぱそのほうが楽というか自然だよね(根にしか興味がないなら)

Priority Queue

  • クエリ突っ込みながらソートしたい!という時のため。
    • これだけだと、二分探索木(STLのmap)もできるが、これはもっと静的でクエリ解消はできない
  • priority_queue
    • 何も指定しないと最がtopになる。普通のソートとは直感が逆なので注意。
priority_queue<ll, vector<int>, greater<int>> q; // topが最小
priority_queue<ll> q; // topが最大
  • デバッグ
    • 出力は、イテレータが使えないので、コピーして全部取り出さないといけない。auto q_tmp = q; while (!q_tmp.empty()) {cout << q_tmp.top() << " "; q_tmp.pop(); } cout << "#" << endl;

マンハッタン

  • 「45度回す」!!!!!!!!!!!!!
    • 典型中の典型
    • 一般に,「解は必ず存在することが示せます」と書いてある問題はパズルゲーであり,解法が鮮やかであることが知られてゐます。大きいやつで一例あげましょう
    • Code Festival 2017 Qaul A - B問題?

最小辺カバー

FFT

FFT

  • 結構自然な問題
  • 添字の順序の総和が一定となるような掛け算の総和は、O(n log n)で計算できる!
  • 用途
    • 多項式同士の掛け算
    • 線形漸化式の計算
    • 行列演算

線形漸化式と畳み込み

  • 線形漸化式は本質的に畳み込みになっている。
    • 添字の順序を逆にするとすぐわかる

NNT=高速余剰環畳み込み

  • コード
    • 任意のmodで行けることも書いてある
  • mod pでの畳込みはO(n log n loglog n)で計算できる。
  • 実は任意の余剰でもO(n log n)でいける
  • p=2の場合、特に高速XOR変換と呼ばれる。bitsetが使えるなど、定数倍を早くできる。
  • NTTの別名
    • 高速剰余変換 O(n log n)
    • 高速xor変換 O(n log n)←法が2の時はこうも呼ばれる。適切な演算子が使えるので定数倍が高速

拡張ダイクストラ法

誤差

浮動小数点

  • 例えば、(ll)pow(3, 3) = 26
    • このケースで言えば、roundを使うこと
  • とにかく浮動小数点は誤差が出る。

誤差の減らし方

  • 誤差が厳しい場合
    • long doubleを使う
    • ハフマン符号のように小さい数値から足していくだけでも誤差減る

「long longのcastで大きくなる」誤差

  • 前提として丸め誤差は大きくなる
    • doubleの精度が15桁であるが、17桁を扱おうとするなどしたら起きる誤差
  • 本当の答えが0.999999999999とかである時、丸め誤差が発生すると1.00000000000001とかになる。
    • long longのキャストせよという問題なら、本当は0であるべきところが1になる。
  • yukicoder 413

double型行列はヤバい

  • 絶対値が3以下くらいでも、long doubleで15乗くらいしかできない
    • 理由: 掛け算と足し算が混在し、3^15で計算誤差がdouble型を超えるので

Wavelet Matrix

  • AlgoogleさんのWavelet Matrixの実装
    • かなり良さそう
  • 簡潔データ構造
    • 簡潔データ構造とは、データ構造を最適に近いサイズで保存しつつ、インデックスを利用して高速な操作を実現するデータ構造のことです。
    • 情報理論的下界に「近い」領域量を使ったクエリデータ構造
    • 要するに空間計算量が小さくて、実際にそういう実装をするという意味(本当の定義はもっと厳密だが)
  • 簡潔データ構造の種類
    • bit列に対して→完備辞書=簡潔ビットベクトル
      • Wavelet MatrixやLOUDSはこれを使って実装するので重要
    • 数列に対して→Wavelet Matrix
      • 特にquantileクエリがすごい([l, r]のK番目の数字は?)
    • 木に対して→LOUDS
      • mozcで使われている!
  • クエリ
    • quantile
      • [l, r)でk-thに大きい値は?
    • rankLessThan
      • [l, r)でxより小さい値は?
    • k-th reduce
      • [l, r)でk-th以内の値を全てopしたら?
      • 各bitベクトルで、bitが0の部分に単位元を突っ込んだseg木なりいもすなりSparseTable?なりをO(log m)個構築する。あとはこんな感じ
      • opが+, -など全域に渡って群ならば、いもすを載せる。雑な実装でO(log m)
      • opがmax, minならば、SparseTable?を載せる。雑な実装でO(log m log log m)
      • opが0を含む掛け算など逆元が存在しない場合は、Segment Treeを載せる。雑な実装でO(log^2 m)
      • 順位と演算対象が異なる場合は、まだよくわからない
    • 重複除去した範囲種類クエリ
      • colored range counting / reporting という名前
  • 半動的wavelet matrix
    • なかったことにするために、ある範囲で立っている1を減らす、という目的で使える。
    • 「区間中のk番目の数」クエリのとき、「ある範囲で0である数」が必要になる。なので、全ての行で、有向かどうかのseg木をもつと、quantileで何個無効か、みたいなのが計算できると嬉しい。
    • すると?http://arc033.contest.atcoder.jp/tasks/arc033_3 が解ける!
  • 完全動的Wavelet Matrix
    • FIDを平衡二分探索木で実装することでinsert/erase/rank/selectをO(logN)で実行できます
    • これでwaveletmatrixを構築すれば、updateはeraseとinsertで実現可能です
    • これで動的quantileできる。
    • ちなみに完全動的WMは
    • 長さNの数列があって、indexを指定して値を挿入する操作です(長さはN+1になります)
    • 動的waveletmatrixはsplit/mergeも不可能。これは二段目以降でindexが混ざってしまっていることに起因しています

Subset Convolution

  • クロネッカー積、バタフライ演算から、高速ゼータ・メビウス変換を導いてる。すごい
  • 高速ゼータ変換が何故動くかをグラフィック的に勉強した。
    • ARC 100 E - Or Plus MaxのYouTube?解説を見るとわかる。
    • データがモノイドならば何でも乗るね(集合の順序を(0, 0, 0) < (0, 0, 1) < (0, 1, 0) ...みたいに定義すると、順序すらも保存できる)

背景

  • 集合\( S \)、集合\( S \)\( i \)bit目を\( S[i] \)とする。
  • 命題\( P(i) \)がある。
  • 例えば\( |S| = 4 \)とする。
    • この時、以下の\( 3^4 \)個の命題\( P(c_1 c_2 c_3 c_4), c_i \in \{0, 1, ?\} \)が定義する。
      • \( c_i=1 \)は、\( P(i) \)が必ず満たされていなければならないことを表す。
      • \( c_i=0 \)は、\( P(i) \)が必ず満たされてはいけないことを表す。(これが重要)
      • \( c_i=? \)は、\( P(i) \)についてはどうでもいいことを表す。
    • \( P(c_1 c_2 c_3 c_4) \)に対応する「\( P(a, b, c, d) \)が満たされる時の場合の数」といった群への関数\( H(S) \)が定義できる(群なら場合の数じゃなくてもいい)
      • \( P(10?1) = P(0) \land \lnot P(1) \land true \land P(3) \)
      • \( P(1111) = P(0) \land P(1) \land P(2) \land P(3) \)
      • \( P(1?10) = P(0) \land true \land P(2) \land \lnot P(3) \)
      • \( H(1?11) = the\ number\ when\ P(1?11)\ is\ satisfied \)
  • ここでやりたいことは、「一部のH(S)から、他のH(S)を復元したい!!」
  • 結論からいうと、以下が計算可能(ただし、実装に置いて添字がちょうどこの説明と対応しているとは限らない!)。
    • 「?がないSについて、H(S)が全て既知」→「0がないSについて、H(S)を計算」(高速ゼータ変換。\( O(n 2^n) \)
      • ここでのH(S)を、普通f(S)と表記する。
    • 「0がないSについて、H(S)が全て既知」→「?がないSについて、H(S)を計算」(高速メビウス変換。\( O(n 2^n) \)
      • ここでのH(S)において、T=「Sの?を全て0に置き換えた集合」とした時、普通H(S) = g(T)と表記する(普通)。
    • 「0がないSについて、H(S)が全て既知」→「0を含みうる制限のないSについて、あるH(S)を計算」(包除原理\( O(2^n) \)

高速ゼータ変換

  • dp[i]=a[i]; となってるときに高速ゼータ変換を適用すると、iの部分集合に対応する数jすべてに対する値dp[j]を"まとめた"値がdp[i]に格納される。まとめ方をmaxにすれば部分集合に対するmaxが取れる
    • ex) dp[] = {3, 1, 4, 1, 5, 9, 2, 6}
    • dp[] = {3, 3, 4, 4, 5, 9, 5, 9}
    • dp[6] <- max{dp[0],dp[2],dp[4],dp[6]}
S=0100が2個
S=0001が3個
S=0011が4個
その他は0個である。

この時、
S=???1の総数は?→7個
S=?1?1の総数は?→0個
S=?1??の総数は?→2個
  • 高速ゼータ変換は環で動く(+, *, max, gcdなど)

高速メビウス変換

  • 典型的には、「積集合の値を、厳密な積集合の値に変換する」という用途で使われる。
    • どういうことか?
    • 積集合の集合Sの全ての条件を満たしていればいい。
    • 逆に言えば、全体集合-集合Sに含まれる条件については、何も考えなくてよいということ=?に相当している。
    • 曖昧な?ではなく、厳密に満たされない'0'での場合の数を計算することができる。
  • AOJ 2446 Enumeration
    • \( P(i, n) \) = \( a[i] \)で割り切れる
    • \( P(S, n) \) = \( P(S_0, n) \land P(S_1, n) \land ... \land P(S_{n-1}, n) \)
    • \( g(S) \) = 1からmに含まれるnについて、\( P(S, n) \)が満たされる場合の数
P(S=??11)、つまり「a[0]についてはどうでもよく、a[1]についてはどうでもよく、a[2]で割りきれて、a[3]で割り切れる」場合の数、g(S)個
P(S=1??1)、つまり「a[0]で割りきれて、a[1]についてはどうでもよく、a[2]についてはどうでもよく、a[3]で割り切れる」場合の数、g(S)個
...

上記の情報から、以下を計算する。
P(S=0011)、つまり「a[0]では割り切れず、a[1]でも割り切れず、a[2]で割り切れて、a[3]で割り切れる」場合の数
P(S=1100)、つまり「a[0]で割りきれて、a[1]で割りきれて、a[2]で割り切れず、a[3]で割り切れない」場合の数
...

2種類の高速ゼータ変換

  • 高速ゼータ変換には2種類の実装があってconfusing(なんか立式との整合性が合っていなかったりするし。)
  • iwiwiさん形式
rep(i, n) rep(b, 1 << n) if (!(b & (1 << i))) chmax(dp[b], dp[b | (1 << i)]);
集合Sが与えられた時、Sが含むもののreductionを計算
  • pekempeyさん形式
rep(i, n) rep(b, 1 << n) if (b & (1 << i)) chmax(dp[b], dp[b ^ (1 << i)]);	
集合Sが与えられた時、Sを含むもののreductionを計算

包除原理

  • では0を含む場合は?
    • 1を含まない、で包除原理を行う。
S=0000の総数は?
return dp[????] - (dp[1???] + dp[?1??] + dp[??1?] + dp[???1]) + (dp[11??] + dp[1?1?] + ...) - (...

平均値と中央値の関係

  • 対称だと中央値と平均値が一致
    • やっぱりわりと当たり前だしググれば出るし

文字列操作

文字列でやりたいこと

  • sが大きな文字列、t_iがマッチングする文字列, |s|=n, |t|=m
  • 0-index LCP
    • sとt_0の最長共通文字列長を求める
    • 重要なのは、マッチング文字列は1つに限定されているということ
  • i-index LCP
    • sとt_0, t_1, ..., t_nの最長共通文字列長を求める
    • マッチング文字列は複数指定可能
名前構築0-index LCPi-index LCPcontain
SA-ISO(n)O(1)O(1), RMQにメモリ削減のためSegment TreeならO(log n), 複数個の文字列のマッチングが可能O(log n)
Rolling HashO(n)O(log n)O(log n), 複数個の文字列のマッチングが可能不可能
Z-AlgorithmO(n)O(1), 1個だけの文字列のマッチングが可能不可能不可能
boyer mooreなし不可能不可能最悪O(n), 平均O(n/m)

int getLCP(int i, int j)の使い方

  • SA-ISとかZ-Algorithmを見て、「sa.getLCP(i, j)とか言われても、これでどうやって文字列sと文字列tのLCPを求めるんだ…」と思うこと必至
  • int getLCP(int i, int j)の挙動
    • saの構築にsを用いたとすると、s[i:end]とs[j:end]の最長共通接頭尾長を求める。
    • え、tどこいったの?と思う
  • で、どうやってマッチングするの?→t+sに対して構築する!
    • saの構築をsa(s)ではなく、マッチング対象t1, t2があったとしたら、sa(t1+t2+s)として構築する。
    • こうすると、sa.getLCP(0, |t1|+|t2|)とすることで、t1とsのLCPを求めることが出来る!

boyer moore search

  • 早い文字列検索

回文

MP

  • 0からの回文をO(n^2)ではなくO(n)で全列挙できる!
  • MP
    • O(n)で、文字列 S が与えられたときに、各 i について「文字列S[0,i-1]の接頭辞と接尾辞が最大何文字一致しているか。ただし|S[0,i-1]|未満の一致とする。」を記録した配列を計算。

Manacher

  • Manacher
    • 各 i について「文字 i を中心とする最長の回文の半径」を記録した配列 R を O(|S|) で構築するアルゴリズム

ローリングハッシュ

  • h(0, i)=h(0, i-1)*b+s[i] で定義される文字列のハッシュ。
    • 何が嬉しいかというと、このハッシュは群的なので、h(j, i)がh(0, i)からO(1)で計算可能
    • 「iから長さkと、jから長さkのLCP」が構築O(n)クエリ(log n)で計算できる。

Zアルゴリズム

  • 「0から長さn-jと、jから長さn-jのLCP」が構築O(n)クエリ(1)で計算できる。
  • 資料
  • 例題
    • AOJ Almost Same Substring

Suffix Array

  • できること
    • iとjから始まる文字列からのLCSクエリO(log log n)
      • ただ、MLEが怖いのでSparse Tableではなく、Segment Treeで実装することが多い。それだとクエリO(log n)
    • ある文字列が含まれているか?containクエリO(log n)
  • いろんな構築方法(普通にSA-IS使いましょう)
    1. Suffix Array 構築O(n^2 log n)=比較O(n)*ソートO(n log n)
      • multikey-quicksortなるものを使うと早くなるらしい
    2. SA-IS 構築O(n) (Two Efficient Algorithms for Linear Time Suffix Array Construction [G Nong, et.al.]) 2012年現在最速
    3. Manber&Myers : 構築O(n (log n)^2) プロコン的にはよく使われる、上の記事はこれ、コメントいっぱいついてる
    4. Larsson-Sadakane O(n (log n)^2)) ← spaghettiのやつ

問題集

Trie

  • 最長接尾辞パターンの多分木(256分木)
  • XORクエリの最大化でも使える

KMP, Aho-Corasick

  • 最長接尾文字列を逐次計算するオートマトン
  • 結局、KMP⊂Aho-corasick
    • KMP法 : 単一文字列のマッチングアルゴリズム
    • Aho-Corasick法 : 複数文字列のマッチングアルゴリズム
  • Aho-CorasickはCovering Matchingバージョンに簡単にすることができる
    • マッチングしたノードの失敗編を全てrootに張り替えることによって。
  • マッチングの微分が求まるので嬉しい(=入力文字列の1文字1文字に対してマッチングいくつふえたかが分かる)
  • グラフの頂点bitmaskを遷移していくと、やたら状態数が少ないので250bitのbitDPが数ms(Topcoder 709D1M)
    • 直感的には、素数ループの周期数が限度?とすると250頂点あり得りそう
    • 2*3*5*7*11*13*17*19*...*41 (和が238) = 3e14くらいあるはずなので、やばそうなのだけど。
    • たくさんbitはあるけど、「同時には出ない」みたいな制約とか、遷移が少ないと出切らない、みたいな感じなのだろうか。
  • 例題

k-mismatch-matching

  • k個未知の文字列"he?lo wor??"が、もう片方の文字列に含まれているか
    • SA-ISでO(k n)で解けるはず。AOJ Almost Same Substring講評参照

Tutte行列

  • やるだけのやつが有るらしい
  • Sunny Graphでも使えるらしい

Suffix automation

  • http://pekempey.hatenablog.com/entry/2016/12/30/144923
  • compressed suffix tree はひたすら使いにくい印象があったので、suffix automaton という概念を知ることができたのは嬉しい。かなり難しいけど、かなり知見がある問題だと思う。

一般マッチング

辞書順

  • 同じ桁なら、数字比較と辞書順比較が数字比較で一致する
  • 辞書順は最近のものを26分木でまとめていくと辿れる(TDPC G)

連続部分列

  • 文字列の連続部分列とグラフは非常に相性が良い。
    • 文字を頂点としたグラフというのは必ず考えるべき

二分木

  • 追加も削除もある場合の頻出テクは、クエリの(平方)分割かがんばって動的になんとかするですが、動的のほうを扱います。
  • やりたいことは「ソートしながらデータを持つ」データ構造
    • std::mapみたいな感じ
  • できること
    1. insert(k, x): k番目に値xを挿入
    2. erase(k): k番目の値を削除
    3. merge(l, r): l+rをする
    4. split(l, k): [0, k)と[k, n)の2つの列に分解
    5. 値に関する質問・更新: sum, addなど
  • insert/eraseベースと、merge/splitベースの2つがある。どちらかが実装できると、もう一方は超簡単

動的木の基本発想

  • 基本的には、木で列を表す!!
    • 例えば42573なら、以下のような木で表す。
     4
   2  3
  4 5
  • 列aと列bをくっつける操作a+bを、木と木をくっつける操作として実装する。

平衡

  • 基本だと、1,2,3,4,5,...,nの入力でなんかヤバくなる
  • どんなものが平衡二分木?
    • 赤黒木(std::map)、スプレー木(Link-cut Treeに使う。ならしO(log n)だが最悪時間O(n)なので注意)、Treap、AVL木、くらい覚えとけばよさそう
  • 平衡
    • 左右の深さが偏らないように回転 (rotation)
    • 回転=順序を保存したまま木構造を変形。
      • 順序を保存=同じ順序関係を表す二分木であるという意味。参考(111ページ)
      • Left Rotationが左を下げること、Right Rotationが右を下げること。

各論

  • いろいろな平衡木がある
    • Treap: キーと一緒に「優先度」を持つ。キーを見ると二分探索木、優先度を見ると二分ヒープ(常に親が子より大きい)になるように木を構成
    • Splay: 2つ親までを見れば、回転によって平衡化が可能なことを利用した平衡木。頂点xを根の場所まで移動させてできる木を返す
    • RBST: l+rの時、l/l+rの確率でlを根にするとなんとならしO(log n)
    • 赤黒木: 定数倍が早い

RBST

  • merge
    • mergeの仕方には左右があるので、それをランダムに選ぶことによってならし\( O(\log n) \)を実現
    • l+rの時、l/l+rの確率でlを根にするとなんとならしO(log n)
  • split
    • 切れる部分になったらreturnして、それ以外は掘っていくことで可能 これ, antaさんのRBSTで、yosupoさんもsplitでの境界条件をこんな感じにするテクニックを使っていたから定番らしい(どうやら、子供がいない場合にNULLではなくnullnodeというnullみたいなノードにポインタを指すせることでいい感じにやる方法らしい)
  • rbst.jpg
  • どうやら配列でRBSTのノードを持っておくのがいいらしい。原理はわからないantaさんのRBST

Euler Tour Tree

その他勉強用情報

  • グラフではない、という問題が、遅延永続平衡二分木
    • https://www.slideshare.net/chokudai/arc030
    • 「コピーを作成するには、永続が必要そう」
    • 「区間に関する操作は平行二分木を使うと万能」
    • 永続の平衡二分木はRBSTがならし計算量だが一番実装軽くて楽らしい(赤黒木は実装重くて大変)
    • 「MLEがやばそうになったら、一旦永続情報を全て破棄し、再構築するという方法で簡単にごまかせる」

Link Cut Tree

  • Link-cut Treeのなりたち(下に行くほど実装が重い)
    1. 頂点vから根へのパスをつなげる(expose, 必須で平衡二分探索木のsplit, mergeを使う)
    2. 頂点の親を変更(link)、削除(cut)
    3. 木の根を求める(root), 木の根を変更(evert)
    4. パスに対する頂点・枝の値のクエリ(sum, max, 更新)
  • コンセプト
    • ツリーを分解してパスにします。
    • パスをsplay木で管理します(パスの順序さえあってればいいので、根は自由に選べる。よく実線をsplay木内部の辺、点線をsplay木間の辺として表記する)
  • 辺更新は u→v という辺を張らずに、u→e→v のように間に辺のノードを挟んでおけば簡単!!!!
  • 歴史
    • 1983年段階で、密グラフのフローはO(n^3)が最速(V. M. MALHOTRA, M. P. KUMAR, 1978)、疎グラフでは1980年のO(E V log^2 V)(Z. GALIL AND A. NAAMAD)しかなった。
    • Link-Cut Treeを利用してDinits(ロシア人なので表記ゆれがあるがDinic。Dinitz's Algorithmとも呼ばれたりもする。1970年)のmax flowアルゴリズムを改善することで、O(E log V)を得た(1983, Sleator, Tarjan)
    • まあ、maxは半束で少なくとも可換モノイドで代数学的に強いデータで考察されていたが、慎重に扱うと一般のモノイドについて扱うことができる。

Euler-Tour Tree

  • Euler-tour treeとLink-cut treeは同様に神がかり的木

オフラインクエリ

  • オフラインクエリに関するDecomposable searching problem

SAT

2-SAT

  • 2-sat問題
  • 「命題iが満たされるならば命題jは満たされない」とか「AとBが同時に成り立つことはない」といったルールが大量にあるときに、全部のルールを守ることができるか?という問題。
  • 全i, jについてルールを記述する必要があるので、せいぜいn<2000くらい。
  • どうやって解くかというと、A⇛Bを有向グラフとして、A⇛¬Aになったらアウトなので、SCCで同一成分になってるとダメ
  • 2-SATの説明わかりやすい

3-sat

SATの範囲クエリ

  • for all t, \( x_s \)->\( y_{t \in [i, j]} \)の辺を張る、というのはSegment Treeの要領で辺を作ってしまえば良い (ARC 69F)
    • 到達性のみに興味があるので

対称性の利用

  • 対称ならばx>=yのようにしても問題ない
  • 実装が簡単になる可能性がある
    • 左右両方から探索する場合、配列をreverseして全探索すれば良い。
  • 左右対称を利用して状態を削減することができる場合もある
    • 左右独立の典型
    • CF505D1D 区間DPをO(n^5)からO(n^3)まで落とすやつ。左右独立で遷移をO(n)落とし、左右独立なので片方だけを状態に持つで状態をO(n)落とす。

ゲーム

解き方の大まかな分類

  1. 深さ探索するもの
  2. 状態列挙してGrundy数を使うもの
  3. ゲーム特有の性質を使うもの

猿真似

  • ゲームのパターンに相手を真似するというのがある
    • これをやると対称性が敗れる時のみに考慮すべきことを短くすることができる

WL-Algorithm

  • DFS必勝法。stateが先手必勝かそうでないかを全盤面に割り当てる
  • まず明らかな勝利条件はすぐにreturnしておいて、
    • 「盤面sで先手必勝」⇔∃a in action s’=T(a, s) and dp[s’] = 1 相手に後手必勝を押し付けられる。
    • 「盤面sで後手必勝」⇔∀a in action s’=T(a, s) and dp[s’] = 0 何やっても相手に先手必勝を渡してしまう
  • 勝利で終了が定義されているWL-DPでは、「このような手で渡されたということは、直前の人が勝ったのか、ということは俺が負けか」みたいな感じで敗北を吐いて死ね
boolean isWinning(State pos){
  State[] nextStates = { posから到達できる全ての次の状態 };
  for(State s : nextStates){
    if(!isWinning(s)) return true;
  }
  return false;
}
  • このタイプの理解の方法
    • 「勝ち状態w」「負け状態l」を定義する
  • 二つの状態の定義があり、この曖昧さによって混乱が生じる!どちらの立場なのかをきちんと明確にすること。
    • 勝ち状態wを「この状態から始めた人は必ず勝つ」、負け状態lを「勝ち状態ではない」と定義する。(こっちのほうが一般的!)
      • 遷移は、「次に負け状態を相手に押し付けられる遷移が選べるならば勝ち」=「遷移先にlがあればw, なければl」
    • 勝ち状態wを「この状態で終わっ人は必ず勝つ」、負け状態lを「勝ち状態ではない」と定義する。
      • 遷移は、「終わったあと、勝ち状態を相手が選べてしまうなら負け」=「遷移先にwがあればl, なければw」
    • 基本的には、「始め」の勝ち状態のほうを、一般的に勝ち状態と言う。
  • 勝ち負けゲームの定番解法「勝ち状態にwを置いて、負け状態にいけないなら負け、負け状態にいけるなら勝ち」
    • rngさんのAGC02 E問題の解説(youtubeに上がっている)を見るとわかりやすい
  • AさんとBさんが違う目的に向かう場合
    • 例: TCO 2018 R3A Easy
    • こういうのはちゃんとターンごとに決めてかないといけない
    • AさんでもBさんでもどっちでもよいのだが、後ろから敗北条件・勝利条件を伝播させていく
    • この場合、Aさんの条件とBさんの条件が異なるので、ターンごとに場合分けをしていかなければならないし、「Aさんのターンで、状態がsであるような場合にBさんが勝てる」みたいにターンを明示的に状態に含む必要すらありえる。

ゲームの分類

  • 二人
    • 四人(麻雀)
    • 二人(将棋・囲碁・オセロ)
    • 一人(ソリティア)
  • 有限
    • 有限回で終わるゲーム
    • ゲーム木(=局面全体を頂点集合とし、局面Pから局面Qに移動できるとき、PからQに矢を作って得られるグラフ)において、どの頂点から始まる有向パスの総数も有限

Grundy数

  • pekempeyさんの良い解説
  • 定義
    • mex(S) = 集合Sに含まれない最小の非負整数(空集合に対しては0)
    • Grundy数が負けの状態なら0とする
    • 負けの状態ではないGrundy数は、mex(遷移先)とする
    • 現在の状態の Grundy 数が 0 なら後手必勝、そうでなければ先手必勝。
  • 何がすごいの?
    • 複数の山がある場合のGrundy数は、g(a,b,c)=g(a)⊕g(b)⊕g(c)。
    • 山ががある場合のGrundy数は、g(a,b,c)=g(a)⊕g(b)⊕g(c)。
    • 山が分裂する場合のGrundy数は、g(n)=mex(g(n−1),g(n−2),g(n−3),g(x1,x2,…,xn))=mex(g(n−1),g(n−2),g(n−3),g(x1)⊕g(x2)⊕⋯⊕g(xn))
      • g(n-1)からg(n-3)は、Nいっちゃダメゲームで1から3だけ減らせる時のGrundy数を表す。g(x1,x2,…,xn)は分裂後のGrundy数を表す。
  • 性質
    • Grundy数は「遷移可能な状態の個数」で上から抑えられる
    • そのゲーム特有の Grundy 数の性質を見つかる場合あり。N言っちゃダメゲームの場合、単にmodを取ればGrundy数が求まる
  • 拡張性
    • もちろん、Nいっちゃダメゲーム以外にも使える。
    • 具体的には、状態遷移図がDAGなら使える

分裂するgrundy数

  • 集合Sがある。n in Sに対する操作はq_n個存在する。操作i「数nを消去し、{x_{i, 1}, x_{i, 2},... x_{i, m_i}}を追加する」もしくは操作-1「数nを消去する」。集合Sの任意の数について、任意の操作を行えなくなったら敗北である。この時、先手必勝か?
  • 数nのgrundy numberをg_nと定義する。集合Sのgrundy numberはg_Sと定義する。f(n, i) = nに操作iを行った結果に得られる数の集合と定義する。すると、
    • 数nを消去すると、数がなくなってそこから操作ができず負け状態なので、f(n, -1) = {0}
    • 数nに操作iを行うと、f(n, i) = {x_{i, 1}, x_{i, 2},... x_{i, m_i}}
    • この時、g_n = XOR_k f(n, k)である。
    • そして、g_S = XOR_{x in S} g(x)である。

min-max系のゲーム

  • min-max系のゲームは「「どっちかの気持ちになることが大事」」
    • 割とアドホックに考えるといける
    • 局所的に最適な行動みたいなものから再帰的構造を見出す。ARC 94E

アドホック

  • 基本的にはWLアルゴリズムをまず書く。
    • 複数個のゲームを並行してやるなら、Grundy数を手作業で計算したりしても良い(grundy 数というのは複数ゲーム同時にやる場合に Nim っぽくできますよという話であって 1 個しかゲームがないときに持ち出すものではない)。実験コードを書く
  • よくあるパターンとして、Nいっちゃダメ型がある
    • この型では、状態をOとEに分けて、ある遷移でOからEを必ず押し付けられて、どんな遷移でもEからOになってしまう、という場合に使えるケース
    • CADDi 2018 D - 「初期状態が E の場合、後手が先手の「真似」をすると先手は E に閉じ込められ、いずれ「全色 0個」に至り負けます。初期状態が O の場合は、先手は最初に奇数個の色のりんごだけ食べて後手に E を押し付け、それ以降は後手の真似をすることで勝てます。」

連立方程式・不等式の解を一例上げる

和の等号

  • n個のx_i + y_j = a_iなる条件を全て満たすようなx, yはあるか?
    • =の条件はDFSで矛盾判定
    • ちなみにx, y>=0の条件を加えても行ける(CODE FESTIVAL 2016 Qual A : D)

差の不等号

  • 最短経路問題のLP双対
  • 牛ゲー

必要条件

幾何

基本的な発想

  • なんとなく連続っぽいので難しそうだが、実際にはイベントが発生するような点は有限
    • このようなイベント点と、イベント点で何が起きているのかを把握する力が重要

計算のロバストネス

  • 誤差が非常に効いてくるケースが少ないので、なるべく計算誤差が少ないような演算方法が重要

点の進行方向

  • ccwはロバストな進行方向の計算方法
  • angle は三角関数の計算という不動小数の計算を必要とするが,ccw は係数環の演算だけで構成されているので,極めてロバスト

凸包構築

  • 凸包は基本的にはO(n log n)
  • 基本的にはAndrew's Monotone Chainを使うのがいい
    • 上凸と下凸包を計算して、あとでマージする。

三角形

  • SRM739E
    • 三角形=ベクトルを3個組み合わせて0ベクトル

多角形

  • 最長辺が他の辺の総和以下になると多角形を構成不能に成る

Connectivity

Incremental Connectivity = Union-Find Tree

  • 「同じ集合は同じ根を持つ木である。根は-要素数を持つことでsizeを持つ」である
  • 工夫も実は簡単で、(1) uniteの時に木の浅い方にくっつける。 (2) Findの時に、通ってきた経路を全部根からの多分木にするである。
    • 片方でO(log n)両方でO(A(n))
  • 盤面問題をUnionFindで

ポテンシャル付きUF

  • 重み付きUFとも言われている(この名称やめて)
    • 親との差分を持つUFとか?
  • 集合要素に環(分配・可換・逆元)であるときに、以下がO(A^-1(n))でできる。
unite(u, v, diff(u, v))u-vが指定されて要素u, 要素vを同じグループとする。
find(u, v)要素u, vが同じ集合かを判定
diff(u, v)diff(u, v)を計算
  • 基本的に、辺(u, v, c)に演算をのせる時は、a_u+c=a_vとしたほうが色々無矛盾で良い
  • 重み付きUF、頂点にRingが載っていて、任意の頂点対(u, v)の値の差を計算できると思うとすこしほっこりする
    • 任意のアーベル群について、その要素をポテンシャルとして持つUFが作れるね。

Decremental Connectivity

  • えー
  • 問題によっては逆から見ればUFに落ちる

Dynamic Connectivity

YES/NO

  • YES/NOで、1つYESがあった時に、それから操作してどれくらいの数があるかを探すとよい(乱択を狙える)
  • 「もしYESならば…」という発想が必要
    • もしYESならばAが真であるはずなので、Aとなるようなものを全探索しよう
    • もし1つの解がYESならば、そこからちょっと変えた解もYESになる

乱択

  • YES-NOを聞く全探索
    • YESがあるならば、そこから何らかの操作をして別のYESを作れないか?と考える(ARC95E)
    • n=1000でO(n^3)だから無理?
    • しかし、YESがたったの1/n^3しか無いことはあるのだろうか?
    • 例えばAOJ Symmetryでは、n^3個の中にn個くらいYESとなるケースがある。つまり、AmortizedでO(n^2)!
  • なんとなく幾何と乱択は相性がいいような気がする
  • http://www.slideshare.net/iwiwi/ss-13293754
  • 恒等式をチェックする乱択
    • 行列の積AB=Cであるか
  • Random Coloring

ヒープ

  • 二分ヒープがpriority_queue
  • フィボナッチヒープが最速

Convex Hull Trick

概要

  • さばけるクエリ
    • 直線f_i(x)=a_i*x+bをリストに追加する O(log n)
    • max f_i(x) を計算する O(log n)

Increasing Convex Hull Trick

  • 直線の削除ができない!
  • a_iが単調増加、xが単調減少の場合
    • 直線追加がO(1)になるらしい

Dynamic Convex Hull Trick

  • 更に、直線の削除が可能
    • 計算量はO(loglog n)
  • LiChao? segment tree

Mo's Algorithm

  • 点に全順序をつけるときに、iotaで生成したid数列をsortするというのが割とよいテクニックっぽい。Moの実装で全順序を与える時に使った
    • Moの点群に全順序を与える時にiotaで作ったindex配列を作って、ラムダで位置i, jを固定してソートするやつ割と便利だった

貪欲

証明方法

  • 順序を決める貪欲は、例えばAAAABBBBかな?と思ったら、BAとしたときにABよりも良くならないことを示せば良い

自由度

  • n!の並べ方が許容されている場合、最適解への自由度は何個かある
    • n!の順番はどうするか?実は、ある順番が極大スコアを得ないか?→隣接要素の交換により改善が示せる例
    • 2^nの中から選ぶ方法はどうするか?→グループ分けの貪欲、もしくはDP
    • n個のものをAかBに塗り分ける時、AAAAABBBBBBが最適ではないか?

隣接要素の交換により改善が示せる例

  • 何を選ぶか?「最適な並べ方」を見つけるための貪欲
    • AAAABBBBBとBBBBBAAAAAAはどちらがよいか?
    • 数列の順番が固定ならば簡単に解けるため、最適解を与える順番は確定させたい!
  • 交換以前の選びかたの可能性を最大化する。順序が決まっていればDPが実行できるので、順序だけ決めたかった。 Code Festival 2017 Final D
  • 交換すると辞書順最小が得られる Code Festival 2017 チームリレーG
  • Code Festival 2017 Final Dとほぼ同じ https://yukicoder.me/problems/no/054
  • 順序の自由度を隣接2項間の関係で削ってからDP SRM 502 D1M

グループ分けの貪欲

  • どういうsetを選ぶか?の貪欲
  • a, bから被覆かつdisjointに取ってきて、何らかのスコアを最大化せよ!
    • 基本的には、スコアの式において、aを選んでいた添字iをbに写した時に、どれくらいスコアが上昇するかの上昇幅でソートする
    • 選ぶべき最小の個数とか言われたら、判別条件をf(a, b)>=0みたいな形に表しておいて、それをスコア関数にすればよい
  • 数列a, bが与えられる。添字集合Sを取って、sum_S(a[i]) / (sum_S(a[i])+sum_{not S}(b[i]))>=P/100なるSのうち最小の大きさを求めよ(Code Festival 2017 チームリレーE)
  • ++++++++++++---------が最適なので、その後-の順番と貪欲に取る JAG夏合宿Day 1 K - パンプキン
  • 差を貪欲に取る CODE FESTIVAL 2015 予選A C問題 8月31日

まだ解いていない

ビームサーチ

ハフマン符号

  • 有名な貪欲アルゴリズム
  • 2つ小さい方から取ってきて足したものをpriority queueに追加、を1個になるまで繰り返すと最適になる。
  • 3つ取ってきて良い場合は、偶数奇数によって初めに何個取るべきかが異なるが、基本的には同じ

凸性

  • 交換凸性チェックは、隣接したf(i, j)><f(j, i)をとくことで可能。これによって具体的な式も出てくるし、もし凸じゃなかったらダメだってこともわかる。
    • Div.1 Med 691

最大最小問題

  • 最大最小問題は二分探索を考える
    • [0, ans]が全て満たすような数え上げの最大化もできる (ARC 94E)

行列

行列の種類

  • 参考
  • コンパニオン行列
0  1  0  0
0  0  1  0
0  0  0  1
a0 a1 a2 a3
  • Toeplitz行列
    • ある関数fが存在して(A[i][j] = f(i-j))と表せることを言う。
    • Toeplitzであるだけでは乗算の元で閉じていない
    • Blackbox linear algebraでは一般Toeplitzで動く。
  • 上三角Toeplitz行列
    • Toeplitx行列でかつ上三角行列のもの。
    • 加算・乗算の元で閉じている。
    • この行列はサイズnのベクトルによって表すことが出来る。
    • 行列とベクトルの乗算は畳込みになっているのでO(n log n)
    • Toeplitzであるだけでは乗算の元で閉じていない
    • Blackbox linear algebraでは一般Toeplitzで動く。
  • 巡回行列
    • Toeplitz行列の特殊系
    • 加算・乗算の元で閉じている。
    • 加算はO(n)
    • テプリッツ行列とベクトルの乗算はO(n log n log log n)
    • 2つのテプリッツ行列の乗算はO(n^2)
    • テプリッツ系 Ax=b は、レビンソン=ダービン・アルゴリズムでΘ(n^2)の時間で解ける。
a0 a1 a2
a1 a2 a0
a2 a0 a1

行列のクラスと計算量

名称行列と行列の積普通のk乗行列累乗k乗行列累乗(BLA)
一般O(n^3)O(n^3 log k)O(n^3+M(n)log k)
理論最速O(n^2.3)全く実用的ではないので、O(n^3)未満のものに期待してはいけない。理論最速に至っては、確率モデルに依存して実装不能
巡回行列O(n^2)O(n^2 log k)O(n M(n) + M(n) log k)
(三角とは限らない)テプリッツ行列O(n^2)O(n^2 log k)O(n M(n) + M(n) log k)
K重対角行列O(n k^2)O(n k^2 log k)
S要素疎行列O(n^2 + n S + M(n) log k)
コンパニオン行列の累乗
  • Blackbox linear algebraによる行列累乗
    • O(n^2+n T(n)+M(n)log k)
    • T(n): 行列とベクトルの掛け算
      • 単純なアルゴリズムではT(n)=O(n^2)
    • M(n): 多項式乗算の時間計算量
      • 単純なアルゴリズムではM(n)=O(n^2)だが、R=Z/mZの場合は余剰環上のFFTを用いることでM(n)=O(n (log n) log(log n))にできる。
  • Blackbox linear algebraによる行列式
    • O(n^2+n T(n))

行列累乗

  • 行列累乗そのものは任意の半環でできる
  • 普通の行列累乗について、
    • 行列累乗は行列を先に計算するとめっちゃ遅くなるので、行列xベクトルを計算しましょう。
    • 構築ありの行列累乗だとメモ化できるので早い
    • 参考 AOJ Three-way branch

行列式

  • 普通には全体でO(n^3)
  • 行列木定理と呼ばれる定理は、 グラフが与えられたとき、全域木の個数を行列式を用いて求められる
    • 非自明数え上げが多項式時間でできるすごい。

加群の行列演算

  • 環R上の左加群なら、(+, *)じゃなくても行列演算が可能
  • 零元と単位元が何かをものすごく気をつける必要あり。意識しないと死ぬ。
    • 零元「足し算すると変わらない、かつ掛け算すると0になる」
    • 単位元「掛け算すると変わらない」
  • 普通の行列演算でいう0を零元、1を単位に書き換えないといけない。

コーディングイディオム

漸化式

コンパニオン行列の累乗

  • 二つの実装方法があり、後者のほうがメモリ効率が良いためかなり速い
    • 行列の形に注目するもの
    • 線形漸化式の線形性と、本質的に多項式の乗算除算であることを使う(つまりはこういうこと
  • その他説明
  • コンパニオン行列の累乗これが前者の方法で、これを実装すると遅いので注意
    • 古くは Krishnamurty [2] に発見され,その後 [1, 3, 4] によって再発見されている.
    • ヘッセンベルク行列のべき乗への拡張は Datta and Datta [5]によって提案されている
    • O(n^2 log k)
  • コンパニオン行列のべき乗を計算する[Krishnamurthy,1960] On solving an algebraic equation using higher powers of an associated matrix and the Cayley-Hamilton theoremと同値..ヘッセンベルク行列への拡張が[Datta and Datta,1976]

最小多項式

  • Aが密行列であっても、b_k = A^k b_0なるb_kの「1要素のみ」を取得するのはO(n^2 log k)
    • これはそのまま、コンパニオン行列の累乗の一般化となっている。
    • 高速きたまさ法でO(n log n log k)にもなる。
  • ケイリーハミルトン
    • 行列列{A^i}を零化する多項式はたかだか次元n
    • ベクトル列{A^i c}や{b^t A^i}も零化する多項式はたかだか次元n
    • 数列 {b^t A^i c}も零化する多項式はたかだか次元n
  • つまり、(0, 0, 0, ..., 1) A^k bなど、一要素を取り出しただけならば、この最小多項式はn以下
    • 2*n個列挙すれば、その最小多項式を計算することが可能(Berlekamp-Massey algorithm)
  • 最小多項式が計算できるということは、きたまさ法に帰着できたということに他ならない。
    • したがって、O(n^2 log k)で計算ができた。
  • ちなみに、Aが疎行列であっても計算量は落ちない
    • 右上のみ1の2次行列Aとb_0=(100,1)に対して、b_0(1),b_1(1),…は100,1,0,0,…となりますが、これが1項間線形漸化式で表せない
    • 最小多項式は[0, 0, 1]になるので

逆行列

  • 解き方
    1. 掃き出し法 O(n^3)
    2. Black Box Linear Algebra O(n T(n))
    3. 最小多項式計算→クリノフ列 O(n^3)
      • b, Ab, A^2 b...と、最小多項式次元数n個計算して、後で足す。
      • 実は掃き出し法と同じ計算量なんだね
  • クリノフ列による逆行列計算方法
#include <Eigen/Dense>
#include <iostream>
#include <vector>
#include <algorithm>
using namespace std;
using namespace Eigen;
auto I = Matrix2d::Identity();
int main(void) {
  Matrix2d A;
  A << 3, -2, 1, 0;
  // f(A) = A^2 - 3A + 2I = 0
  vector<double> phi = {1, -3, 2};
       
  Vector2d b;                      
  b << 2, 4;
  cout << A << endl;
  cout << A.inverse() * b << endl;
  cout << -1.0 / phi[2] * (phi[0] * A + phi[1] * I) * b << endl;
                                      
  return 0;        
}

全方位木DP

  • 基本的なアイディアは、DFSを2回行って、2回目で親から来た辺1本だけを例外扱いすれば良い、ということ。
    • どこか根からDFSすると、親の情報以外は確定するんだけど、親の情報だけはわからなくて悲しいので、一度親に遷移して必要な情報を求めて戻ってくると、ある頂点iの周囲全ての情報が分かることになる。
    • 実装上は、一回戻って、とかやってると非効率なので、vからnext_vに行く時に自分の情報を渡してしまうとよい。
  • 木はu, vで次の頂点を表すとバグる(u, vが似ているので)
  • 全方位木DPでは、親から来る情報dparは、data[i]と同等の情報を復元しなければならない!!ここに悩むポイントはない!!以下のように、悩まずに求めるべきものは確定している
  • 実装上は番兵をおくのがセオリー(親が根の場合に特別扱いする必要があるので)
  • 例題
    • s8pc 4: Data[i] = 頂点iから見て頂点0がある辺を削除した時の、頂点iから見た期待値。Dpar = 「頂点pから見て頂点iがある辺を削除した時の、頂点pから見た期待値」。

数え上げ

  • 場合の数のこと

DP

  • グルーピング系の数え上げは結構freqでやるのが良さそう
  • DPで同じ状態にまとめようと思った時に、分割するみたいな発想(バカの一つ覚えのようにi個見て…とかばかりしない。)
  • 逆順のDPの場合、DP[i+1][j]からの遷移を考えたほうが楽

ちょうどXとなるものの数え上げ

  • ちょうどXは厳しいので、「X以上の関数定義」と「X以下の関数定義」などを構築しておくとよい
    • AGC 23C, ARC 93E
  • ( # f(x)=N ) = # f(x)≦N - # f(x)≦N-1

カタラン数

  • https://ja.wikipedia.org/wiki/%E3%82%AB%E3%82%BF%E3%83%A9%E3%83%B3%E6%95%B0
  • http://www.geocities.jp/yoimondai/e16.html
  • どんなものがカタラン数?
    • 対角線をまたがない格子状の経路数え上げ=0を超えないみたいなのありそう
    • N個の分岐を持つ二分木
    • ()を正しく並べる方法(!)
    • 平面グラフの交差 2n人が円になって手を交差させないで握手をする場合の数はカタラン数 Cn である。
  • カタラン数よりも、その計算方法の方が大事
    • AOJ 10歳の動的計画法を参照
    • 禁止領域基準に鏡写しにしたものを引くやつ

無向グラフの頂点iから頂点jにちょうどk歩で行く場合の数

  • 参考
  • 「無向グラフの頂点iから頂点jにちょうどk歩で行く場合の数」=「隣接行列Aとする。A^kのi, j成分」である。
  • 閉路を考えるなら、i==jとすればよい
  • 注意点
    • 交差しているものも数え上げる!
    • i=A, j=B, k=4としたとき、A->B->A->B->A->Bとかも数える。

無向グラフのk歩で戻ってくる閉路の個数

  • 無向グラフのk歩で戻ってくる閉路の個数
    • 開始頂点は指定できないので注意!
    • k=3からk=12くらいまでは公式がある。
    • 公式は非常に複雑なので、ここを見るか、ライブラリをそのまま使う。

無向グラフの全域木の数え上げ

  • 「無向グラフの全域木の数」=「ラプラシアン行列のn-1次部分行列の行列式」
    • ラプラシアン行列とは、n行n列行列で、その (i,j) 成分が
      • i=jのとき、頂点iの次数(=頂点iから出ている辺の数)
      • i≠jのとき、隣接行列の(i,j) 成分の−1倍
  • 行列木定理 (Matrix-Tree Theorem)と呼ばれているもの。

二部マッチングの数え上げの偶奇

  • 隣接行列の行列式で計算できる。
  • 二部マッチングの数え上げそのものはNP完全
    • これは具体的には、n!パターンの隣接行列の和
元の隣接行列
011
110
011

数え上げるべき組み合わせ
001
100
010

010
100
001
  • これはsgnをつけると行列式になる!

転倒数の数え上げ

  • 問題そのものは「クロッシング問題」と呼ばれる。
  • 要するにバブルソートの交換回数。転倒数は反転数とも呼ばれる。
    • 愚直にはO(n^2), 普通にはO(n log n), 世界最速はO(n sqrt(log n))
  • 解法
    • BIT使ったり([l, r)を見るときに、rに着目することが大事な視点。転倒数はl < r && x_l < x_rなる条件を数え上げれば良い。これはrを0からnに動かして、BITを用いて値空間で[0, x_r)を足しこんでいくことで実現できる。)
    • 表使ったり

オイラー閉路の数え上げ

  • BEST theorem
  • オイラー路はグラフの全辺を使うパス
  • オイラー閉路は、閉路であるオイラー路。

補集合の数え上げ

  • 補集合を数え上げたほうが早いケースがある
    • Tenka1 2019 D
      • 赤の総和を固定しても青と緑にはまだ自由度があるので、場合の数の計算に不十分だと思って、赤の総和だけではなく赤の総個数も状態に追加した結果O(n^2 m^2)となって死んだ
      • せっかくDPしてるのにDP内部で数学でRの個数rに対してn-rをGBに分けるために2^(n-r)-2を乗じるみたいなことをやっててセンスがない(何がDPに押し付けられるのかという直感がなさそう)

格子点に頂点を持つ三角形の内部の点数

  • ピックの定理

二分探索による数え上げ(の最大化)

  • 大抵、数を決めると貪欲が効いてうまくいく、みたいな構造になっている
  • ARC 91D
    • 数え上げの最大化でも二分探索ができる
  • ARC 94D
    • 数を固定すると、数列のelement-wise積の最大値がX以下か?という問題に落ちる

式変形のデバッグ

  • 式変形でミスしたことがわかったら、式に出てくる変数に小さめの数を代入して、式変形を一行ずつたどることで式変形をデバッグできる

包除原理

  • 「すべてのトッピングも2種類以上乗っている→あるトッピングが1種類以下」を引き続ける→これは包除原理、みたくなる
  • 包除原理は、「異なる玉8個を、異なる箱3つ x_iに入れる方法の中で、全ての箱に1個以上入っているような場合の数を求めよ」が簡単な例題である。
答え
= |全事象| - |x_1に1個未満入れる方法の集合 ∪ x_2に1個未満入っている集合 ∪ x_3に1個未満入っている集合|
= 3^8 - (3C1 [x_1に1個未満入れる方法の集合] - 3C2 [x_1に1個未満いれてx_2に1個未満入れる方法] + 3C3 [x_1に1個未満いれてx_2に1個未満いれてx_3に1個未満入れる方法])
= 3^8 - (3*2^8 - 3*1 + 1*0)
  • 多次元の包除原理
    • 「条件A_iがn個与えられて、k個以上条件を満たす〜を数え上げよ」という式を考える。k=1では、ちょうど1個満たす時の和がだいたい答えかなー、でもそれだとちょうど2個満たす時の和が重複しているから消そうなー、でもそれだとちょうど3個満たす時の和を消しすぎたなー…とやっていくのが包除原理。(ベン図を考えると、k=0の時は普通に全事象で、それ以外の時に意味があることがわかる)
    • 包除原理は大抵非常に数学ゲーになる
    • Codeforces 493 D2E

確率

  • 総和の総和
    • Code Festival 2018 Relay E
    • 数え上げを期待値の計算だと思うことで、その嘘っぽさを期待値の線形性の嘘っぽさに押し付けることができる
    • 期待値の線型性 E[X+Y]=E[X]+E[Y] は、XとYとが独立でなくても使えるのが強い!!
  • 期待値の線形性
    • 「1からnの数字がある。ここからランダムに相違なk個を取って足した時の和の期待値を求めよ」
    • 確率変数X = ランダムに相違なk個を取って足した時の和
    • E[X] = \sum_x x P(X = x)
    • から式変形が進まない
    • distinctなX_1, ..., X_kを選ぶことにするとE(X_i) = (n + 1) / 2だから当然E(\sum X_i) = k(n + 1) / 2というやつと、各iが選ばれる確率はk/nだからk/n * (1 + ... + n) = k(n + 1) / 2というやつ
  • 何回で終わるかわからないもののコストの期待値を求めてください、みたいな奴は、Y=i回で終わる、という確率変数を導入して、E_Y[E_X[X]] = sum_{y \in Y} P(Y = y) E_X[X | Y = y]として、ちょうどk回で終わるコストの問題に帰着すれば良い。
    • 逆に、k回で終わるもののコストの期待値を求めてくださいだったら、確率変数X_i = ちょうどi回目に選んだ数みたいにして、求めたい値はE[sum X_i] = sum E[X_i]としてしまえば良い。
    • 何回で終わりますか?系は、状態iから初めて終了までにかかる回数の期待値、に関してDPをするのが典型

重複して数えていないことの確認

  • 数え上げはdpなのでdagと仮定して,
    • 状態iから状態jに配るときに, i → k → j と配られる k が存在しないか, 存在しても i → j と i → k → j は異なることを証明することで納得しています
    • 数え上げでは、事象をdisjointな集合に分けてそれぞれ数えて足し上げるということをよくやります

区間の数え上げ

  • 条件を満たす[l, r)を数え上げる計算方法
  • cnt_{[l, r)} f(l) < f(r)なる条件に持って行くと、fを前計算して転倒数に帰着できる
    • ARC101D Median of Medians
    • ARC75E 相加平均のやつ

0回以上の操作で生まれる相違な列の数え上げ

  • 要するに\( \sum_t\ f(s, t) \), ただし\( f(s, t) \)\( s \)から\( t \)へ0回以上の操作で到達可能かを表す判定関数
  • Sから0回以上の操作Xによって構築可能な相違列を計算する方法
    • まず、f(s, t) = sからtに行けるか?という判定問題を解く
    • f(s, t)が解けないと少なくともそれは解けないので、まず解く。
    • f(s, t)を簡単に解くための必要十分条件を見つける
    • これをDPなりなんなりで数え上げ化する

一般化川渡り問題

Blackbox linear algebra

参考

原理

概要

  • 行列累乗
    • 普通O(n^3 log k)で、テプリッツ行列・巡回行列・コンパニオン行列などでO(n^2 log k)だった。
    • めちゃくちゃ大雑把にいうと、これのlog kを分離してO(n^3 + log k)やO(n^2 + log k)にする手法
  • 以下の時、「線形漸化的」であるという。(antaさんの造語?N階線形漸化式を満たすという表現
    • これはまさに、無限列が実は初期値+線形多項式で生成できる、という意味!
Vを体F上ベクトル空間として、V上無限列{a_i}がある。

ある多項式cが存在して、
c(x) = c_0 * x^0 + c_1 * x^1 + ... + c_n * x^n

全てのiについて、
c_0 * a_i + 
c_1 * a_i+1 + 
c_2 * a_i+2 + 
... 
c_n * a_i+n = 0
  • 線形漸化的な無限列は、多項式cの空でない集合を持つ。
  • cをうまく取ることで、最小次数を有しかつ最大次係数が1となるような多項式を唯一に選べる。これを最小多項式と名付ける。
  • 行列Aに対して、無限列{A^i}は線形漸化的である。
証明: ケイリーハミルトンの定理により、c(A)=0。

任意のiについて、
c_0 * A^i + 
c_1 * A^i+1 + 
c_2 * A^i+2 + 
... 
c_n * A^i+n = 

A^i * (
c_0 * A^0 + 
c_1 * A^1 + 
c_2 * A^2 + 
... 
c_n * A^n) = 

A^i * c(A) = 

0
  • 最小多項式は、「最小多項式の次数の上限n」「列の先頭2n要素」の2つだけで構成可能
    • 証明不明
  • 体上の最小多項式は、Berlekamp–Massey algorithmで計算できる。資料
    • 証明不明
  • 体上のベクトル{b_i}の最小多項式は、ランダムベクトルuを取ってきて、{u^t b_i}の最小多項式と高確率で一致する。
    • 証明不明
  • 体上の行列{A_i}の最小多項式は、ランダムベクトルuを取ってきて、{A^i u}の最小多項式と高確率で一致する。
    • 証明不明
  • 最小多項式が既知ならば、線形漸化式の第j項はO(k^2 log j)で計算可能。
b_i = a_i
b_i+k = 
c_0*+b_i+0 + 
c_1*b_i+1 + 
...
c_k-1*b_i+k-1

f = x^k - c_0 x^0 - c_1 x^1 - ... - c_k-1 x^k-1
x^j mod f = d_0 * x^0 + d_1 * x^1 ... d_k-1 * x^k-1 

x^2n mod f = [xの2k-2次多項式] mod f = [xのk-1次多項式]
         O(k^2)                     ①
①はx^i (i <= 2k-2)を前計算O(k^2)することで、O(k^2)で計算可能。

最後の合成ではlog j個の掛け算を行うので、全体でO(k^2 log j)
  • これらから、行列累乗の高速化が実現された。

多項式

畳み込み

  • FFTとかNTTを使うとO(n log n)で計算できる
    • NTTは任意のmodで行ける

公式

  • 総和の分解
    • IMG_0570.JPG
    • ARC 59C
  • くくりだしの漸化式
    • IMG_0569.JPG
    • ARC 59C

ラグランジュ補完

  • N次式で(N+1)個の値がわかっているので、ラグランジュ補間で完全に式を求めることができる。

母関数

  • 第k項が無限列{a_i}となる関数。
  • 漸化式と母関数 [#ya65cdad]
    • 講義資料
    • 漸化式→母関数
      • 母関数に関する漸化式を立てる
    • 母関数→一般項は非常に簡単
      • ただマクローリン展開すればいいだけ
    • 母関数fが有利関数ならば、漸化式は線形漸化的
      • f=g/hとすると、1+deg h次の線形漸化式となる。
  • 母関数を直接求める [#pa2f69f3]
    • 母関数が先に簡単に求まるケース
      • 「正整数の列aが与えられるとき、aの重複なし部分和でちょうどbになるものは何通りあるか?」=「f=∏(1+X^{a_i})f=∏(1+X^{a_i})とするとき、fのb次の係数を求めよ」
      • 「正整数の列aが与えられるとき、aの重複あり部分和でちょうどbになるものは何通りあるか?」=「f=∏Σ(1+X^{j*a_i})f=∏(1-X^{a_i})^{-1}とするとき、fのb次の係数を求めよ」

結合性

  • 多項式漸化式はモノイド
    • maximaのコード
    • 2次
expand(subst(subst(a3*x+b3, x, a2*x+b2), x, a1*x+b1));
expand(subst(a3*x+b3, x, subst(a2*x+b2, x, a1*x+b1)));
  • 3次
    expand(subst(subst(a3*x^2+b3*x+c3, x, a2*x^2+b2*x+c2), x, a1*x^2+b1*x+c1));
    expand(subst(a3*x^2+b3*x+c3, x, subst(a2*x^2+b2*x+c2, x, a1*x^2+b1*x+c1)));

高次連立漸化式の係数変更クエリ

  • まず、漸化式を愚直に代入すると、各漸化式毎に出てくる項は有限であることがわかる。
  • 従って、各漸化式ごとに、1つ前の係数から次の係数を計算する行列を計算することができる。
  • これを対角に連結(してもしなくてもいい)すると、行列連鎖積*初期値になるので、Segment Treeで計算できる

IMG_0665.JPG

点群処理

2つのsetを同時更新

  • 範囲のどれかが0であれば、2つのsetを同時更新するだけでkd-tree相当の処理がO(log n)、しかもnot amotizedで処理可能
    • set<int, int> fs, sf; // first-second, second-first
  • CF 366 D2C

kd-tree

  • 平衡Dynamic kd-tree
    • spaghetti codeにあるやつ
    • 二次元閉区間の点を追加、点を削除がO(log n + k), k=ヒット数、amortizedで処理可能。
    • 点に情報を乗せることもできるはず
    • スケープゴート的に平衡処理する
  • CF 366 D2C

応用:2D Euler Tour

  • iwiwi先生の木のクエリ完全制覇
    • 1D Euler Tourだと群的データしか載せられなかったのが、これだとモノイドも載せられるっぽい

ラグランジュ補完

Zeilberger's Algorithm

盤面

上書き

  • 盤面、上書きは後ろから塗りはがして?にしていく
    • Topcoder 655 D1E

DP

  • 愚直かつ典型に、O(n^4)の区間DPが可能。

盤面の一致判定

  • 二次元ロリハを使うとよい!(AGC 23B)

マトロイド

  • よくわかってないし必要かもよくわからない。
  • http://d.hatena.ne.jp/drken1215/20121212/1355280288
  • ある集合がマトロイド=ザイズが同じ一番大きな集合を何個か持ってきたものをマトロイドとする
    • マトロイドの基=極大独立集合
    • マトロイドの集合から任意個数の要素を削ったものをマトロイドに加える
    • このように出来たものがマトロイド
  • マトロイドの要素は「独立な」集合と呼ばれる。
  • 単位時間ジョブスケジューリング問題(http://topcoder.g.hatena.ne.jp/spaghetti_source/20121103/1351911603参照)
  • ベクトルマトロイドに用いる問題(SRM 526.5 DIV1 Hard)
    • 行列Aが与えられたとき、Aの列ベクトルをa_1, a_2, …, a_nとすると、M = {a_1, a_2, …, a_n}、I = (Mの部分集合のうち、一次独立なモノの集合)とすると、(M, I)はマトロイドとなります。これはベクトルマトロイドと呼ばれます。
    • グラフの枝集合に対して森はマトロイド。最大独立集合は全域森
    • 2つの基に対して、かぶっていないものを交換しても両方ともマトロイド。これをマトロイドの交換公理と呼ぶ。基と基でこれをやると、同じように交換後も基である。これは凄くて、凸っぽい。
    • マトロイド(M, B)に対し、ある基Sが与えられたとすると、以下の2つは同値である。「Sが最大重みの基」「Sの近傍となる基S^’で、Sよりも重みが大きい基は存在しない」これはまさにGreedy!
  • https://topcoder.g.hatena.ne.jp/spaghetti_source/20121103/1351911603
    • ここからスパゲッティソース。ここ数週間の解説はすごくガチ
  • 「典型DP」を覚えておくのと同じノリで「典型マトロイド」を覚えておくのが重要だと思います.
    • 具体的に抑えておくべきこととしては,
    • 有名なマトロイド:自由マトロイド・線型マトロイド・グラフ的マトロイド・マッチングマトロイド,ガンモイドなど
    • 既知のマトロイドから新しいマトロイドを作る操作: 制限,縮約,マイナー,ユニオン,誘導

Gray Code

  • ハミング距離が常に1の表現
  • 使い道
    • アブソルートロータリーエンコーダで隣り合った角度のハミング距離がでかいとこまる
    • 遺伝アルゴリズムで使うと性能が上がる

定数倍高速化

ループ内部の処理を前処理に回す

  • DP内部での処理を軽くするタイプの定数倍高速化は結構効く(40倍くらい早くなった)
    • SRM 692 D2H

データ構造の低次化

  • map->unordered_map->vector->配列

ullのmodは早い

unsigned long longにして mod 演算を高速化したり,必要になるまでO(N)の更新を後回しにする,とかやったら通りました(更新,取得,更新,取得,...の順でクエリが来るN=10^5,Q=2*10^4のケースありますか?)

vectorのreserve

ループアンローリング

emplace_back

  • moveが呼ばれるので少し早い
  • たとえば以下の2つはほぼ同じだが、メモリ確保回数が減る
vector<vector<int>> vvi;
vvi.push_back(vector<int>(10));
vvi.emplace_back(10);

bit並列

SSE

  • SSE?
  • SSE具体的には、mask使うとifを簡単に表現できたりするけど、コンパイラもそこまではやってくれないとか

キャッシュ

  • やるべきこと
    • 配列の走査順を適切にする
      • DPでは、多くループが回るものを、ループの内側にすると、早くなる。
    • メモリ確保時にはできるだけ一括して確保する
  • 関数使わないとキャッシュが効きやすくなることは基本的にない
    • 関数をなくして早くなるのはスタックを積むコストを無くせるからですが、現代ではinline関数で書けば十分なケースが大半だと思います。

枝刈り

  • Codeforces 391 D2D
    • maskとkのループの順番を変えて枝刈り

modを使わない

  • %を-=moにできるならそうする。
    • ローカルで変わらなくてもCFでは3倍速に

intよりuintが早い

  • おもに%, /が速いので、ギリギリなら/, %を使う良い

メモリを使い回すDPは速い

  • 特に配列1つでできるとすごくよい

Dancing Links

  • 幼稚園児高橋君のやつ
  • 疎行列の「列を削除する」「行を削除する」みたいな操作が高速に行える。
  • Knuth’s algorithm X
    • Exact Covering({1, 4}, {3}, {1, 2, 5}, {2, 5}で、{1, 2, 3, 4, 5}をきっちり作れるか?)という問題が速めに解ける(この問題自体はNP完全)。この問題は疎なのでdancing linksが有効。
    • また、Exact Hitting(集合は、中に入っている数字を一つ選ぶことで、殺すことができる。全ての集合をちょうど1回ずつ殺せるか?)は、Exact Coveringと同値。Exact Hittingはいい感じの解釈ができて、状態を「ある場所xにiを割り当てる」場合にx_1からx_iを作っておく。その後、制約条件を「a_1, ... , a_kのうち、ちょうど1つしか満たされない」という形で表すと、Exact Hittingに帰着する。
    • また、SudokuはExact Coveringなので、これでいい感じに解ける。

埋め込み

Range Tree

  • 特に、指定された区間や点にオーバーラップする全ての区間を探すという問題を効率的に解くことができる。
  • 例えば、表示されている地図内に見えている全ての道路を求めるとか、3次元のシーンで見えている全てのオブジェクトを求めるといった用途に使われる。

「データ構造をマージする一般的なテク」

  • 挿入が定義されたデータ構造がn個ある。この時「片方Aのデータを全てもう片方Bに挿入し、Aをclearする」というマージ操作において、必ず|A|<=|B|とする。すると挿入操作をO(T(n))として
    • 最悪計算量O(n log n T(n))
    • ならし計算量O(n T(n))
  • なお、集合サイズの制約がないと、最悪O(n^2 T(n))となる。
  • 「挿入が定義されたデータ構造」とは?
    • vector
    • set
    • priority_queue(併合をサポートするLeftist HeapやSkew Heapで併合ならしO(log n)なので、そっちを使うべき)
  • Quick-Findはvectorでこれを行ったUnion-Findもどき
    • Union O(log n)
    • Find O(1)

整数計画法

  • 大概のアルゴリズムは整数計画に落ちる
  • 綺麗な形なのでなんとなく楽しいが、実際に解くのはNP困難の上、IPソルバは非常に長いので現実的には使えない(と思っている)
  • 整数計画に落としたあとに、多項式時間で解くためのコツをまとめる

変数定義

  • ベクトルxが未知変数
  • ベクトルaが係数

証明でよくある手法

  • S=Σxと置く。
  • Sから1つかけているなら、S-x_iときちんと変形
  • T>Sなる超大きな定数を前提する(あとでそのようなTが存在することを示す必要あり) =存在性証明の顔をして一例あげてしまう

存在性証明の顔をして一例あげてしまう

  • 存在性証明は、順逆の証明をするのだが、まるで二回順方向に証明しているように示す
    1. まず必要条件を示す
    2. つぎに解を具体的に提示(むつかしい。元の拘束条件から求める)
    3. その解を拘束条件に代入して、必要条件と同値を示す
  • IMG_0595.JPG

数値計算

n次収束とは

pow, logを減らす

  • 求根では、全体にlog, expをかけても結果は変わらない(これらは遅い)

Householder's methods

ランベルトのW

  • y = x log xの逆関数。
  • Halley法で超高速収束(3次収束)
    • Halley法を計算すると、\( x_{n+1}=x_n-\frac{xe^x-z}{e^x(x+1)-\frac{1}{2}(xe^x-z)\frac{x+2}{x+1}} \)
    • 2回3000、3回48058、4回31150、5回1117でしたので、平均3.89回イテレーションで4e-16の誤差

数学

遅延伝播

  • pushの流れ
    • 子に伝播して
    • 遅延評価して
    • 遅延解消する
  • もしかして、何個かパターンある?

謎木

  • 謎木によるordered setの実装。lglg n
    • van Emde Boas木として知られている構造はMビットユニバースに対する上位ビットサイズを H(M) = M/2 に選んだデータ構造
  • ところが,vEB木はその計算量インパクトと比べてほとんど実用はされていません.
    • これはvEBの計算量ゲイン:log(U) vs loglog(U) が効いてくるには十分大きなユニバースでないといけないのに対し,そのような大きなデータの処理では,データアクセスのオーバーヘッド(ファイルの読み出し等)が支配的になってしまい,もっと単純でデータ配置に即したB木などの構造のほうがトータルで早くなるから

ハッシュ

  • \( n \)bitのハッシュは、期待値\( 2^{n/2} \)個の相異データを突っ込むとぶつかる
    • 32bitハッシュで65536個
    • 64bitハッシュで4e9個
    • 誕生日365日は、\( \displaystyle \sqrt(365)=18 \)人くらいもってくるとぶつかる!(この意外性、思い込みを突いた衝突攻撃を誕生日攻撃と言う。)
  • md5sumのヒット率
  • ロリハのヒット率を調べたい
    • md5sumの結論は、要するに、ハッシュの質が良ければ64bitハッシュで十分
  • ハッシュのデータ型は、size_tではなくて、uint64_tなどbit数が明示されたものを使いましょう
    • 32bitのハッシュは65536個でぶつかるので死にます。

簡潔データ構造

細々とした実装テクニック

  • a*nのオーバーフローのチェック
    • if(a*n/n==a) cout << “no overflow” << endl; // オーバーフローしてたら
    • if(a * 1. * n < (double)LLONG_MAX/*2e18とか雑でも可*/) cout << “no overflow” << endl; // 精度落として計算してみる
  • find_ifとall_ofを使うべき。
    • 普通に実装するとめっちゃ時間と紙面を使うので。
  • find_ifのexistsとしての使い方
auto it = find_if(all(memo), [&](P x){return x == 1;});
if (it != memo.end()) 
    hoge();
else 
    huga(*it);
  • グラフDFSのメモ化の時に、遷移前にusedを見るとちょっと早い(2倍程度)。いってみてからusedを見ると、遅い。
  • swapやるべきときは、ループのはじめにやるrep(_, 2) { swap(a, b); みたいなかんじで。なぜかというと、最後にすると途中でcontinueすることがあるのでバグる
  • tieは辞書順なのでこんな感じにすると辞書順比較関数を作ることができる。
std::tie(n, s, d) < std::tie(rhs.n, rhs.s, rhs.d);
  • 5000だとllのO(n^2)空間計算量だと、MLEこわいのでint32_tなどきちんと明記
  • 乱択で順番を変えたい場合はrandom_shuffleを使うと良い
  • randはクソ(環境依存、質が悪い)ので、xorrandを使いましょう。
  • 左右の両側から試さなければならないばあい、対称ならreverseを最後に入れてrep(_, 2)で囲む
  • 配列のrotation操作
    • 円環数列は実は、a+aを考えてやると作れてしまう。

座圧

  • 座圧でソートした後の数列は、「(v, id)がi番目に小さい」という意味がある。
  • 「i番目に大きい位置」「i番目に大きい値」をO(1)でクエリできるようになると思っておけば良い

括弧列

  • 正しいカッコ列は、(が必要な数と)が必要な数を管理すると良い
  • 正しいカッコ列にするために必要な(と)の数について(SRM688D1M kmjpさんのdodo、「下がりすぎなら(だとみなしとく、つまり必要」)
    • 床突き抜けたらダメなので(に強制的にする
    • 今後全部)じゃないといけないので強制的に)にする

構築

  • ジャッジの作り方を考える
  • 同じ条件で、取り除いたり足したりすることができるかなどを考える(ARC91E)
  • 「最適解を1つ持ってくると」からはじめて、どういう操作が改善するかを絶対に考えること!!!
  • 構築の時に、演繹的に「どんな構造が欲しいか?」と考えるのも大切だと思うんだけど、逆に「こういう制約を加えた時に構築可能か?」みたいなDPの状態ガチャみたいなことが必要なのだろうとは思う(そこまで到達していなかったけど)

YES/NO

  • 乱択
    • 乱択はギリギリっぽくてもわりといける(乱択マジック)がある

考察

基本

  • まとめ
    • 逆から見る
    • グラフ
      • 何らかの順に構築していく
      • 辺に着目
    • 同一視
      • 何を同一視できるか?区間?
    • 最小の操作回数
      • まず操作回数を固定して全探索
    • 制約をきちんとグラフ構造で記述する
    • gcdで同一視、3乗で同一視、衝突し得るもので同一視
    • とりあえずこういうものがある、と決め打ちして考察
    • ソートする
    • 辺に着目すること
    • 値でソートする
    • いろんなものに着目する。点、辺、面、グリッドなど
    • 自明な条件の列挙、「プレイヤー1がこれ以上改善したいならば…」
    • フローか?DPか?二分探索か?などなど、とにかくいろいろ考える
    • わからなかったら問題制約を減らす
    • 貪欲的に考える(もしこの状態からより良くしようと思ったら…)
    • 数直線で考える
  • とりあえずこういうものがあると考察
    • AGC13Bとか、AGC17Bとか
  • 「1時間考えても解けない!」みたいなパターンって、全然違うところで思考が無限ループに陥ってる、みたいな感じ
    • 「30分解けなかったら思考をBFS的にしていったんリセットする」みたいな感じのことをする
  • 徐々に構築していく
    • Codeforces 426 D2D
  • 問題制約の削減
    • SRM 692 D1M->SRM 692 D2H
  • 貪欲的な思考(大概の天才問題が解けないのはこれのせい)
    • Mujin Programming Challenge 2017 - A - Robot Racing
    • AGC 18B
  • 数直線で考察
    • SRM688D1M(区間を数直線みなして、各場所から始まるvvllで管理)
  • グラフで考察
    • AGC 003D
  • 同一視
    • AGC003D(3乗で同一視)
    • Codeforces 431 D2D(ぶつかり得るもので同一視、グループ化)
    • SRM605D1E(プラスマイナスがふらふらするのはめんどいのでABSをとっても同値)

DP

  • まとめ
    • ちゃんと紙の上に式を書く
    • 表を書いて、込み入った矢印をシンプルにする
    • 配るのともらうの、両方ともきちんと考える。もらうほうがデータ構造的との相性が良いケースが多い。
    • 制限付きの状態をきちんと考える
    • DP内部に入り込んだ謎の情報も、漸化式表現にすることでDPに組み込める可能性
  • 制限付きDP
    • Codeforces 416 D2C(「座標iの右端にかぶる区間の左端がiを全て上回るような…」とかいう意味不明な状態を含める)
    • SRM 653D1E 複数制限があるけど、初めにあたった制限のみを展開すると、再帰的に網羅できる。
  • DPに入り込んだ情報を漸化式表現にする
    • Codeforces 426 D2D

XOR

  • まとめ
    • 桁ごと見ていくしか無い!!
    • Trieで上の桁から決めていく
    • XORは偶数奇数と見れる(mod 2の和と同じなので)
    • GF(2)の加算としてのXOR(XORは、余剰体Z/2Zの加算演算である)
      • なお乗算はAND
  • 加算かつ減算 [#wb972263]
  • a xor a = 0
  • 最大化 [#je68418a]
  • かなり凸凹した演算なので、基本的にはDP
  • 最大化クエリ [#p83c86ac]
  • Trieを使うことでXORをO(log n)で最大化することができる。
    • Codeforces 367 D2D
  • 累積和するといいことがある [#u0c36487]
  • XOR範囲和が0となるような範囲の数え上げ SRM 565
  • g_i+(g_i-1)は高々log n個
    • Grundy数なんだけど操作g_i->(g_i-1)を表現するのつらすぎるのでg_i->g_i+g_i+(g_i-1)とすると、g_i+(g_i-1)が高々30通りに
  • xorを組み合わせて何かを作ろう系
    • kビットのベクトルを組み合わせて目的のベクトルを作る的な発想になると連立方程式に落ちて掃き出せば大体解ける
    • 1 bitのxorはmod 2の剰余体なので、整数はF_2^d (dは2進数桁数)のベクトルであると言える。行列に関する吐き出し法や逆行列の考え方を使うことができてしまう

GCD

  • まとめ
    • 数直線で考えて、小区間に分解(O(log n)になる)
    • 包除原理
  • gcd系で数字が小さい場合は数直線を考える
    • Codeforces 432 D2D
    • 理由:gcdで合わせるのは小区間についてのクエリが効率的に求まるならばO(AMAX log AMAX)が可能(調和級数で、gが増えていくと小区間の長さはn/gなので)
  • 包除原理
    • CF 428D
    • Atcoder ABC ??D LCM Rush
    • 上から見ていくと、素因数の集合みたいな変なことをしなくてもO(n log n)で行ける

回文

  • まとめ
    • 長さの小さい順にDPする(長さ0, 1が自明な回文となる)
    • メモリが足りなそうならばmanacher, SA-ISで高速化・省メモリ化
  • 回文DP
    • Codeforces 427 D2D

重複を除いて・種類の数え上げ

素数

  • まとめ
    • 因数分解すべき数nが大きい場合、n^1/3まで列挙。これで残った素因数はp, pq, p^2, 1に限定される。
  • 3乗根までの素因数
    • AGC 03D

ペアの数え上げ

  • まとめ
    • count_{l, r} f(l)<=f(r)に頑張って落とす
  • count_{l, r} f(l)<=f(r)
    • ARC75E

Subsetの数え上げ

  • Subset sum:値域に着目すると、リスト+=シフトリストをひたすら繰り返すことによって可能
    • サブセット和を値域で分類して数え上げるテクニック(スライド和を使う)
    • リストのスライド和のコーディングイディオム(逆から舐める)
    • list += list>>kは逆順にループを回す

文字列

  • まとめ
    • Aho空間で考える
  • Aho空間
    • Leetcode 639(Aho空間でのDPは重複ありなしをきちんと考えないと、失敗辺をどうするかが混乱する。重複なしAhoのDPの遷移は、「そのままやる」or「失敗してからやる」となる)

グラフ

  • まとめ
    • DFS後は全域木だと思い込んで考察

  • まとめ
    • パス→木はとりあえず根付き木にして、パスは(lca-a)+(lca-b)-2(r-lca)とする
    • 部分木→オイラーツアー
    • 重心は子がn/2以下で嬉しい。LCAとかにしたい。

構築

  • 数字
    • 2冪
    • 1をつくる
    • 最大値を作る
  • グラフ
    • ウニ、line、二部グラフ、木、クリーク、補グラフ
    • ゲジゲジグラフ
    • Functional Graph

典型問題

  • \( 数列c_i \)\( x \)が与えられる。この時、\( \displaystyle \Sigma a_i c_i = x \)なる\( a_i \)のうち、\( \displaystyle \Sigma a_i \)が最小のものを求めよ。
    • 一般にはNP困難だが、\( \forall i\ a_{i+1} = 0 (mod a_i) \)の時には、少なくとも貪欲で十分。
    • 証明「ある桁に\( c_i \)以上の数字があるならば、最小手数ではない。(\( c_i \)減らして次の桁に移すと\( c_i-1 \)減らせるので)」\( \Leftrightarrow \)「最小手数ならば、全部の桁が\( c_i \)未満」
    • 「最小手数ならば、全部の桁がb未満」の証明だけでは、他の手順で評価値を良くできる可能性があるのでは?→他の手段とは→b^次数差の行き来のみで全係数の操作を網羅するから最小性が言える
  • Nth-number
    • BITの二分探索で探すのが常套手段
    • 追加削除は値域方向に展開して、有効無効のフラグを管理するのが常套手段
  • 数字のやりとりは右から左へと数字を流していって、abs(流れた石の量)によって計算できる
    • 負の流れを考えることが大事
  • フィボナッチ数列の相違な和で自然数が作れる
  • ソートされた一次元の点x_iがあり、その中で全点との距離が最小な点はx_{[n/2]_l}
  • \( x_i (i = 0...n) \)に対して、\( \Sigma abs(x_i - l) \)が最小となる数lを求めよ
    • 中央値を求めるだけでいい(平均値ではない!)
    • 理由:左右見て数が多い方があればそっちに移動したほうがいいので。
    • 1,2,5,8なら[2,5]の全数字が解、1,2,8なら2だけが解。
  • \( ax+y=c (x \in [0, X], y \in [0, Y]) \)なるx, yは存在するか?するならば一つ挙げよ
    • xを[0, min(X, c/a)]の範囲で二分探索(c-ax<=YならOK)。
    • minを取ると、yが0以上という条件が必ず満たされるようになるので、特性関数が単調になる
  • 数列aが与えられる。a[0:i]の上位k個の総和を全列挙せよ。
    • Priority queue

同一性カウント

  • 普通に考えてメモリ上に並べてソートして、隣接前後を比較するだけでいい
    • Codeforces 391 D2C
    • Vectorのcounter
    • この方法だと、vectorのようなものであっても普通にカウントできる。
  • mapにvectorをつっこんでもいいけど、まあメモリと比較が重そうなので。

構成問題

  • 条件がきついから綺麗な構成があるはずだ/こんな条件適当にやれば満たせるやろ の区別は割と楽につくはずで、前者だったら適当な仮定のもとで理詰めするとか制約から感じるとかcheckerの作り方を考えてみるとかいろいろあります
  • 2-SAT(2-SATの解は選べないため)
  • 乱択(乱択の解は選べないため)
    • TopCoder? 2018 TCO R2A Hard
    • イミフ構成はわりかしこのパターン多い

max, minの性質

  • max(a, b)を、「aとbのどちらを選んでもよい」のように制約を緩和しても答えが一致するケースがある AGC28C

親関数

収束加速

  • Aitkenがクソ早い
    • ライプニッツ数列は1e10で収束だが、多重加速法を使うと長さ20くらいで収束する

順位・k番目

  • K番目に小さいあたいを求めよ↓x 以下が K 個あるかを判定する問題にして x を二分探索

順位系をまとめる http://abc062.contest.atcoder.jp/tasks/arc074_b DynamicSumOfOrderK小さい方からk番目以内の合計(priority_queueのみ)

http://pekempey.hatenablog.com/entry/2016/05/16/235152 D-Query 永続

  • BIT+二分探索でO(log n)で順位が可能らしい
  • 数列aが与えられる。a[0:i]の上位k個の総和を全列挙せよ。
    • これは簡単にPriority queueでできる

並列アルゴリズム

  • 並列ソート
    • 奇遇転地法O(n)プロセッサでO(n)のソートアルゴリズム、確かにハードにあってそう。
    • 理論的にはO(n log n)プロセッサでO(log n)ソートアルゴリズムがある。

マンハッタン距離

  • 回転するとチェビシェフ距離!超典型

bit演算

  • sumが限定のbitDP
    • 和風いろはちゃん
    • 1進数をconcatして持つと、sum bitになって持てるようになる
  • コーディングイディオム

入出力

実験

  • 極めて重要
  • 天才みを感じたら即実験
  • DPの高速化。以下を試す
    1. コストはmongeか?
    2. チョイスは縦に単調か?
    3. チョイスは横に単調か?
    4. DPテーブルは凸か?

フラクタル

  • フラクタルのn進数感(K分木になるので、どういうルートで言ったのかが後で辿れる)
    • GCJ 2016 Qual D, yukicoder Fractal Gravity Glue

Simpath

整数計画法

LP双対

概要

差分制約グラフ問題のポテンシャル差とみなすと、双対を取った時にグラフアルゴリズムが使えるようになることも
和の制約無向アルゴリズムと対応する
最短経路「p_i - c_e >= p_jの条件群を満たすp_t-p_sを最大化」が双対(牛ゲー)
最小費用流「折れ線コストf(p_i-p_j)の線形和の最大最小」が双対
最大流最小カットが双対
区間スケジューリング問題ABC103Dと双対
連続ナップザック問題双対取ると綺麗になるらしい
  • 用語
    • 主LP=主問題(最大化・最小化するべき式)+主一般制約式+主変数制約
    • 双対LP=双対問題(最大化・最小化するべき式)+双対一般制約式+双対変数制約
    • 一般制約式は、変数の絡み合いを含む制約
    • 変数制約は、x<=0, x>=0などの簡単なもの。
    • ポテンシャル=主問題一般制約式に割り当てられた双対変数のこと(頂点制約だから頂点にたいする条件となる)
  • 以下のもとで、主制約・双対制約の不等号の向きの変換は機械的にできる。
    • 一般制約式の全ての不等号系が同じ
    • 変数制約式の全ての不等号系が同じ
    • そうではない場合は、適当に変数をおくとそのような形になる。
最小化問題最大化問題
変数x<=0一般>=
変数制約なし一般=
変数x>=0一般<=
一般<=変数x<=0
一般=変数制約なし
一般>=変数x>=0
  • LPを機械的に双対に変換する方法
    1. 主制約のそれぞれに、双対変数p_iを割り当てる
    2. 双対問題「min sum p_i [主制約の右辺]」が確定
    3. 主問題の係数ごとに、一本の双対制約が出る。以下を行う。
      • 主問題の係数・変数のペア(c, x)を1つ固定する。c=0のものも。
      • 双対制約の右辺=主問題係数
      • 双対制約の左辺=全ての主一般制約s_iとそれに対応する双対変数p_iについて「s_iのxに関する係数 * p_i」を足したもの(要するに\( \sum_{p_i \in P} p_i \frac{\del s_i}{\del x} \)
  • ポテンシャル
    • 要するにグラフアルゴリズムをLPにした時の、主一般制約に対応する双対変数のこと。

限定分岐法

  • f(x)を最小化sする時、xの確定した自由度Sと、確定していない自由度Tに分けて、f(x)=f(S, T)とすることを考える。
  • 用語
    • 許容解=下界=f(x)の今までに見つかった解の中で最も良い物
      • (1)見つかり次第更新
      • (2)貪欲関数b(x)を使って更新
    • 緩和解=上界=f(x)の緩和問題g(x)の最適解(毎回計算する必要)
  • 重要な性質
    • 緩和問題が真の制約を満たすならば、それは厳密解(f(S, T)の中で、Tの最適解が確定する)
    • 緩和<許容ならば、それは解になりえない(f(S, T)のTの全てが最適解を更新しない)
  • アルゴリズム
ll 許容解 = INF;
// 自由度sが確定していて、自由度tが未確定の時の最適解
ll dfs(state s, state t) {
  緩和解 = g(s, t);
  if (緩和解を与えるs, tが真の制約を満たす) return 許容解 = min(許容解, 緩和解);
  if (緩和解>許容解) return INF;
  ll ret = INF;
  for (auto x : tの自由度のうち確定させたいものの集合) {
     chmin(ret, dfs(s+x, t-x));
  }
  許容解 = min(許容解, 緩和解);
  return ret;
}
int main(void) {
  許容解 = 貪欲関数(); 
  dfs(φ, all);
}
  • 緩和関数の作り方
    • ラグランジュ緩和=「条件に違反してる度」をminに突っ込む
min xy
s.t. x>0, y>0, x+y<1

min xy + s(x+y-1)
s.t. x>0, y>0
  • 線形計画緩和=離散計画を連続問題にしてしまう
  • 緩和問題のアドホック高速化
    • http://dopal.cs.uec.ac.jp/okamotoy/lect/2013/opt/handout03.pdf
    • アドホックに高速化できるケースがあるらしい
    • 線形緩和問題というのは、要するに整数ではなく実数で解くということ。ナップザックの線形緩和は貪欲法で解ける(許容解のための貪欲とは異なることに注意)

まとめるべきこと

A*サーチ 要するに、ダイクストラでは今までの距離が短い順に展開していくが、A*では今までの距離+今からゴールまでのコストをが小さい順に展開していく。こういうことをすると、hの性質によっては最短距離が見つからなくなる可能性がある。しかし、hをノードnからゴールまでの距離だとした時、あるヒューリスティクス h(n) が 全てのノード n について 真のゴール距離 h*(n) を上回らない場合、hはAdmissible/許容的であると言う。こういう時のみ、A*による解は最適であることが保証される。

・サイクル列挙は全域木(サイクル基底を見ること)

最適路DAG

  • 最短路を実現するDAG
    • 最短路を実現する経路のみで構成されたグラフ
    • 最適な答えを出力するDPの答えとか
  • DAGの数え上げやDPはトポソしなきゃ…とか思うくらいなら始点からメモ化再帰すればかんたん

高速ウオルシュ-アダマール変換

  • SRM 518 div1 hard
  • いつかのCSA

クエリ先読み

BITとかで何か上手くできるやつ

Mo

  • 区間のクエリで、クエリ区間尺取りできるならば

永続の代用

  • クエリ先読み+単調なデータ構造に対してできる永続の代替
  • 単調=Incremental, Decrementalという意味
  • パラレルバイナリサーチ
    • Q個のクエリ先読み可能+クエリが時間に対して単調な場合、時間幅Tの永続データ構造に相当する機能を、省メモリでO((Q q+t)log T)で計算できる

ポテンシャル

	A*サーチが関係あるらしいので、A*を調べた。微妙に変なコストhを足しても最適解が保持されるようなヒューリスティック関数についての理論的考察。要するにh(n)=nからゴールに行くコストが真のコスト以下なら必ず最適解が保持される。(で、ポテンシャルってなんですか?)
	Primal Dualは、fを流そうとする時の最小費用流O(FElogV)のアルゴリズム。かなりFord-Fulkersonに似ていて、残余グラフでDFSするかダイクストラするかという話(Ford Fulkersonは毎回DFSするのでO(fE)、Primal Dualは毎回ダイクストラするのでO(fElogV))
	というか、Primal Dualってなんで負辺あるのにダイクストラできることになってるんですか

Primal Dualでなぜ負の辺があるのにダイクストラができるのか 負の辺があっても、実行可能ポテンシャルというやつが存在すればダイクストラ出来るひふ(それを最小費用流に応用したのがPrimal Dual) http://www.bunkyo.ac.jp/~nemoto/lecture/shizu-sys1/shizu-shortestpath2003-r.pdf http://d.hatena.ne.jp/smitch/20120305/1330926130 http://www.bunkyo.ac.jp/~nemoto/lecture/opt-model/2008/duality2-2006.pdf LPとして見るとポテンシャルは双対変数で、グラフアルゴリズムとして見ると負辺を消すために導入する量ですね(直感的にはポテンシャルの値は原点からの最短路長で、この時辺のコストは「最短路よりどれくらい無駄か」みたいなものを表します) 簡約費用非負のポテンシャルを維持しながら可能流を求めているため。僕は下の本の3.3章で勉強しました。 amazon.co.jp/Text-数理最適化-久野-誉人/dp/4274212440 全点対最短路のJhonsonは非負維持じゃなくて非負化にポテンシャルを使っていて面白い。(この動画が分かりやすい→youtube.com/watch?v=NzgFUw…)LPの頂点の双対変数がポテンシャルらしいけどよく分からない。

緩和問題のLPとやらは結構一般生がありそうだし実装パターンを得たい気持ち http://ci.nii.ac.jp/naid/110002768734

最小全域木

  • Kruskal法、Prim法(、時々Boruvka法)を適用すべしの原則に基づいて何を適用するかを考える
  • ブルーフカは複雑なグラフのMSTを求めるとき、
  • 頂点が色分けされています。「各頂点から別の色までの距離の最小値」を全部求めてください
    • という問題が簡単に解ける場合に有効です。
    • (今回の問題だと、列を舐めるときにコスト最小のものを上位2色分だけもつとO(N))
  • 最小全域木
    • Prim, Kraskal, ブルーフカのどれかを高速化
    • 使われない辺を数学で求める(任意のサイクルについて辺コストが必ず最大になるような辺は不要)
  • 最小全域木のに選ばれた辺をE, 選ばれていない辺をnot Eとする。
    • この時、G = E cup not Eについて、
    • not Eから辺eを一つ選んでEに追加すると、ちょうど1つのサイクルができる。このサイクルでのeは最大コストを持つ(もし重みが最小じゃなかったら、その最小の辺と青線とを入れ替えることで、重みが最小のはずの全域木の重みを減少させることができてしまうので)
    • つまり、
      • Gの任意のサイクルについて、最大コストの辺は不要
    • 実は逆も言えて、
      • 任意の辺 e in not Eについて、Eに追加してできるサイクルでeが最大のコストであるならば、Eは最小全域木
  • 辺の不要性の証明
    • (1) この条件の辺は必要だろう、という条件Pを持ってくる
    • (2) 任意のPを満たさない辺eについて、「eを1つだけ含み、その他はPを満たすようなサイクルを考える。サイクルの中で辺eがコスト最大であることを示す」
    • (3) これによって任意のPを満たさない辺eが不要であることが示されている
  • e in Eによって最小全域木は二分され、グラフは2つに分かれる。この時、二つのグラフをつなぐ辺の中で辺eのコストは最小(もし最小じゃなかったら最小の辺と入れ替えることで、全域木の重みを減少させることができてしまうので)

セグ木に平衡二分木をのせる

  • segment [i, j) = 「x[i, j))の区間に含まれる(x, y)のyを全て管理するordered set」などとする
    • 動的にrangefreqやrangesumを行えるようになる
    • quantileはO(log^2 n log amax)などでできる
  • segment [i, j) = 「x[i, j)に含まれる全ての点群のy座標」
    • 領域木みたいなことができる

b+木

フラクショナルカスケーディング

最良計算量・コード量チャレンジ

  • 順方向から読むケースと逆方向から読むケースがあったら、別にreverseをする必要はない。
  • とりまソートはやめる
    • 範囲指定とかならそのまま範囲指定のifを入れれば良いだけ

点と直線の双対関係

分数不等式の最大最小

  • lgauss(a, b), ugauss(a, b) を分数 a / b の切り下げ切り上げ関数として、
    • n<a/bなる最大のnはlgauss(a-1, b)
    • n>a/bなる最小のnはugauss(a+1, b)
    • n<=a/bなる最大のnはlgauss(a, b)
    • n>=a/bなる最小のnはugauss(a, b)

setとmapを管理する実装

  • set系内部でeraseしたり云々したりする場合はfor (auto x : s)とかfor (auto it = begin(s); it != end(s); it++) とかしないで、while (s.empty())なりwhile(1)するなりすること!
  • setやmapにはfindというメソッドがあって、これを使うとイテレータを得ることができる
    • lower_boundで得るのではなく、findで得るべき。
  • multisetでは、erase(値)ではなくerase(iterator)で削除しないと全要素が消えてしまう。
  • setとmapのeraseには[from, to)のイテレータを指定するモードがあって、便利っぽい
  • iteratorは(1)取得(2)++(3)削除の順番でやる、というのはもう頭に入れとけば良いと思う

線形代数

  • 競プロにおける線形代数,行列ももちろんだけど行基本変形するやつとか基底求めて最小化するやつとかSRMdiv1medあたりでたまに見る気がする
  • 2017 DDCC本戦か何かの、xorのベクトルの独立成分を見るやつがあったはず

最小・最大問題の特徴

  • 辺のコストがmin(A, B)だったらA,Bの二辺を張るのは典型
    • AGC 28C
  • 二分探索

多倍長演算

  • 多倍長演算を高速に行うアルゴリズム
    • 愚直
    • カラツバ\( O(n^{1.585}) \)
    • The Schönhage–Strassen algorithm \( O(n \log n \log \log n) \)
    • 更に早いFürer's algorithmもあるが微々たるもの

sliding window aggregation

不明瞭要求

  • 「最大値を与えるインデックスを教えてください」
    • 何個か不定!0個の可能性もあるし、2個以上の可能性もある。

アルゴリズム

まとめること

  • 最近はヤバ目のデータ構造がホイホイ出ます。青コーダーなのにこんなんやる時代です、とかいって激ヤバデータ構造を淡々と紹介したい

Leetcode ・b&(1ll<<i)みたいなのは01ではないので!!しないとつらい

木の中心と半径の全探索は任意に頂点を二つ取る 全探索の変数を減らすためには、「他の変数が決まった時、この変数は一意に定まらないか?」と考える。 期待値とかは全状態に確率を定義してしまう

・これくらいの実装問題になってくると、もはや早解きのために雑に変数を定義するより、コメントをきちんと書いたりテスト駆動的にやったりするほうがパフォーマンスがでるCodeforces 402 D2E

実装問題 テスト駆動的にする。つまり部分関数を20行程度に分割して、単体でテストできるような設計にしておく。 コメントを積極的に入れる。 変数名にこだわる nとかmではなく、v.size()などを利用する。

・sumとprodの操作方法について

	Sumの空間を二分する
	依存しないものを交換・前へ持ってくる
	Sumはそもそも、i \in Sみたいな、集合であることを明確に意識すべき。高校の書き方がむしろおかしい。

CF250D1A 辺に着目する。必ず辺は全部なくなる。 CF250D1B グラフの問題は構築していくことを考える 逆から構築

簡潔データ構造、実装も簡潔ならなぁ

平衡二分木、普通のセグ木の操作に加えて、列を途中で切断したり、2つの列をくっつけたりするなど動的な操作ができるようなやつです

Chokudaiコンテスト1, 2は両方単調劣モジュラ関数の最適化 http://bit.ly/2ws0IeB http://tasusu.hatenablog.com/entry/2015/12/01/000608 http://www.orsj.or.jp/archive2/or58-05/or58_5_267.pdf 劣モジュラ最適化と機械学習1章 https://www.slideshare.net/ssuser77b8c6/1-71256266 近似評価関数と厳密得点の相関を見るとかすると面白そう。

最長経路問題は重みなしでもNP完全 だが、DAGならO(V+E)(トポソして前からDP)

CFの乱択D 解空間が多いような話は、乱択すると行けることがある(特に最適化じゃないものに関しては) マラソンっぽいwじゃなく、きちんとやる。

http://hamko.hatenadiary.jp/entry/2017/04/23/190630 手戻り最小化基準で実装、部分問題を別関数に分ける、を意識して次からやろう CF Div.2 Cの精密実装が難しすぎる…多い添字の操作って精進というより、記憶力とか地頭な気がするから死にたい。成長しなそう。。 例えば行列ABの掛け算で、i行j列の情報を決定するのにAのi行のk列目とBのj列のk行目を全部足し合わせる、とか頭の中ではとっても簡単にできることがわかるんですが、いざプログラムを書こうとすると、kのゼロ点とかがどこだかわからなくなったりして辛くないですかというやつ 流石に行列は大丈夫になった(大学2年生の頃はつらかった)。 他には文字列AとBの最長一致する部分文字列とか、Aのi番目からj文字取った部分文字列がBのk文字目から一致するかチェックするために、Bのk文字目から始まる添字l<j文字目と、Aのi文字目から始まるl文字目が全一致とかね。 セマンティクスでいうと、配列aの添字をaiとかにして混乱を防いでるけど、物理世界での^{i}P_{i+1}みたいなものをi+1の意味でniとかつけるのでたまに混乱する

謎のWAへの対応 assertを入れてランダム入力 forの範囲に注目。ループ回しそこね(n+1で回すべきところをnしか回していない)。 コーナーケース。

R木というものがあるらしい kd-treeの構築と、以下の探索機能を実装してます。結構いろいろできる。例えば 最近傍探索 (Nearest neighbor search) k-最近傍探索 (K-nearest neighbor search) 半径内に含まれる近傍の探索 (Radius search)

CF415 D2C 式を大きく精密に書きましょう なんか典型問題力が圧倒的に足りていない気がする あと、「ちゃんとした思考回路をたどる」というのが大事な気がする… http://codeforces.com/contest/810/problem/C http://arc071.contest.atcoder.jp/tasks/arc071_b に似ているらしい A問題難しそうな解き方してる人がいる気がするんですが、F(a) = max(a) - min(a) だからそうすればいいのでは(n_vipさん)

最大クリークはO(n 2^n)とO(n 2^{2m})の2つがある。 http://researchmap.jp/uno/%E8%B3%87%E6%96%99%E5%85%AC%E9%96%8B/ http://research.nii.ac.jp/~uno/codes-j.htm あるグラフの最大クリークを求めることと、その補グラフの最大独立集合を求めることは同値である。  二部グラフにおいては最小点カバーと最大マッチングが一致すること、および、一般のグラフにおいて最小点カバーと最大独立集合の和が節点数と一致することから、対象の補グラフが二部グラフである場合には最大クリークを簡単に求めることができる。 2分グラフ上の最大独立集合問題 -> 「頂点数 - 最大マッチング」が答え これによると、最大独立集合問題はO(1.2^n)くらいで解けるらしい。 http://www.orsj.or.jp/~archive/pdf/bul/Vol.50_11_763.pdf これ、すごくよくできた最大独立集合のサーベイ

高速ゼータ変換のライブラリ、以下の問題に対応して2つとも入れておくこと。

kenさんの整理された問題集 http://d.hatena.ne.jp/drken1215/20131222/1387706789

無理やりダイナミックライブラリをくっつけることができるらしい yukicoderで無理やりgmpをくっつける方法 http://yukicoder.me/submissions/98383

https://yukicoder.me/problems/no/456/test

GCJ 2016 Qual C ・n進数の合成数の十分条件に文字列循環というものがある ・素数判定は大変だが、雑な合成数判定は非常に簡単(2-100の素数で割ってみればよい、結構ヒットするはずなので良い)。特に例示の場合。

SRM 695 D1M ・permで雑にcombinationを作る

	 5 c 2なら、00011のような配列maskをnext_permutationして、配列が立っているところが集合に入っているとみなす。

・定数倍高速化

	Long long -> int	全く効かない

perm -> comb 0000111をpermするcombinationは、nCrを探すのにn回走査する必要があるので、n/r倍遅いはず。(-10%)

	set->bitset+vectorで高速に行う(40%)
	Reserve		全く効かないが、効くケースもありそう
	配列を外において使い回す
	Powなど重い超関数をforで回す
	Powなど重い超関数を変数変換で減らす
	クエリをバッチ化する(うさぎさんのMillions of Submits!)
	二分探索をニュートン法にする
	http://yukicoder.me/submissions/136896

範囲積範囲更新 クエリ O(N/logN) 回毎に O(N) で完全に伝播させて累乗テーブルを完全削除すれば、メモリO(n)良いと思います

http://tokoharuland.hateblo.jp/entry/2018/04/01/155743 二次元ユークリッド空間上でボロノイ図を構成するO(N log N)のアルゴリズムが存在することが知られていて(参考 : Fortune's algorithm - Wikipedia)、さらに、(こういうアルゴリズムが存在するなら当然)隣接する領域の組の個数はO(N)であることが知られている(参考 : ボロノイ図とその3つの性質 | 高校数学の美しい物語 )ため、 このMST問題はO(N log N)で計算できることになります。

計算幾何学のアルゴリズムをひたすら動的にする論文 https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=163409&tag=1

あとtop tree

DDCC 2019 Final D R - WalkをDP化してるらしい

行列、剰余体での逆行列がRでの逆行列にもなってるケースあるの忘れがち(なぜこんな思考に)

係数が環でも、detが1なら逆元が存在する 行列 * 余因子行列 = 単位行列の行列式倍 は係数が体でなくても成り立つ(証明に掛け算しか使ってない)ので係数環で行列式が可逆であることが必要十分で、今回はdetが全部1なのでセーフです

一つの整数が1ワードで収まっている場合、ソートはならしO(n sqrt(log log n))でできる https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=1181890 最悪O(n sqrt(log log n)) Han, Yijie (2004), "Deterministic sorting in O(n log log n) time and linear space", J

Word RAM モデルでは 2つのワード x と y に対する加算と減算,論理演算 AND, OR, NOT,左シフト, 右シフト,連続する w ビットに対 する入出力をすべて定数時間で実行可能とみなす

https://atcoder.jp/contests/nikkei2019-qual/tasks/nikkei2019_qual_c min-maxゲーム。 青木くんが全部取った状態から考える、みたいにする方法。 集合から一つ取ってくるためのエネルギーみたいなのを考える典型の亜種

貨幣の貪欲可能性  実は、上記の問題については、貨幣の種類数Nに対して、O(N^3)で、貪欲法で答えが導けるかを検証するアルゴリズムが存在します。しかし、そこまで時間を掛けて検証していては、短時間のコンテストで戦うことなどできません。 https://qiita.com/s417-lama/items/0cdd95fddb2067876896 これのHをDPで求めるのがボトルネック  実は、上記の問題については、貨幣の種類数Nに対して、O(N^3)で、貪欲法で答えが導けるかを検証するアルゴリズムが存在します。しかし、そこまで時間を掛けて検証していては、短時間のコンテストで戦うことなどできません。

誤差の直感 day2 の J、わりと得意問題だったので通したかったので、誤差で殺されたのは本当に納得がいかなくて 幾何問題で座標が大きかったら誤差を見積もる癖をつけておくと得だよ(幾何は直感より精度が必要なことが多くて、例えば3点が同一直線に乗ってるかだけでも座標^2ぐらいの精度が必要) 今回は放物線だから明らかにそれよりヤバそうで、10^6だと3乗までしか耐えられない(long doubleは精度10^19なので)ことを考えると、やばそうな気がしてくる

高速な多倍長演算方法 ショーンハーゲ・ストラッセン法

全区間和はちゃんとやれ Eをセグ木とか平方分割とかで殴れないの本当にダメなので反省しないといけない https://atcoder.jp/contests/abc140/submissions/7396799 http://wk1080id.hatenablog.com/entry/2017/02/11/154313

クエリ系の計算量解析手法 cell probe modelというので証明するらしい 可換群のpartial sumのlower_boundがクエリΩ(log n) http://cglab.ca/~morin/teaching/5408/refs/p09.pdf


*1 a_p, b_p), (a_q, b_q

トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS