]> mj.ucw.cz Git - ads2.git/blob - 12-apx/12-apx.tex
Oprava opravy.
[ads2.git] / 12-apx / 12-apx.tex
1 \input lecnotes.tex
2 \prednaska{12}{Aproximaèní algoritmy}{(???)}
3
4 \h{Pseudopolynomiální algoritmus pro problém batohu}
5
6 \s{POZOR:} Na~pøedná¹ce byla jen verze bez cen, nauète se, prosím, obì. --M.M.
7
8 \s{Problém batohu:} Je dána mno¾ina $n$~pøedmìtù s~hmotnostmi $h_1,\ldots,h_n$
9 a cenami $c_1,\ldots,c_n$ a batoh, který unese hmotnost~$H$. Naleznìte takovou
10 podmno¾inu pøedmìtù, jejich¾ celková hmotnost je nejvý¹e~$H$ a celková cena je
11 maximální mo¾ná.
12
13 Tento problém je zobecnìním problému batohu z~minulé pøedná¹ky dvìma smìry:
14 Jednak místo rozhodovacího problému øe¹íme optimalizaèní, jednak pøedmìty
15 mají ceny (pøedchozí verze odpovídala tomu, ¾e ceny jsou rovny hmotnostem).
16 Uká¾eme si algoritmus pro øe¹ení tohoto obecného problému, jeho¾ èasová
17 slo¾itost bude polynomiální v~poètu pøedmìtù~$n$ a souètu v¹ech cen~$C=\sum_i c_i$.
18
19 Pou¾ijeme dynamické programování. Pøedstavme si problém omezený na~prvních~$k$
20 pøedmìtù. Oznaème si $A_k(c)$ (kde $0\le c\le C$) minimální hmotnost
21 podmno¾iny, její¾ cena je právì~$c$. Tato $A_k$ spoèteme indukcí podle~$k$:
22 Pro $k=0$ je urèitì $A_0(0)=0$, $A_0(c)=\infty$ pro $c>0$. Pokud ji¾ známe
23 $A_{k-1}$, spoèítáme $A_k$ následovnì: $A_k(c)$ odpovídá nìjaké podmno¾inì
24 pøedmìtù z~$1,\ldots,k$. V~této podmno¾inì jsme buïto $k$-tý pøedmìt nepou¾ili
25 (a pak je $A_k(c)=A_{k-1}(c)$) nebo pou¾ili a tehdy bude $A_k(c) = A_{k-1}(c-c_k) + h_k$
26 (to samozøejmì jen pokud $c\ge c_k$). Z~tìchto dvou mo¾ností si vybereme tu,
27 která dává mno¾inu s~men¹í hmotností. Tedy:
28 $$
29 A_k(c) = \min (A_{k-1}(c), A_{k-1}(c-c_k) + h_k).
30 $$
31 Tímto zpùsobem v~èase $\O(C)$ spoèteme jednu mno¾inu, v~èase $\O(nC)$ pak v¹echny.
32
33 Podle $A_n$ snadno nalezneme maximální cenu mno¾iny, která se vejde do batohu. To bude
34 nejvìt¹í~$c^*$, pro nì¾ je $A_n(c^*) < \infty$. Jeho nalezení nás stojí èas $\O(C)$.
35
36 A~jak zjistit, které pøedmìty do~nalezené mno¾iny patøí? Upravíme algoritmus,
37 aby si pro ka¾dé $A_k(c)$ pamatoval $B_k(c)$, co¾ bude index posledního pøedmìtu,
38 který jsme do~pøíslu¹né mno¾iny pøidali. Pro nalezené $c^*$ tedy bude $i=B_n(c^*)$
39 poslední pøedmìt v~nalezené mno¾inì, $i'=B_{i-1}(c^*-c_i)$ ten pøedposlední
40 a tak dále. Takto v~èase $\O(n)$ rekonstruujeme celou mno¾inu od~posledního
41 prvku k~prvnímu.
42
43 Ukázali jsme tedy algoritmus s~èasovou slo¾itostí $\O(nC)$, který vyøe¹í
44 problém batohu. Jeho slo¾itost není polynomem ve~velikosti vstupu ($C$~mu¾e být a¾ exponenciálnì
45 velké vzhledem k~velikosti vstupu), ale pouze ve~velikosti èísel na~vstupu.
46 Takovým algoritmùm se øíká {\I pseudopolynomiální.}
47
48 \s{Verze bez cen:} Na verzi s~cenami rovnými hmotnostem se dá pou¾ít
49 i jiný algoritmus zalo¾ený na~dynamickém programování: poèítáme mno¾iny
50 $Z_k$, obsahující v¹echny hmotnosti men¹í ne¾~$H$, kterých nabývá
51 nìjaká podmno¾ina prvních~$k$ prvkù. Pøitom $Z_0=\{0\}$, $Z_k$
52 spoèteme z~$Z_{k-1}$ a ze~$Z_n$ vyèteme výsledek. V¹echny tyto mno¾iny
53 mají nejvý¹e $H$ prvkù, tak¾e celková èasová slo¾itost algoritmu je~$\O(nH)$.
54
55 \h{Aproximaèní schéma pro problém batohu}
56
57 \s{POZOR:} Verze algoritmu, kterou jsem øíkal na~pøedná¹ce, obsahovala jednu
58 pomìrnì zásadní chybu, které jsem si nev¹iml: Verze se zaokrouhlováním dolù
59 mohla produkovat nepøípustná (pøíli¹ tì¾ká) øe¹ení, verze se zaokrouhlováním nahoru pro zmìnu
60 nìkdy spoèítala øe¹ení pøíli¹ daleká od~optima. Algoritmus lze opravit (budeme-li
61 zvlá¹» zpracovávat lehké a tì¾ké pøedmìty), ale radìji budeme místo hmotností
62 kvantovat ceny. Tak dojdeme k~následujícímu aproximaènímu algoritmu. --M.M.
63
64 Ji¾ víme, jak optimalizaèní verzi problému batohu vyøe¹it v~èase $\O(nC)$,
65 pokud jsou hmotnosti i ceny na~vstupu pøirozená èísla a $C$ je souèet v¹ech cen.
66 Jak si poradit, pokud je~$C$ obrovské? Kdybychom mìli ¹tìstí a v¹echny
67 ceny byly dìlitelné nìjakým èíslem~$p$, mohli bychom je tímto èíslem
68 vydìlit. Tím bychom dostali zadání s~men¹ími èísly, jeho¾ øe¹ením by byla
69 stejná mno¾ina pøedmìtù jako u~zadání pùvodního.
70
71 Kdy¾ nám ¹tìstí pøát nebude, mù¾eme pøesto zkusit ceny vydìlit a výsledky
72 nìjak zaokrouhlit. Øe¹ení nové úlohy pak sice nebude pøesnì odpovídat optimálnímu
73 øe¹ení té pùvodní, ale kdy¾ nastavíme parametry správnì, bude alespoò jeho dobrou aproximací.
74
75 \s{Základní my¹lenka:}
76
77 Oznaèíme si $c_{max}$ maximum z~cen~$c_i$. Zvolíme si nìjaké pøirozené èíslo~$M$
78 a zobrazíme interval cen $[0, c_{max}]$ na $[0,M]$.
79 Jak jsme tím zkreslili výsledek? V¹imnìme si, ¾e efekt je stejný, jako kdybychom jednotlivé
80 ceny zaokrouhlili na~násobky èísla $c_{max}/M$. Ka¾dé $c_i$ jsme tím
81 zmìnili o~nejvý¹e $c_{max}/M$, celkovou cenu libovolné podmno¾iny pøedmìtù tedy
82 nejvý¹e o~$n\cdot c_{max}/M$. Teï si je¹tì v¹imnìme, ¾e pokud ze~zadání odstraníme
83 pøedmìty, které se samy nevejdou do~batohu, má optimální øe¹ení pùvodní úlohy cenu $OPT\ge c_{max}$,
84 tak¾e chyba v~souètu je nejvý¹e $n\cdot OPT/M$. Má-li tato chyba být shora omezena
85 $\varepsilon\cdot OPT$, musíme zvolit $M\ge n/\varepsilon$.
86
87 \s{Algoritmus:}
88 \algo
89 \:Odstraníme ze~vstupu v¹echny pøedmìty tì¾¹í ne¾~$H$.
90 \:Spoèítáme $c_{max}=\max_i c_i$ a zvolíme $M=\lceil n/\varepsilon\rceil$.
91 \:Kvantujeme ceny: $\hat{c}_i = \lfloor c_i \cdot M/c_{max} \rfloor$.
92 \:Vyøe¹íme dynamickým programováním problém batohu pro upravené ceny $\hat{c}_1, \ldots, \hat{c}_n$
93 a pùvodní hmotnosti i kapacitu batohu.
94 \:Vybereme stejné pøedmìty, jaké pou¾ilo optimální øe¹ení kvantovaného zadání.
95 \endalgo
96
97 \>Kroky 1--3 a 5 jistì zvládneme v~èase $\O(n)$. Krok~4 øe¹í problém batohu
98 se souètem cen $\hat{C}\le nM \le n^2/\varepsilon$, co¾ stihne v~èase $\O(n\hat{C})=\O(n^3/\varepsilon)$.
99 Zbývá dokázat, ¾e výsledek na¹eho algoritmu má opravdu relativní chybu nejvý¹e~$\varepsilon$.
100
101 Nejprve si rozmyslíme, jak dopadne optimální øe¹ení $OPT$ pùvodního zadání,
102 kdy¾ ceny v~nìm pou¾itých pøedmìtù nakvantujeme (mno¾inu indexù tìchto pøedmìtù si oznaèíme~$Y$):
103 $$
104 \eqalign{
105 \widehat{OPT} &= \sum_{i\in Y} \hat{c}_i =
106 \sum_i \left\lfloor c_i\cdot {M\over c_{max}} \right\rfloor \ge
107 \sum_i \left( c_i\cdot {M\over c_{max}} - 1 \right) \ge \cr
108 &\ge
109 \biggl(\sum_i c_i \cdot {M\over c_{max}}\biggr) - n =
110 OPT \cdot {M\over c_{max}} - n.
111 }
112 $$
113 Nyní naopak spoèítejme, jak dopadne øe¹ení~$Q$ nakvantovaného problému pøi pøepoètu
114 na~pùvodní ceny (to je výsledek na¹eho algoritmu):
115 $$
116 \eqalign{
117 ALG &= \sum_{i\in Q} c_i \ge
118 \sum_i \hat{c}_i \cdot {c_{max}\over M} =
119 \biggl(\sum_i \hat{c}_i\biggr) \cdot {c_{max}\over M} \ge^*
120 \widehat{OPT} \cdot {c_{max}\over M}.
121 }
122 $$
123 Nerovnost $\ge^*$ platí proto, ¾e $\sum_{i\in Q} \hat{c}_i$ je optimální øe¹ení
124 kvantované úlohy, zatímco $\sum_{i\in Y} \hat{c}_i$ je nìjaké dal¹í øe¹ení té¾e úlohy,
125 které nemù¾e být lep¹í. Teï u¾ staèí slo¾it obì nerovnosti a dosadit za~$M$:
126 $$
127 \eqalign{
128 ALG &\ge \biggl( { OPT \cdot M\over c_{max}} - n\biggr) \cdot {c_{max}\over M} \ge
129 OPT - {n\cdot c_{max}\over n / \varepsilon} \ge OPT - \varepsilon c_{max} \ge \cr
130 &\ge OPT - \varepsilon OPT = (1-\varepsilon)\cdot OPT.
131 }
132 $$
133 Algoritmus tedy v¾dy vydá øe¹ení, které je nejvý¹e $(1-\varepsilon)$-krát hor¹í ne¾ optimum,
134 a~doká¾e to pro libovolné~$\varepsilon$ v~èase polynomiálním v~$n$. Takovému algoritmu øíkáme
135 {\I polynomiální aproximaèní schéma} (jinak té¾ PTAS\foot{Polynomial-Time Approximation Scheme}).
136 V~na¹em pøípadì je dokonce slo¾itost polynomiální i v~závislosti na~$1/\varepsilon$, tak¾e
137 schéma je {\I plnì polynomiální} (øeèené té¾ FPTAS\foot{Fully Polynomial-Time Approximation Scheme}).
138
139 \bye