> Downhill simplex. Prøv at slå det op.
Takker. Jeg kender den. Det er jo en "simpel" metode som navnet antyder
Problemet er at den ikke er god til mange dimensioner. Ikke at jeg husker
det præcise bevis, men den beskrives generelt som brugbar i R^4 og lavere.
> Finite difference
> Det er nogenlunde det, downhill simplex gør.
Hnja. Jeg vil snare sige at den laver n samples og prøver at gøre det
værdste bud til det bedste i næste skridt ved projektion, men, ja, den går
da ned af bakke.
> Nu er det så lang tid siden at jeg ikke kan huske om algoritmen
> overhovedet stopper med sikkerhed, eller om du kan få problemer med
> saddelpunkter og stabile kredsløb.
Det skulle jeg mene den gør, stopper altså, da den jo trækker sig sammen
hvis ikke det nye samplepunkt er en forbedring. Det må vel betyde at enten
gør den det bedre end sidst, eller også skrumper søgerummet og den forsøger
igen.
Ang mit spørgsmål så tror jeg at jeg havde slået hovedet og mistet evnen til
at tænke. Der er masser af metoder som "bare" bruger gradienten i et punkt i
parameterrummet uden at kende det analytiske udtryk for denne gradient.
Dermed er man nede i at skulle finde gradienten og så bare minimere. Det vil
så sige almindelig finite difference, eller en backwards difference fra
nuværende til forrige sample. eller eller...