Hi,
in der Regel wird sowas mittels quadratischer Optinierung gelöst. Dazu definiert man eine Ausgleichsfunktion die von Parametern abhängt, und minimiert die Summe der quadratischen Fehler. Als Ausgleichsfunktion kann man z.B. folgende Funktionen nehmen:
$$ f(x,\Theta) = ax^2 + bx +c $$ oder wie von georgborn vorgeschlagen
$$ f(x,\Theta) = Ae^{\lambda x} + C $$
Die quadratische Abweichung ist definiert als
$$ \sum_{k=1}^n \left[ y_k - f(x_k,\Theta) \right]^2 $$
Dieser Ausdruck muss minimiert werden bzgl. des Paramters \( \Theta \).
\( \Theta \) kann \(a \), \( b \), \(c \) sein oder \( A \), \( \lambda \), \( B\) sein.
Beide Funktionen erzielen ungefähr das gleiche Ergebnis.
Die Ergebnisse hängen noch von der gewählten Minimierungsmethode ab. Als Methoden empfehlen sich
- Levenberg-Marquardt
- Quasi-Newton
- Konjugierte Gradienten