Kas ir nelineārā regresija
Nelineārā regresija ir regresijas analīzes forma, kurā dati ir piemēroti modelim un pēc tam izteikti kā matemātiska funkcija. Vienkāršā lineārā regresija saista divus mainīgos lielumus (X un Y) ar taisnu līniju (y = mx + b), savukārt nelineārajai regresijai jārada līnija (parasti līkne), it kā katra Y vērtība būtu nejaušs mainīgais. Modeļa mērķis ir padarīt kvadrātu summu pēc iespējas mazāku. Kvadrātu summa ir mērs, kas izseko, cik daudz novērojumu atšķiras no datu kopas vidējā. To aprēķina, vispirms atrodot atšķirību starp vidējo un katru kopas datu punktu. Tad katra no šīm atšķirībām tiek sadalīta kvadrātā. Visbeidzot, visi kvadrātā redzamie skaitļi tiek summēti. Jo mazāka ir šo kvadrātu skaitļu summa, jo labāk funkcija atbilst datu punktiem komplektā. Nelineārā regresija izmanto logaritmiskās funkcijas, trigonometriskās funkcijas, eksponenciālās funkcijas un citas uzstādīšanas metodes.
Nelineārās regresijas sadalīšana
Nelineārā regresijas modelēšana ir līdzīga lineārās regresijas modelēšanai, jo abas mēģina grafiski izsekot konkrētai reakcijai no mainīgo kopas. Nelineārie modeļi ir sarežģītāki nekā lineārie modeļi, jo funkcija tiek radīta, izmantojot virkni tuvinājumu (iterāciju), kas var rasties no izmēģinājuma un kļūdas. Matemātiķi izmanto vairākas iedibinātas metodes, piemēram, Gausa-Ņūtona metodi un Levenberga-Markerta metodi.
