Pěkný článek, díky!
V Pythonu jsem lineární regresi nikdy nedělal, ale jestli to správně chápu, tak sekce 11.-17. odpovídá tomu, co je v R-ku klasický model criticism, tj. konstrukce x modelů (podle počtu nezávislých proměnných), kde se srovnávají jak klasické multiple regression (s různým počtem nezávislých proměnných), tak i modely s interakcí (zase s různým počtem nezávislých proměnných), což se pak projede přes klasickou ANOVA, co porovná ty jednodušší i komplexnější modely, správně?
A pokud jo, tak jak pak v tom scikit-learn udělám jednoduchý multiple regression model oproti modelu s interakcí? Díky dopředu za info!
Jasně, pokud se k tomu dostanete.
V klasických lineárních nebo logistických modelech jsem zvyklý vždycky porovnávat ty modely, kde všechny nezávislé proměnné jsou nezávislé i na sobě navzájem, vůči modelům, kde jedna proměnná může ovlivnit druhou (nebo víc) proměnných. Ty druhé jsou ty s interakcí. Myslím, že v klasické statistice je to dost obvyklé, pěkně to na jednoduchých příkladech vysvětlují v R for Data Science tady: https://r4ds.had.co.nz/model-basics.html#interactions-continuous-and-categorical
A obecně je to, myslím, stejně jako všechny lineární/logistické modely, nějaká podmnožina supervised learning, ale aspoň v klasické statistice ta nejpoužívanější.