y = θ₀ + θ₁x
σ(z) = 1/(1+e⁻ᶻ)
J(θ) = ½Σ(h-y)²
From Simple to Complex: A Journey Through Linear Models
Linear Regression
最小二乘法寻找最佳拟合直线,通过最小化预测值与实际值之间的平方误差来确定模型参数。
y = θ₀ + θ₁x₁ + ... + θₙxₙ
J(θ) = ½m⁻¹Σ(hθ(x)-y)²
Logistic Regression
通过Sigmoid函数将线性输出映射到概率空间,解决分类问题。
Gradient Descent
迭代优化算法,通过计算梯度方向逐步找到损失函数的最小值。
Ridge Regression (L2 Regularization)
添加L2正则化项防止过拟合,通过惩罚大的参数值来提高模型的泛化能力。
J(θ) = MSE + λΣθ²
L1 Regularization & Elastic Net
Lasso通过L1正则化实现特征选择,弹性网络结合L1和L2的优势。
Lasso:
J(θ) = MSE + λΣ|θ|
Elastic Net:
J(θ) = MSE + λ₁Σ|θ| + λ₂Σθ²
Model Comparison
Interactive Visualizations & Algorithm Demos
Sigmoid函数将任意实数映射到(0,1)区间,是逻辑回归的核心激活函数。
σ(z) = 1 / (1 + e^(-z))
可视化展示梯度下降算法如何逐步找到损失函数的最小值点。
θ = θ - α∇J(θ)
收缩所有系数,不进行特征选择,适合处理多重共线性。
λΣθ²
将不重要特征系数设为零,实现自动特征选择。
λΣ|θ|
结合L1和L2优势,在特征选择和稳定性间平衡。
λ₁Σ|θ| + λ₂Σθ²
Model Performance Comparison
Hands-on Projects: From Theory to Practice
House Price Prediction
预期成果
MAE < 20K, R² > 0.85
Customer Churn Prediction
92%
准确率
0.89
AUC值
商业价值
降低流失率 15%
从零开始实现线性回归和逻辑回归,深入理解算法原理和数学推导过程。
使用Scikit-learn构建完整的机器学习流水线,包含特征工程和模型评估。
创建交互式可视化图表,展示模型性能、特征重要性和决策边界。