【机器学习】(开发中...)

正在开发中…

$F_{\mu}$
$F_a + F_b = F_c$

$F_a = F_b + F_c + F_{\mu}$

公式是这样的 $F_a = F_b + F_c + F_{\mu}$,你必须理解它,才能看懂下面这些公式:

$$\begin{aligned} \dot{x} & = \sigma(y-x) \\ \dot{y} & = \rho x - y - xz \\ \dot{z} & = -\beta z + xy \end{aligned}$$

实验目的

  • 进一步理解线性回归和梯度下降的原理。
  • 在小规模数据集上实践。
  • 体会优化和调参的过程。

数据集

  • 线性回归使用的是LIBSVM Data中的Housing数据,包含506个样本,每个样本有13个属性。请自行下载scaled版本,并将其切分为训练集,验证集。
  • 线性分类使用的是LIBSVM Data中的australian数据,包含690个样本,每个样本有14 个属性。请自行下载scaled版本,并将其切分为训练集,验证集。

实验步骤

线性回归和梯度下降

  1. 读取实验数据,使用sklearn库的load_svmlight_file函数读取数据。
  2. 将数据集切分为训练集和验证集,本次实验不切分测试集。使用train_test_split函数切分数据集。
  3. 线性模型参数初始化,可以考虑全零初始化,随机初始化或者正态分布初始化。
    选择Loss函数及对其求导,过程详见课件ppt。
    求得所有样本对Loss函数的梯度。
    取梯度的负方向,记为。
    更新模型参数,。为学习率,是人为调整的超参数。
    在训练集上测试并得到Loss函数值,在验证集上测试并得到Loss函数值。
    重复步骤5-8若干次,画出和随迭代次数的变化图。
    $F$

$$
\begin{eqnarray}
\nabla\cdot\vec{E} &=& \frac{\rho}{\epsilon_0} \
\nabla\cdot\vec{B} &=& 0 \
\nabla\times\vec{E} &=& -\frac{\partial B}{\partial t} \
\nabla\times\vec{B} &=& \mu_0\left(\vec{J}+\epsilon_0\frac{\partial E}{\partial t} \right)
\end{eqnarray}
$$