[Coursera Machine Learning 笔记]II.Linear Regression with one Variable.

组成
Trainning Set -> h函数,用于处理数据(Hypothesis,和字面意思无关)
Hypothesis: h(x) = kx + b
k\b : Parameters

How to choose Parameters?
Ieda: Choss Parameters so that h(x) is close to y for our tranning examples (x, y)
使得函数结果与原数据的方差或者标准差最小。

Cost Function -> 函数结果与原数据的方差的1/2m (m为数据组数)。
Cost Function = 1/(2m) * sum{ (h(x(i)) – y(i))^2 }
简化h(x)后可仅保留k,以k绘制出Cost Function图像等。

如果不简化,可以使Cost Funtion同样有2个参数。可以生成一个3D函数图。
需要知道Contour Plot and Contour figure

Gradint descent (algorithm)
Start with Some Parameters
Keep Changing it.
注意更新参数的顺序,计算出所有新值之后再全部更新。
类似模拟退火。具体见PDF

Gradint descent Intuition
根据视频了解给出的函数。

它是一个convex function,总是碗型的。只能给出局部最优解。(local optima)

T

发表评论

电子邮件地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>