Redian新闻
>
PRML书上附录697页的矩阵求导是不是写错了?
avatar
PRML书上附录697页的矩阵求导是不是写错了?# DataSciences - 数据科学
C*e
1
如果按照697页C.19的形式 d(x^T * a) / d(x) = d(a^T * x) / d(x) = a的话,
第141页的公式3.13就有问题了。
求牛人指点。多谢!
avatar
n*g
2
这两个公式强调的不太一样。
第141页的公式3.13没有问题,注意这个公式最后的结果是个标量。697页C.19的结果是
矢量或者矩阵。
avatar
C*e
3
3.13也是一个vector吧
因为w, phi, phi^T都是vector,sum的第一项和第二项结果都是vector

【在 n*****g 的大作中提到】
: 这两个公式强调的不太一样。
: 第141页的公式3.13没有问题,注意这个公式最后的结果是个标量。697页C.19的结果是
: 矢量或者矩阵。

avatar
d*r
4
感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的
vector,没道理变成一个1xN的vector啊
3.13的那个transpose可能是不对啊,谁是大牛来说说

【在 C********e 的大作中提到】
: 如果按照697页C.19的形式 d(x^T * a) / d(x) = d(a^T * x) / d(x) = a的话,
: 第141页的公式3.13就有问题了。
: 求牛人指点。多谢!

avatar
C*e
5
看这个书的很好多啊。。
不过不知道这么多Bayes的东西是否有用。

【在 d*****r 的大作中提到】
: 感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的
: vector,没道理变成一个1xN的vector啊
: 3.13的那个transpose可能是不对啊,谁是大牛来说说

avatar
C*e
6
我看了一下wiki的介绍觉得明白了http://en.wikipedia.org/wiki/Matrix_calculus
简单结论就是书的附录写错了,应该等于a ^ T
矩阵求导有两种layout notation, numerator-layout notation和denominator-layout
notation.
书中正文用的都是numerator-layout notation,所以3.13中,lnP是scaler,w是
vector,一个scaler对vector (N
*1) 求导,结果确实是1*N的vector。

【在 d*****r 的大作中提到】
: 感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的
: vector,没道理变成一个1xN的vector啊
: 3.13的那个transpose可能是不对啊,谁是大牛来说说

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。