PRML书上附录697页的矩阵求导是不是写错了?# DataSciences - 数据科学C*e2014-12-02 08:121 楼如果按照697页C.19的形式 d(x^T * a) / d(x) = d(a^T * x) / d(x) = a的话,第141页的公式3.13就有问题了。求牛人指点。多谢!
C*e2014-12-02 08:123 楼3.13也是一个vector吧因为w, phi, phi^T都是vector,sum的第一项和第二项结果都是vector【在 n*****g 的大作中提到】: 这两个公式强调的不太一样。: 第141页的公式3.13没有问题,注意这个公式最后的结果是个标量。697页C.19的结果是: 矢量或者矩阵。
d*r2014-12-02 08:124 楼感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的vector,没道理变成一个1xN的vector啊3.13的那个transpose可能是不对啊,谁是大牛来说说【在 C********e 的大作中提到】: 如果按照697页C.19的形式 d(x^T * a) / d(x) = d(a^T * x) / d(x) = a的话,: 第141页的公式3.13就有问题了。: 求牛人指点。多谢!
C*e2014-12-02 08:125 楼看这个书的很好多啊。。不过不知道这么多Bayes的东西是否有用。【在 d*****r 的大作中提到】: 感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的: vector,没道理变成一个1xN的vector啊: 3.13的那个transpose可能是不对啊,谁是大牛来说说
C*e2014-12-02 08:126 楼我看了一下wiki的介绍觉得明白了http://en.wikipedia.org/wiki/Matrix_calculus简单结论就是书的附录写错了,应该等于a ^ T矩阵求导有两种layout notation, numerator-layout notation和denominator-layoutnotation.书中正文用的都是numerator-layout notation,所以3.13中,lnP是scaler,w是vector,一个scaler对vector (N*1) 求导,结果确实是1*N的vector。【在 d*****r 的大作中提到】: 感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的: vector,没道理变成一个1xN的vector啊: 3.13的那个transpose可能是不对啊,谁是大牛来说说