感慨coding版上有看老彭的书

l
lixilinx
楼主 (未名空间)

我的那本彭桓武和徐锡申的数理基础是22rmb。大部分东西大概一辈子也用不到,
research中有幸用到了两点:

变分法与最大熵来推概率密度函数和entropy,即entropy bound minimization,这样
绕过pdf的参数形式的prior bias,直接从观测量通过数值的方法来估计entropy和pdf
,其实也不是什么新的idea,但需要些trick来推数值解。

Lie group上的preconditioner做优化用,简化step size选择的问题,也彻底避免了
preconditioner退化成病态矩阵的问题。
c
chebyshev

programming跟coding不一樣。本版名字是programming。
早先這裏沒有一個是糊塗的。進版畫面不是還有一段matlab嘛。

後來各種專業課基礎課極差的糊塗蛋,紛紛通過新東方考高分出來,就是另一回事了。即使是現在,你問matlab算不算CS。也有很多人覺得不是。然而在python之前。
AI/ML跟matlab分不開的。

國內教學有自己的特殊的地方。我有年看中科院自動化所考博士的題目,
第一道大題居然要求證明一個微分幾何定理。應該和當年流行幾何控制論有關。

【 在 lixilinx () 的大作中提到: 】
: 我的那本彭桓武和徐锡申的数理基础是22rmb。大部分东西大概一辈子也用不到,
: research中有幸用到了两点:
: 变分法与最大熵来推概率密度函数和entropy,即entropy bound minimization,这样
: 绕过pdf的参数形式的prior bias,直接从观测量通过数值的方法来估计entropy和
pdf
: ,其实也不是什么新的idea,但需要些trick来推数值解。
: Lie group上的preconditioner做优化用,简化step size选择的问题,也彻底避免了: preconditioner退化成病态矩阵的问题。