Redian新闻
>
追女生的数学建模分析
avatar
追女生的数学建模分析# LES - 同女之舞
r*a
1
问题分析
男生追女生,对男生来说最重要的是学习、爱情两不误。因此我们引进男生的学业成绩
函数Y(t)。
首先,我们不考虑男生的追求攻势,则影响该函数的因素主要是两个人的关系程度。为
了便于分析,我们将两人的关系简化为女生对该男生的疏远度,于是引入疏远度函数X(
t)。
问题就转化为求解Y(t)和X(t)的相互作用关系。利用微分,很容易就可以求出两者的关
系。但现实中男生可能会对该女生发起一轮轮的追求攻势,因此还要考虑到追求攻势对
模型的影响。而追求攻势又与女生的疏远度有关,可以简化地将两者看成是正比关系。
将追求攻势加入到模型中,就可以找出攻势与Y(t)和X(t)的关系了。
模型假设
1、t时刻A君的学业成绩为Y(t);
2、t时刻B女对A君的疏远度为X(t);
3、当A君没开始追求B女时B女对A君的疏远度增长(平时发现的A君的不良行为)符合
Malthus模型,即dX/dt=aX(t)其中a为正常数。
4、当Y(t)存在时,单位时间内减少X(t)的值与X(t)的值成正比,比例常数为b,从而
dX(t)/dt=aX(t)-bX(t)Y(t)。
5、A君发起对B女追求后,立即转化为B女对A君的好感,并设定转化系数为 α,而随着
的A君发起对B女的追求,A君学业的自然下降率与学业成绩成正比,比例系数为e。于是
有dY(t)/dt=αbX(t)Y(t)-eY(t)。
模型构成
由假设4和假设5,就得到了学业与疏远度在无外界干扰的情况下互相作用的模型:
{dX(t)/dt=aX-bXY;dY(t)/dt=cXY-eY} 其中c=αb. (1)
这是一个非线性自治系统,为了求两个数X与Y的变化规律,我们对它作定性分析。令{
aX-bXY=0;cXY-eY=0} 解得系统(1)的两个平衡位置为:O(0,0),M (e/c,a/b)。从(1)
的两方程中消去dt,分离变量可求得首次积分:
F(X,Y)=cX-dln|X|-aln|Y|=k (2)
容易求出函数F(X,Y)有唯一驻点为M(e/c,a/b)。再用极值的充分条件判断条件可以判断
M是F的极小值点。同时易见,当X→∞(B女对A君恨之入骨)或Y→∞ (A君是一块只会
学习的木头)时均有F→∞;而X→0(A君作了变形手术,B女对他毫无防备)或Y→0(A
君不学无术,丝毫不学习)时也有F→∞。由此不难看出,在第一象限内部连续的函数z
=F(X,Y)的图形是以M为最小值点,且在第一卦限向上无限延伸的曲面,因而它与z=k(k
>0)的交线在相平面XOY的投影F(X,Y)=k (k>0)是环绕点M的闭曲线簇。这说明学业成
绩和疏远度的指数成周期性变化。
结果解释
从生态意义上看这是容易理解的,当A君的学习成绩Y(t)下降时,B女会疏远 A君,疏远
度X(t)上升;于是A君就又开始奋发图强,学习成绩Y(t)又上升了。于是B女就又和A君
开始了来往,疏远度X(t)又下降了。与B女交往多了,当然分散了学习时间,A君的学习
成绩Y(t)下降了。
然而我们可证明,尽管闭轨线不同,但在其周期内的X和Y的平均数量都分别是一常数,
而且恰为平衡点M的两个坐标。事实上,由(1)的第二个方程可得: dY/Ydt=cX- e,两端
在一个周期时间T内积分,得:
∫(dy/Ydt)dt=c∮Xdt-dT (3)
注意到当t经过一个周期T时,点(X,Y)绕闭轨线运行一圈又回到初始点,从而:∫(dY/
Ydt)dt=∮dY/Y=0。所以,由(3)式可得:(∫Xdt)/T=e/c。
同理,由(1)的第一个方程可得:(∫Ydt)/T=a/b。
模型优化
考虑到追求攻势对上述模型的影响。设追求攻势与该时刻的疏远度成正比,比例系数为
h,h反映了追求攻势的作用力。在这种情况下,上述学业与疏远度的模型应变为:
{dX/dT=aX-bXY-hX=(a-h)X-bXY;dY/dt=cXY-eY-hY=cXY-(e+h)Y} (4)
将(4)式与(1)式比较,可见两者形式完全相同,前者仅是把(1)中X与Y的系数分别换成
了a-h与e+h。因此,对(4)式有
x’=(∫Xdt)/T=(e+h)/c,y’=(∫Ydt)/t=(a-h)/b (5)
利用(5)式我们可见:攻势作用力h的增大使X’增加,Y’减少。
我们的建议
考试期间,由于功课繁忙,使得追求攻势减少,即h减小,与平时相比,将有利于学业
成绩Y的增长。这就是Volterra原理。 此原理对男生有着重要的指导意义:强大的爱情
攻势有时不一定能达到满意的效果,反而不利与学业的成长;有时通过慢慢接触,慢慢
了解,再加上适当的追求行动,女生的疏远度就会慢慢降低。学习成绩也不会降低!
出处: http://hi.baidu.com/tcqgfiddzabgktq/item/2a5931d19f60823949e1dd0d
作者不详
avatar
r*a
2
这个模型的主要问题是 变量太少
avatar
T*n
3
变量多的模型需要多的observation来估计。。未必会更加准确。。。

男生追女生绝对是个stochastic process, 目的是 take actions based
on feedback(reward) such that the overall regret is minimized over the
time horizon.
复杂的模型譬如reinforce learning是解决stochastic process常用的工具
更加简单直观的,可以train 一个markov chain 来解决。


【在 r****a 的大作中提到】
: 这个模型的主要问题是 变量太少
avatar
L*y
4
你跟熊猫兴趣可真一致。我再预测一下今日晚些时候,橄榄会对此模型发表看法

★ 发自iPhone App: ChineseWeb 7.5

【在 T*********n 的大作中提到】
: 变量多的模型需要多的observation来估计。。未必会更加准确。。。
:
: 男生追女生绝对是个stochastic process, 目的是 take actions based
: on feedback(reward) such that the overall regret is minimized over the
: time horizon.
: 复杂的模型譬如reinforce learning是解决stochastic process常用的工具
: 更加简单直观的,可以train 一个markov chain 来解决。
:

avatar
e*e
5
昨儿就看到了,too nerdy,sometime naive
我,....莫言了...

【在 L**********y 的大作中提到】
: 你跟熊猫兴趣可真一致。我再预测一下今日晚些时候,橄榄会对此模型发表看法
:
: ★ 发自iPhone App: ChineseWeb 7.5

avatar
r*a
6

这个模型基本是 Lotka–Volterra equation
learning 算法 train的是参数 不是模型的结构

【在 T*********n 的大作中提到】
: 变量多的模型需要多的observation来估计。。未必会更加准确。。。
:
: 男生追女生绝对是个stochastic process, 目的是 take actions based
: on feedback(reward) such that the overall regret is minimized over the
: time horizon.
: 复杂的模型譬如reinforce learning是解决stochastic process常用的工具
: 更加简单直观的,可以train 一个markov chain 来解决。
:

avatar
r*a
7

这个depends on你怎么定义naive了 仁者见仁

【在 e*******e 的大作中提到】
: 昨儿就看到了,too nerdy,sometime naive
: 我,....莫言了...

avatar
e*e
8
其實,我一向悲观的认为,每個詞的定義在每个人脑子里都不一样
岂止是naive

【在 r****a 的大作中提到】
:
: 这个depends on你怎么定义naive了 仁者见仁

avatar
T*n
9

learning 未必 train的参数,特别是一些no parametric learning, 在Bayesian
framework下还可以得去expectation, variance 和confidence interval
相比之下,这个LV equation有很强的模型限制,
也没有证据表明,这个所谓的predator prey不能formulate成类似sequential
game的过程,也没有证据表明,learn agent interaction 的参数效果就弱于L.V.
Equation.
模型再fancy主要是能够解决问题吧。

【在 r****a 的大作中提到】
:
: 这个depends on你怎么定义naive了 仁者见仁

avatar
r*a
10

Bayesian
非参的贝叶斯学习 也是针对的是statistical model
这个是dynamical model 原文不是说了么 非线性自治系统
针对问题不一样建的模型不一样 不是说谁fancy的问题
我的point是 假设这个问题适用于建立动态系统模型 首先两个变量显然太少 其次是这
个动态系统的描述 再其次是参数

【在 T*********n 的大作中提到】
:
: learning 未必 train的参数,特别是一些no parametric learning, 在Bayesian
: framework下还可以得去expectation, variance 和confidence interval
: 相比之下,这个LV equation有很强的模型限制,
: 也没有证据表明,这个所谓的predator prey不能formulate成类似sequential
: game的过程,也没有证据表明,learn agent interaction 的参数效果就弱于L.V.
: Equation.
: 模型再fancy主要是能够解决问题吧。

avatar
S*a
11
拍个手先
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。