impulse
7. 动量和冲量
动量定理
首先对于一般定点或者质心我们有 ∑MC=HC˙\sum M_C = \dot{H_C}∑MC=HC˙
其实这里隐含了是惯性系
那么对上式子求导我们就有了 ∫∑MC=ΔHC=Hf−Hi\int \sum M_C = \Delta H_C = H_f - H_i∫∑MC=ΔHC=Hf−Hi
注意:动量讨论的时候是不考虑加速度的
打击中心 center of percussion
在物体受到外部冲量的时候本身轴并不会受到平行方向的外力
垂直撞击不会在枢轴处产生反作用冲击
原理:当冲击力打击中心受到冲击时,平移和旋转运动在枢轴处抵消
公式 rOP∗=rOC+kC2rOC=kO2rOCr_{OP*} = r_{OC} + \frac{k_C^2}{r_{OC}} = \frac{k_O^2}{r_{OC}}rOP∗=rOC+rOCkC2=rOCkO2
同样我们也会发现击打中心在质心的外侧
对于均匀直杆,位置在 23\frac{2}{3}32 处
旋转模型
假设有一个芭蕾舞演 ...
frame_of_reference
1. 坐标系 Frame of Reference
直角坐标系 Cartesian Coordinate
表述法
位置表述 r⃗OP=xi⃗+yj⃗+zk⃗\vec r_{OP} = x\vec i + y\vec j + z \vec krOP=xi+yj+zk
根据求导公式 d(A⋅B)dt=dAdt⋅B+A⋅dBdt\frac{d(A\cdot B)}{dt} = \frac{dA}{dt}\cdot B + A\cdot \frac{dB}{dt}dtd(A⋅B)=dtdA⋅B+A⋅dtdB
直角坐标系单位向量 i⃗,j⃗,k⃗\vec i,\vec j, \vec ki,j,k 关于时间求导为 0 (不随着时间变化)
获得速度公式 v⃗p=(r⃗OP)˙=x˙i⃗+y˙j⃗+z˙k⃗\vec v_p = \dot{(\vec r_{OP})} = \dot x \vec i + \dot y \vec j + \dot z \vec kvp=(rOP)˙=x˙i+y˙j+z˙k
加速度公式 a⃗p=vp⃗˙=x¨i⃗+y¨j⃗+z ...
energy
6. 能量
动能公式
T=12∫(v⃗⋅v⃗)dmT = \frac 1 2 \int (\vec v \cdot \vec v ) dmT=21∫(v⋅v)dm
我们借用质心的公式 和速度公式 v⃗P=v⃗C+ωk^×r⃗CP\vec v_P = \vec v_C + \omega \hat k\times \vec r_{CP}vP=vC+ωk^×rCP
所以表示 P 点公式 v⃗P⋅v⃗P=v⃗C⋅v⃗C+ω2(x2+y2)+2ωv⃗C⋅(xj^−yi^)\vec v_P \cdot \vec v_P = \vec v_C \cdot \vec v_C + \omega ^ 2(x^2 + y^2) + 2\omega\vec v_C \cdot (x\hat j - y\hat i)vP⋅vP=vC⋅vC+ω2(x2+y2)+2ωvC⋅(xj^−yi^)
接下来我们展开动能公式 T=12∫vC⋅vCdm+ω22∫(x2+y2)dm+ω(v⃗C⋅j^)∫xdm−ω(v⃗C⋅i^)∫ydm=12mvC2+12IzzCω2T = \frac 1 ...
dynamics_review
240 复习
向量转换系
AQ˙=BQ˙+ωB/A×Q^A\dot Q = ^B \dot Q + \omega_{B/A}\times QAQ˙=BQ˙+ωB/A×Q
角速度转换公式 ωD/A=ωD/B+ωB/A\omega_{D/A}= \omega_{D/B} + \omega _{B/A}ωD/A=ωD/B+ωB/A
ωB/A=−ωA/B\omega_{B/A} = -\omega_{A/B}ωB/A=−ωA/B
Aω˙B/A=Bω˙B/A^A\dot\omega_{B/A} = ^B\dot \omega_{B/A}Aω˙B/A=Bω˙B/A
角加速度转换公式 αC/A=αC/B+αB/A+ωB/A×ωC/B\alpha_{C/A} = \alpha _{C/B} + \alpha _{B/A} + \omega _{B/A}\times \omega_{C/B}αC/A=αC/B+αB/A+ωB/A×ωC/B
我们称 $\omega_{B/A} \times \omega_{C/B} $ 为 gyroscopic 量,在 ...
dynamic_euler
2. 动力学欧拉方法
欧拉第一定律
欧拉第一定律是牛顿第二定律的离散粒子集合情况的表达
公式 ΣiFi=Σmiai\Sigma_i F_i = \Sigma m_i a_iΣiFi=Σmiai
如果是连续的物体我们可以写作 ΣF=∫a dm\Sigma F = \int a\ dmΣF=∫a dm
离散情况代表空气等流体也符合欧拉的描述,当然一般刚体也满足欧拉方法
这种情况下 FFF 只考虑外力,内力由于矢量相互作用等大反向可以抵消
质心
r⃗OC=ΣmiRim\vec r_{OC} = \frac{\Sigma m_i R_i}{m}rOC=mΣmiRi , m=Σmim = \Sigma m_im=Σmi
这下我们可以用位移的二阶导表达 加速度:ΣF=md2r⃗OCdt2=ma⃗C\Sigma F = m \frac{d^2\vec r_{OC}}{dt^2} = m \vec a_CΣF=mdt2d2rOC=maC
也就是说,加速度可以只考虑质心点处的加速度
欧拉第二定律
背景也是散点情况
动量公式 $\ve ...
unet
Unet
目标:解决生物医学图像方面的问题
用于图像分割任务的深度学习架构
结构
编码器(下采样部分):
包含一系列卷积层和池化层,用于降低输入图像的分辨率。
每个下采样阶段都会减小特征图的大小,同时增加特征通道的数量,以提取图像的抽象特征。
中间连接:
编码器和解码器之间存在一条直通的连接,将编码器的高级特征映射与解码器的特征图相结合。这有助于保留细节信息。
解码器(上采样部分):
包含一系列反卷积(或转置卷积)层和跳跃连接,用于逐步增加分辨率。
每个上采样阶段都会增加特征图的大小,减少通道数,并恢复原始图像的细节。
跳跃连接:
将编码器的特征图与解码器的对应特征图相连接,以传递更丰富的上下文信息。
跳跃连接有助于减轻梯度消失问题,同时提高模型对局部细节的感知能力。
最后的卷积层:
在解码器的最后一层,使用一个卷积层将特征图映射到最终的分割结果。
输出通道数量通常等于任务中的目标类别数。
transformer
自注意力模型 Transformer
开山鼻祖:Attention is All You Need
应用领域
NLP 语言模型
CV 界新秀
解决问题
输入是一个序列,我们需要调用多个 encoder 来进行编码,同时需要多个 decoder 进行解码
encoder 之间结构相同;decoder 之间结构相同;参数各不相同;encoder 与 decoder 结构不同
利用 self attention layer 同时计算出输出结果 (RNN 是分步骤算出来的)
输入序列为 x1,x2,x3,x4x^1, x^2, x^3,x^4x1,x2,x3,x4 具有一定的联系
将输入子向量分为 q,k,vq,k,vq,k,v 三个部分向量
qqq: query 查找,来找到 xxx 和相邻几个向量的关系
qi=Wqaiq^i = W^q a^iqi=Wqai
kkk: key 向量,作为被查向量提供核心信息
ki=Wkaik^i = W^k a^iki=Wkai
vvv: 抽取出来的数据
vi=Wvaiv^i = W^va^i ...
resnet
残差网络 Resnet
产生背景
在深度神经网络建模的时候,我们经常会发现50层深度的网络训练效果不如20层的效果,这可能是因为过拟合,也有可能是反向传播中的梯度逐渐变小或变大导致的梯度爆炸问题
由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出
我们至少要保证,随着层数的叠加,我们的训练效果至少不能下降
模型 Model
为了让训练效果不下降,我们需要将未来的内容加上当前的内容即 x+F(x)x + F(x)x+F(x)
向前传播 forward
首先我们要确定当前的效果只能作用于下一个层,不多不少
这样可以类似于马尔科夫链的效果逐层递推
递推尝试:
F(xl+1)=F(xl)+xlF(x_{l+1}) = F(x_l)+x_lF(xl+1)=F(xl)+xl
F(xl+2)=F(xl+1)+xl+1=F(xl+1)+F(xl)+xlF(x_{l+2}) = F(x_{l+1}) + x_{l+1} = F(x_{l+1})+F(x_l)+x_lF(xl+2)=F(xl+1)+xl+1=F(xl+1)+F(xl)+xl
总递推 ...
gan
生成对抗网络 GAN
定义与原理
目标:GAN 可以通过自动生成数据之后进行监督学习,以自动生成虚假数据
我们需要一个 判别网络 来判断图片是否是真的
判别网络越强,最后 ai 生成的图片越来越能以假乱真,也就是说效果越好
顺序及数学表达
首先通过 ai 自动生成一张图片,其必然具有噪声 noice,获取的数据集是 G(x)G(x)G(x)
事实上的数据集是 xxx
检测函数满足 D(x)→1D(x)\to 1D(x)→1 也就是说要让标准的判断结果接近全对
同时要满足相对于 GGG 而言 D(G(x))→1D(G(x))\to 1D(G(x))→1; 相对于 DDD 而言 D(G(x))→0D(G(x))\to 0D(G(x))→0
注意两者目标不同,职能接近相反
举例: 对于一个理想的生成网络,我们需要满足 D(x)=pdata(x)pdata(x)+pmodel(x)D(x) = \frac{p_{data}(x)}{p_{data}(x) + p_{model}(x)}D(x)=pdata(x)+pmodel(x)pdata(x) ...
rnn
循环神经网络 RNN
序列建模
传统思维:给定一组相关属性,来推断最终的结果,但是不会考虑时间的属性,比如给你小名的成绩单,你只考虑他的几次考试的成绩,但是不考虑考试时间,那么期末成绩预测就不一定准确
包含时间变量:类似于输入一句话,每个单词都有其顺序,所以顺序不同的话其对应的重要性应该也不能相同。输出也可以按照时间序列展开输出,例如chat回答问题不是一下子一整段话
公式 $S_t = f(W_i X + W_S S_{t-1} + b) $
常见示意图:
这里我们理解为通过一个 WhhW_{hh}Whh 矩阵不断更新隐藏层的状态,使得其带有上一帧的属性,具有一定的记忆力
反向传播
基于时间关系的逆向传播 Backpropagation Through Time
梯度爆炸问题:由于链式法则一路上乘了很多很大的矩阵,结果数据很大,很难看出要求的梯度
通过梯度裁剪方法,缩放大梯度
梯度消失问题:链式法则乘了很多很小的矩阵结果数据很小也难看出梯度
选择合适的激活函数
例如 ReLUReLUReLU 函数的导数为 1 可以让导数不要衰减 ...
