avatar
Articles
300
Tags
46
Categories
8

Home
Archives
Tags
Categories
About
Yuchen You
Search
Home
Archives
Tags
Categories
About

Yuchen You

impulse
Updated2024-06-10|physics|dynamics
7. 动量和冲量 动量定理 首先对于一般定点或者质心我们有 ∑MC=HC˙\sum M_C = \dot{H_C}∑MC​=HC​˙​ 其实这里隐含了是惯性系 那么对上式子求导我们就有了 ∫∑MC=ΔHC=Hf−Hi\int \sum M_C = \Delta H_C = H_f - H_i∫∑MC​=ΔHC​=Hf​−Hi​ 注意:动量讨论的时候是不考虑加速度的 打击中心 center of percussion 在物体受到外部冲量的时候本身轴并不会受到平行方向的外力 垂直撞击不会在枢轴处产生反作用冲击 原理:当冲击力打击中心受到冲击时,平移和旋转运动在枢轴处抵消 公式 rOP∗=rOC+kC2rOC=kO2rOCr_{OP*} = r_{OC} + \frac{k_C^2}{r_{OC}} = \frac{k_O^2}{r_{OC}}rOP∗​=rOC​+rOC​kC2​​=rOC​kO2​​ 同样我们也会发现击打中心在质心的外侧 对于均匀直杆,位置在 23\frac{2}{3}32​ 处 旋转模型 假设有一个芭蕾舞演 ...
frame_of_reference
Updated2024-06-10|physics|dynamics
1. 坐标系 Frame of Reference 直角坐标系 Cartesian Coordinate 表述法 位置表述 r⃗OP=xi⃗+yj⃗+zk⃗\vec r_{OP} = x\vec i + y\vec j + z \vec krOP​=xi+yj​+zk 根据求导公式 d(A⋅B)dt=dAdt⋅B+A⋅dBdt\frac{d(A\cdot B)}{dt} = \frac{dA}{dt}\cdot B + A\cdot \frac{dB}{dt}dtd(A⋅B)​=dtdA​⋅B+A⋅dtdB​ 直角坐标系单位向量 i⃗,j⃗,k⃗\vec i,\vec j, \vec ki,j​,k 关于时间求导为 0 (不随着时间变化) 获得速度公式 v⃗p=(r⃗OP)˙=x˙i⃗+y˙j⃗+z˙k⃗\vec v_p = \dot{(\vec r_{OP})} = \dot x \vec i + \dot y \vec j + \dot z \vec kvp​=(rOP​)˙​=x˙i+y˙​j​+z˙k 加速度公式 a⃗p=vp⃗˙=x¨i⃗+y¨j⃗+z ...
energy
Updated2024-06-10|physics|dynamics
6. 能量 动能公式 T=12∫(v⃗⋅v⃗)dmT = \frac 1 2 \int (\vec v \cdot \vec v ) dmT=21​∫(v⋅v)dm 我们借用质心的公式 和速度公式 v⃗P=v⃗C+ωk^×r⃗CP\vec v_P = \vec v_C + \omega \hat k\times \vec r_{CP}vP​=vC​+ωk^×rCP​ 所以表示 P 点公式 v⃗P⋅v⃗P=v⃗C⋅v⃗C+ω2(x2+y2)+2ωv⃗C⋅(xj^−yi^)\vec v_P \cdot \vec v_P = \vec v_C \cdot \vec v_C + \omega ^ 2(x^2 + y^2) + 2\omega\vec v_C \cdot (x\hat j - y\hat i)vP​⋅vP​=vC​⋅vC​+ω2(x2+y2)+2ωvC​⋅(xj^​−yi^) 接下来我们展开动能公式 T=12∫vC⋅vCdm+ω22∫(x2+y2)dm+ω(v⃗C⋅j^)∫xdm−ω(v⃗C⋅i^)∫ydm=12mvC2+12IzzCω2T = \frac 1 ...
dynamics_review
Updated2024-06-10|physics|dynamics
240 复习 向量转换系 AQ˙=BQ˙+ωB/A×Q^A\dot Q = ^B \dot Q + \omega_{B/A}\times QAQ˙​=BQ˙​+ωB/A​×Q 角速度转换公式 ωD/A=ωD/B+ωB/A\omega_{D/A}= \omega_{D/B} + \omega _{B/A}ωD/A​=ωD/B​+ωB/A​ ωB/A=−ωA/B\omega_{B/A} = -\omega_{A/B}ωB/A​=−ωA/B​ Aω˙B/A=Bω˙B/A^A\dot\omega_{B/A} = ^B\dot \omega_{B/A}Aω˙B/A​=Bω˙B/A​ 角加速度转换公式 αC/A=αC/B+αB/A+ωB/A×ωC/B\alpha_{C/A} = \alpha _{C/B} + \alpha _{B/A} + \omega _{B/A}\times \omega_{C/B}αC/A​=αC/B​+αB/A​+ωB/A​×ωC/B​ 我们称 $\omega_{B/A} \times \omega_{C/B} $ 为 gyroscopic 量,在 ...
dynamic_euler
Updated2024-06-10|physics|dynamics
2. 动力学欧拉方法 欧拉第一定律 欧拉第一定律是牛顿第二定律的离散粒子集合情况的表达 公式 ΣiFi=Σmiai\Sigma_i F_i = \Sigma m_i a_iΣi​Fi​=Σmi​ai​ 如果是连续的物体我们可以写作 ΣF=∫a dm\Sigma F = \int a\ dmΣF=∫a dm 离散情况代表空气等流体也符合欧拉的描述,当然一般刚体也满足欧拉方法 这种情况下 FFF 只考虑外力,内力由于矢量相互作用等大反向可以抵消 质心 r⃗OC=ΣmiRim\vec r_{OC} = \frac{\Sigma m_i R_i}{m}rOC​=mΣmi​Ri​​ , m=Σmim = \Sigma m_im=Σmi​ 这下我们可以用位移的二阶导表达 加速度:ΣF=md2r⃗OCdt2=ma⃗C\Sigma F = m \frac{d^2\vec r_{OC}}{dt^2} = m \vec a_CΣF=mdt2d2rOC​​=maC​ 也就是说,加速度可以只考虑质心点处的加速度 欧拉第二定律 背景也是散点情况 动量公式 $\ve ...
unet
Updated2024-06-10|ai|deep_learning
Unet 目标:解决生物医学图像方面的问题 用于图像分割任务的深度学习架构 结构 编码器(下采样部分): 包含一系列卷积层和池化层,用于降低输入图像的分辨率。 每个下采样阶段都会减小特征图的大小,同时增加特征通道的数量,以提取图像的抽象特征。 中间连接: 编码器和解码器之间存在一条直通的连接,将编码器的高级特征映射与解码器的特征图相结合。这有助于保留细节信息。 解码器(上采样部分): 包含一系列反卷积(或转置卷积)层和跳跃连接,用于逐步增加分辨率。 每个上采样阶段都会增加特征图的大小,减少通道数,并恢复原始图像的细节。 跳跃连接: 将编码器的特征图与解码器的对应特征图相连接,以传递更丰富的上下文信息。 跳跃连接有助于减轻梯度消失问题,同时提高模型对局部细节的感知能力。 最后的卷积层: 在解码器的最后一层,使用一个卷积层将特征图映射到最终的分割结果。 输出通道数量通常等于任务中的目标类别数。
transformer
Updated2024-06-10|ai|deep_learning
自注意力模型 Transformer 开山鼻祖:Attention is All You Need 应用领域 NLP 语言模型 CV 界新秀 解决问题 输入是一个序列,我们需要调用多个 encoder 来进行编码,同时需要多个 decoder 进行解码 encoder 之间结构相同;decoder 之间结构相同;参数各不相同;encoder 与 decoder 结构不同 利用 self attention layer 同时计算出输出结果 (RNN 是分步骤算出来的) 输入序列为 x1,x2,x3,x4x^1, x^2, x^3,x^4x1,x2,x3,x4 具有一定的联系 将输入子向量分为 q,k,vq,k,vq,k,v 三个部分向量 qqq: query 查找,来找到 xxx 和相邻几个向量的关系 qi=Wqaiq^i = W^q a^iqi=Wqai kkk: key 向量,作为被查向量提供核心信息 ki=Wkaik^i = W^k a^iki=Wkai vvv: 抽取出来的数据 vi=Wvaiv^i = W^va^i ...
resnet
Updated2024-06-10|ai|deep_learning
残差网络 Resnet 产生背景 在深度神经网络建模的时候,我们经常会发现50层深度的网络训练效果不如20层的效果,这可能是因为过拟合,也有可能是反向传播中的梯度逐渐变小或变大导致的梯度爆炸问题 由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出 我们至少要保证,随着层数的叠加,我们的训练效果至少不能下降 模型 Model 为了让训练效果不下降,我们需要将未来的内容加上当前的内容即 x+F(x)x + F(x)x+F(x) 向前传播 forward 首先我们要确定当前的效果只能作用于下一个层,不多不少 这样可以类似于马尔科夫链的效果逐层递推 递推尝试: F(xl+1)=F(xl)+xlF(x_{l+1}) = F(x_l)+x_lF(xl+1​)=F(xl​)+xl​ F(xl+2)=F(xl+1)+xl+1=F(xl+1)+F(xl)+xlF(x_{l+2}) = F(x_{l+1}) + x_{l+1} = F(x_{l+1})+F(x_l)+x_lF(xl+2​)=F(xl+1​)+xl+1​=F(xl+1​)+F(xl​)+xl​ 总递推 ...
gan
Updated2024-06-10|ai|deep_learning
生成对抗网络 GAN 定义与原理 目标:GAN 可以通过自动生成数据之后进行监督学习,以自动生成虚假数据 我们需要一个 判别网络 来判断图片是否是真的 判别网络越强,最后 ai 生成的图片越来越能以假乱真,也就是说效果越好 顺序及数学表达 首先通过 ai 自动生成一张图片,其必然具有噪声 noice,获取的数据集是 G(x)G(x)G(x) 事实上的数据集是 xxx 检测函数满足 D(x)→1D(x)\to 1D(x)→1 也就是说要让标准的判断结果接近全对 同时要满足相对于 GGG 而言 D(G(x))→1D(G(x))\to 1D(G(x))→1; 相对于 DDD 而言 D(G(x))→0D(G(x))\to 0D(G(x))→0 注意两者目标不同,职能接近相反 举例: 对于一个理想的生成网络,我们需要满足 D(x)=pdata(x)pdata(x)+pmodel(x)D(x) = \frac{p_{data}(x)}{p_{data}(x) + p_{model}(x)}D(x)=pdata​(x)+pmodel​(x)pdata​(x)​ ...
rnn
Updated2024-06-10|ai|deep_learning
循环神经网络 RNN 序列建模 传统思维:给定一组相关属性,来推断最终的结果,但是不会考虑时间的属性,比如给你小名的成绩单,你只考虑他的几次考试的成绩,但是不考虑考试时间,那么期末成绩预测就不一定准确 包含时间变量:类似于输入一句话,每个单词都有其顺序,所以顺序不同的话其对应的重要性应该也不能相同。输出也可以按照时间序列展开输出,例如chat回答问题不是一下子一整段话 公式 $S_t = f(W_i X + W_S S_{t-1} + b) $ 常见示意图: 这里我们理解为通过一个 WhhW_{hh}Whh​ 矩阵不断更新隐藏层的状态,使得其带有上一帧的属性,具有一定的记忆力 反向传播 基于时间关系的逆向传播 Backpropagation Through Time 梯度爆炸问题:由于链式法则一路上乘了很多很大的矩阵,结果数据很大,很难看出要求的梯度 通过梯度裁剪方法,缩放大梯度 梯度消失问题:链式法则乘了很多很小的矩阵结果数据很小也难看出梯度 选择合适的激活函数 例如 ReLUReLUReLU 函数的导数为 1 可以让导数不要衰减 ...
1…252627…30
avatar
Yuchen You (Wesley)
Articles
300
Tags
46
Categories
8
Follow Me
Announcement
This is my Blog
Recent Post
7. 分布式事务系统与 Spanner2025-11-28
6. Amazon Dynamo 系统2025-11-28
5. Transaction and ACID DB2025-11-28
4. Database Storage Structure2025-11-06
5. Consensus: Paxos Made Simple (not to me)2025-10-16
Categories
  • ai27
  • cpp8
  • cs_basic27
  • cybersecurity17
  • eecs28110
  • hardware2
  • math69
  • physics21
Tags
linear_algebra database virtual_machine sql thermal transformer machine_learning p_np complex_analysis field algorithm cpp_basic container cv hardware distributed_sys optimization chaos_system unix discrete_math cyber_security dynamic computability memory information_theory system_failure operating_system Model mse logic Consensus attention golang clip deep_learning structure kernel probability ODE statistics
Archives
  • November 20254
  • October 20255
  • September 202523
  • August 20253
  • July 20259
  • June 20253
  • May 202514
  • April 20253
Info
Article :
300
UV :
PV :
Last Update :
©2020 - 2025 By Yuchen You (Wesley)
Framework Hexo|Theme Butterfly
welcome to my blog!
Search
Loading the Database