# da-methods **Repository Path**: wangrzqi/da-methods ## Basic Information - **Project Name**: da-methods - **Description**: Data Assimilation Algorithm Collection - **Primary Language**: Python - **License**: GPL-3.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2021-10-30 - **Last Updated**: 2022-01-11 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # da-methods Data Assimilation Algorithm Collection #### 1 数据同化和反问题 在进行分析或预测之前,我们需要以最优方法将模式状态拟合到观测值。这种模式与观测值的拟合是反问题的一个特例。 模式输出和观测值之间优化的**两种优化形式**: * 经典优化,涉及最小化一个正的、通常是二次的代价函数,它表示寻求优化的量。模式和观测值之间误差的函数——最小二乘误差最小化。 * 统计优化,涉及模式误差的可变性(变分?)或不确定性的最小化,基于统计估计理论。 #### 2 最优控制和变分数据同化 #### 3 统计估计和顺序数据同化 #### 4 Nudging 方法 #### 5 简化方法 5.1 简化方法概述 5.2 模式简化 5.3 滤波算法简化 5.4 变分同化简化方法 Multigrid: 平方优化 quadratic fuction: $ f(x) = x^2 $ 定义增量$\delta \rm x$ $$ \delta \rm x = \rm x - {\rm x}^{\rm b} $$ 4D-Var 代价函数 $$ J(\delta {\rm x}) = J^{\rm b} (\delta {\rm x}) + J^{\rm o} (\delta {\rm x}) $$ $$ J^{\rm b} (\delta \rm x) = {\delta \rm x}^T B^{-1} {\delta \rm x} $$ STMAS ? $$ J = \frac{1}{2} (\delta {\rm x}) ^2 + penalization $$ #### 6 集合卡尔曼滤波 #### 7 集合变分方法 #### 参考文献 1. Mark Asch. Fundamentals of Algorithms: Data Assimilation Methods, Algorithms, and Applications