一、这篇笔记要解决什么问题

上一篇我整理了这本书的知识架构。这一篇不再按章节复述,而是专门提炼:

  • 哪些结论最实用;
  • 哪些结论应该从“书本知识”转化为“工作知识”;
  • 做逆问题、散射反演、计算电磁项目时,哪些判断应该成为默认思维。

如果把整本书压缩成一句最值得带去工作的结论,我会写成:

逆散射不是“把数据倒过来算”的问题,而是“在不适定条件下,把前向模型、数据设计、正则化和优化绑在一起做稳定求逆”的问题。

这句话听起来抽象,但它几乎决定了后面所有建模和工程决策。


二、本书中最值得转化为工作知识的 14 条结论

书中的结论应转化成的工作知识对实际工作的直接影响
逆散射问题通常是非线性不适定任何反演流程都不该默认“直接求逆”从第一天起就把正则化、约束和先验放进方案,而不是后补
正问题是逆问题的前提没有可靠前向求解器,就不要谈可靠反演先把 forward solver 做稳,再做 inversion
Far field pattern 是书中的标准数据接口先明确你拿到的是远场、近场、还是混合数据不同数据类型对应不同算子、不同病态程度、不同实验代价
线性化方法(如 Born)虽然方便,但依然病态线性化不等于问题变简单,只是把非线性换成了线性病态线性方法最多当弱散射近似、初始化或基线,不要过度承诺
物理光学近似能把问题线性化,但依赖高频和完整频率数据高频近似不是“便宜捷径”,而是有强适用条件的近似工具如果数据只在共振区或频带不完整,这条路基本不稳
非线性问题的线性化仍继承不适定性Newton / Gauss-Newton 也必须正则化迭代反演里每一步都要考虑稳定化,而不是只做雅可比更新
多入射场能显著提升可识别性入射多样性是信息预算,不是可有可无的锦上添花预算有限时,优先争取更多入射方向/极化/频率,而不是只追单次精度
近场数据理论上略优于远场,但改善未必巨大不要神化 near field选 near field 应主要出于实验可达性、尺寸先验、点源激励等现实原因
有限孔径会显著恶化重建limited aperture 不是“少一点角度”,而是问题性质变差孔径受限时,必须加强先验、增加入射数或接受分辨率下降
Transmission eigenvalues 会污染某些反演方法频率选择本身就是算法设计的一部分对低损耗或实介质,固定频率反演要特别小心“坏频率”
有吸收时很多理论性质更友好lossy medium 通常比完全无耗介质更“好做”对有耗材料可以更大胆用某些完备性或 dual space 思路
Dual space method 能把问题拆成“线性病态 + 非线性较低维优化”尽量把大问题分解,而不是把所有未知一次性扔进大优化先解线性 ill-posed 子问题,再做低维非线性拟合
二维解析边界上 Nyström 方法很强,但角点要特殊处理几何特征决定离散方案光滑边界可用高阶积分;有角点就要 graded mesh,不要硬上均匀网格
三维表面积分比二维难很多不要把二维里的数值直觉直接搬到三维三维常要重新权衡 collocation、Galerkin、BEM 与几何参数化

三、真正要带走的“工作化理解”

下面这部分,我不再按教材语言说,而是按做项目时的判断方式说。

1. 默认前提:逆问题一定要“稳定化”

这本书最重要的实际提醒是:

  • 逆散射几乎从来不是一个自然稳定的问题;
  • 你看到的“可解”,和“可稳定计算”不是一回事;
  • 只要数据带噪,裸求逆就会把噪声放大。

因此,在工作里要把下面这个目标函数视为默认思维,而不是特殊技巧:

$$ \min_q |F(q)-y^\delta|^2 + \alpha \mathcal{R}(q) $$

这里最关键的不是公式本身,而是它代表的工作习惯:

  • 数据拟合项只负责“解释观测”;
  • 正则项负责“控制病态”;
  • 参数 $\alpha$ 不是装饰,而是稳定性旋钮。

如果把这条习惯建立起来,很多项目一开始就不会走偏。


2. 先做正问题,不要一上来就做反演

书里整体结构已经说明了这一点,但把它转成工作知识更重要:

在你开始做反演以前,至少要能明确回答下面五个问题:

  1. 给定参数或几何后,正问题是否存在唯一解?
  2. 辐射条件是什么?
  3. 你的可测数据到底是由哪个算子输出的?
  4. 这个算子在数值上怎么离散?
  5. 正向误差会怎样传进反演误差?

如果这五件事没想清楚,后面的优化、机器学习、神经算子,都会建立在不稳的地基上。


3. 线性化不是万能药,Born 近似只能在弱散射下用

书里对 Born 近似的态度其实很清楚:

  • 它把非线性逆介质问题变成线性积分方程;
  • 这是它最大的优点;
  • 但核是解析的,所以问题仍然严重不适定
  • 更重要的是,它只在弱散射条件下才合理。

工作化以后,这条结论可以写成一句硬规则:

Born 近似适合做 baseline、初始化、弱对比度场景,不适合拿去解释强散射、高对比、强多次散射的数据。

如果你的项目里存在:

  • 高折射率对比;
  • 强导体响应;
  • 明显多次散射;
  • 共振增强;

那么 Born 基本不该被当成主力模型。


4. 高频近似也不是“便宜替代”,它依赖完整频率信息

书中对 physical optics approximation 的讨论特别值得记住。

它告诉我们:

  • 高频近似能在一定程度上把障碍物反演线性化;
  • 但它需要很理想的数据条件;
  • 实际上经常只拥有部分频率范围的数据;
  • 一旦频带不完整,原本看起来已经“线性化”的问题,病态性会重新回来。

因此,实际工作里要形成一个判断:

高频近似不是低成本捷径,而是一个对数据完整性高度敏感的特定 regime。

这对实验设计很重要。很多时候真正值得投入的不是换个近似,而是争取更完整的频率覆盖。


5. Newton、Gauss-Newton 也必须被正则化

第 4 章一个很实用的观点是:

  • 非线性问题如果本身不适定;
  • 那么它的线性化也会继承这种不适定性;
  • 所以任何基于线性化的迭代方法,都不能裸跑。

换成工作语言就是:

不要把“有雅可比”误以为“可以稳定迭代”。

真正应该默认的是:

  • regularized Newton;
  • regularized Gauss-Newton;
  • Tikhonov 型步长控制;
  • trust region / damping;
  • 或者 quasi-solution 约束。

这条原则在今天也仍然有效,即使用自动微分和神经网络替代部分求解器,病态性并不会自动消失。


6. 数据设计比优化器更重要

这本书反复告诉读者:信息量来自数据,而不是优化器。

特别是下面几条:

  • 多个入射场可以显著改善重建;
  • 多个方向、多个极化、多个频率,本质上是在增加可识别性;
  • 单次测量如果信息不够,再复杂的反演器也补不回来。

因此,做项目时如果预算有限,优先级通常应该是:

  1. 增加入射多样性;
  2. 增加可观测角度;
  3. 优化频率覆盖;
  4. 然后才是替换优化器、堆更复杂网络结构。

这是非常“反直觉但实用”的一条工作原则。


7. limited aperture 会让问题迅速变坏

书中明确指出:

  • 远场只在部分观测角度已知时,重建质量会明显变差;
  • 二维数值实验甚至提示,想要可接受的结果,孔径通常不能太小;
  • 同时往往还需要多个 incident waves。

工作化以后,可以直接记成一句:

孔径受限不是“小降级”,而是“识别结构被破坏”。

这意味着如果实验上无法获得足够视角,就必须主动补救:

  • 加强几何先验;
  • 限缩参数空间;
  • 增加入射场数量;
  • 接受只能恢复低频形状、难以恢复细节。

8. near field 比 far field 略好,但没有魔法提升

书里给出的判断非常成熟:

  • near field 的病态程度理论上略轻一些;
  • 但数值实验表明,精度提升未必非常显著;
  • 不应把它理解成“换近场就根治病态”。

这条结论转成工作知识后非常有用:

选 near field 的核心理由,通常是实验现实性,而不是幻想它自动把逆问题变简单。

near field 更适合的真实场景反而是:

  • 点源比平面波更容易实现;
  • 测量面天然提供散射体尺寸先验;
  • 样品处在导电背景中,远场测量本来就不现实;
  • 人体组织、介质容器、水槽实验等场景。

9. 吸收通常让问题“更听话”,无耗介质要更谨慎

这是书里一个非常实用但容易被忽略的观点。

在若干关键理论结果里:

  • 有吸收时,某些 transmission eigenvalue 问题会消失;
  • 某些完备性结论更容易成立;
  • 某些 dual space 方法更稳定。

工作上就该形成下面这个直觉:

lossy medium 往往是更友好的研究对象,real-valued / weakly lossy medium 则更容易踩到坏频率和数值不稳定。

所以在做:

  • 无耗介质反演;
  • 低损耗电磁介质;
  • 固定频率重建;

时,要默认自己面对的是更难的问题,而不是标准难度。


10. Transmission eigenvalues 是必须前置排查的风险项

这本书把 transmission eigenvalues 放在很关键的位置,不是偶然。

从工作角度看,它代表一种非常具体的失败机制:

  • 某些频率下,完备性出问题;
  • 某些恒等式会退化;
  • 某些 dual space 方法会被污染;
  • 重建会变差,甚至会误导你以为算法实现错了。

因此它应该进入你的项目 checklist:

  • 当前介质是否低损耗?
  • 当前频率是否可能落在坏区间?
  • 是否需要换频率扫描?
  • 是否需要改用 modified dual space method 或其他绕开机制?

这比单纯调超参数要重要得多。


11. 把大问题拆成“线性病态 + 非线性低维”通常是更好的路线

书中 dual space method 的一个核心价值,是它不是直接暴力拟合全部未知,而是:

  • 先求解一个线性 ill-posed 子问题;
  • 再把非线性优化压缩到更低维的参数空间。

这条思想非常值得迁移到今天的工作流里。

无论你是在做:

  • 传统 PDE 反演;
  • surrogate-assisted optimization;
  • PINN / neural operator 辅助反演;
  • differentiable simulator;

都值得问一句:

有没有办法把“最病态的一部分”和“最非线性的一部分”拆开?

如果能拆开,问题规模和调参难度通常都会明显下降。


12. 二维光滑边界上 Nyström 很强,但角点必须上 graded mesh

这本书在数值部分给出的结论非常实操:

  • 二维光滑解析边界时,Nyström 方法简单、收敛快;
  • 但一旦边界存在角点,均匀网格会明显变差;
  • 这时就要改用 graded mesh 或变量代换。

工作化以后,这条规则非常简单:

离散方案应该服从几何,而不是服从代码习惯。

如果几何里有:

  • corners;
  • edges;
  • cusp-like singular behavior;
  • 参数化不均匀;

就不该默认均匀采样足够。


13. 三维问题不能照搬二维直觉

书里明确指出:

  • 三维边界积分方程的数值实现复杂度显著增加;
  • 二维里很自然的全局逼近和简单求积,不一定还能直接用;
  • 在三维上,collocation / BEM / specially designed Nyström / spherical harmonic techniques 需要重新权衡。

这在工作里意味着:

先在二维验证思想可以,但不要用二维上的“收敛直觉”和“工程预算”估计三维成本。

尤其是:

  • 矩阵装配成本;
  • 奇异积分处理;
  • 几何参数化难度;
  • 内存占用;
  • 并行实现复杂度;

都会在三维急剧放大。


14. 目标不是“恢复真相”,而是“恢复可稳定解释的数据一致解”

这本书最成熟的一点,是它从不把逆问题写成“找到唯一真实世界答案”的童话。

更现实的表述是:

  • 用可测数据约束未知对象;
  • 在先验范围内找稳定、合理、数据一致的解释;
  • 在理论允许的条件下讨论唯一性;
  • 在工程上接受分辨率极限、病态性和噪声地板。

换句话说,真正应该形成的工作认知是:

逆问题的成功标准,不是“完全恢复”,而是“在给定数据质量和先验下获得可复现、可解释、可稳定的重建”。

这会直接改善你对结果图、误差曲线和负样本实验的判断。


四、我认为应该变成日常 SOP 的 8 条操作原则

如果我要把这本书压缩成一套每天都能执行的流程,我会写成下面 8 条。

SOP 1. 先分类问题,不要混着做

先问清楚:

  • 你做的是 obstacle 还是 medium?
  • 是 acoustic 还是 electromagnetic?
  • 是 far field 还是 near field?
  • 是固定频率还是多频率?

这四个判断会直接决定后续方法栈。


SOP 2. 先验证 forward solver,再允许自己碰 inversion

至少要检查:

  • 辐射条件是否正确;
  • reciprocity 是否成立;
  • 数值离散是否收敛;
  • 边界条件和介质模型是否一致;
  • 噪声下 forward map 是否稳定。

没有这一步,后面的 inverse 结果没有可信度。


SOP 3. 默认加正则化,不要等炸了再补

优先准备:

  • Tikhonov;
  • discrepancy principle;
  • quasi-solution / parameter bounds;
  • 必要时加几何或稀疏先验。

把正则化写成配置项,而不是写成救火 patch。


SOP 4. 把数据设计当成核心设计

优先争取:

  • 更多入射方向;
  • 更多极化;
  • 更合理的频率覆盖;
  • 更好的观测孔径;
  • 更有物理意义的测量配置。

很多时候,这比换任何 fancy optimizer 都更值。


SOP 5. 先判断能不能合理线性化

只有在下面条件比较接近成立时,才认真考虑 Born 或其他线性化路线:

  • 弱散射;
  • 低对比度;
  • 多次散射不强;
  • 目标不是最终精细重建,而是初始化或粗恢复。

否则就该准备全非线性方案。


SOP 6. 对“坏频率”保持敬畏

做固定频率反演时,默认检查:

  • 是否可能受到 transmission eigenvalues 影响;
  • 是否需要频率扫描;
  • 是否要换到 modified dual space method;
  • 是否要引入吸收、阻抗或其他辅助建模来避开退化。

SOP 7. 离散策略服从几何与维度

规则很简单:

  • 2D + 光滑解析边界:优先考虑高质量积分和 Nyström;
  • 2D + 角点:立即考虑 graded mesh;
  • 3D:重新评估 BEM / collocation / Galerkin / 特殊球谐方法;
  • 不要强行复用“上一题的网格策略”。

SOP 8. 结果评估看“稳定性”,不只看“拟合误差”

至少同时看:

  • 对噪声是否敏感;
  • 对初值是否敏感;
  • 对正则化参数是否敏感;
  • 对频率与孔径是否敏感;
  • 是否能跨实验重复。

如果一幅图看着很好,但这些测试一碰就碎,那它大概率不是可靠结果。


五、最适合贴在工位前的 10 句短结论

  1. 先做 forward,再做 inverse。
  2. 逆问题默认病态,正则化默认开启。
  3. 线性化不等于稳定化。
  4. 更多数据多样性,通常比更复杂优化器更值钱。
  5. limited aperture 会实质性破坏可识别性。
  6. near field 不是魔法,只是另一种现实数据接口。
  7. 坏频率会毁掉好算法。
  8. 有吸收通常更友好,无耗介质要更谨慎。
  9. 离散方案必须服从几何奇性。
  10. 目标不是完美真值,而是稳定、可解释、数据一致的重建。

六、总结

如果说上一篇 0034 - 《Inverse Acoustic and Electromagnetic Scattering Theory》知识架构整理 解决的是“这本书在讲什么”,那么这一篇真正要解决的是:

这本书里哪些结论,应该变成你以后做逆问题和计算电磁项目时的默认判断。

我最后把这些结论压缩成一句最实用的话:

做逆散射,不要把注意力只放在“怎么反演”,而要放在“如何让前向模型、数据采集、频率选择、数值离散和正则化一起工作”。

这才是这本书最值得带走的工作知识。