【遥感】“空间分辨率”的极致解析—从人眼到超分重构

652 阅读33分钟

一、地物识别的底层机制

1. 视锥视杆细胞

眼睛是这个自然界赋予我们的电磁波接收器,视网膜包含两种主要的感光细胞——视锥细胞、视杆细胞。

  • 视锥细胞负责在明亮条件下感知颜色和细节,主要包括RGB三种类型。
  • 视杆细胞则在低光照条件下工作感知亮度和运动。

这两种感光细胞波段选择性使得人眼能够感知不同波长的光,从而识别出物体的颜色和亮度差异,这种能力是地物识别的基础。

既然把眼睛比为传感器了,那么传感器的光谱分辨率其实就对应了我们的视锥细胞(某些动物,包括一些蛇类(如蟒蛇和响尾蛇)确实具备感知红外辐射的能力。这是因为它们有特殊的器官(如颊窝)可以检测到温热血源动物发出的热量。)辐射分辨率就对应了视杆细胞(夜间视力好的人实际上是在低光照条件下具有更高的辐射分辨率,能够更好地分辨微弱的光线变化)。至于空间分辨率,可以想象为近视眼而产生的焦距不同,对应的也是传感器的高度与焦距,时间分辨率就可以理解为眼球转的快慢哈哈)。通过视锥细胞和视杆细胞捕捉不同波段的光线,为我们呈现出丰富多彩的世界。正如遥感技术中的传感器接收并解析不同波段的电磁辐射,以识别和区分地物特征,人的视觉系统也在进行着类似的过程。眼睛与遥感传感器有着惊人的相似性,遥感就是上帝之眼。

image.png

2. 没有对比就不存在识别

边缘和纹理提供对比:地物识别的本质是通过识别图像中的边缘和纹理来区分不同的地物。边缘是指图像中反射率或色调变化明显的区域,纹理则是指像素值的空间排列模式。图像由许多紧密排列的像素组成,每个像素记录了地物在特定波段的反射率或辐射量。不同地物材质的波段选择性辐射特性不同,导致在不同波段或全色影像中的辐射量存在差异。这种差异反映在像素的灰度值上,例如,灰度值220比40亮,这种对比度使得边缘识别成为可能。假设地面上有一辆兰博基尼,车窗由于玻璃材质与车顶盖的反射特性不同,因此车窗与车顶之间的边缘可以被识别出来。车窗不同位置由于倾角不同,其产生的辐照度也存在差异。这些细微的差异进一步增强了边缘的识别能力。当然,这些细节涉及到双向反射分布函数(BRDF)等复杂的光学特性,但为了简化讨论,我们暂时忽略这些细节。兰博基尼的外部特征也非常关键,例如其独特的车灯和车尾设计(像蝙蝠一样的纹理边缘)使得这辆车与其他车辆区分开来。这些特征的组合使得我们能够识别出这是一辆兰博基尼而不是雅迪电动车。

GLCM(灰度共生矩阵)是一种用于分析图像纹理的数学工具。它通过统计图像中两个像素在一定距离和方向上的灰度值组合出现的次数来工作。你有一个图片,然后你开始在图片上移动一个小窗口,每次移动一点,同时记录下窗口中心和它旁边一个像素的灰度值。然后,你把所有这些灰度值组合放在一起,看看哪些组合最常见。这些组合的统计信息就构成了GLCM,它可以帮助你理解图像的纹理特性,比如它是平滑的、粗糙的还是有序的。通过分析GLCM,我们可以得到纹理的对比度、均匀性和复杂度等。除了灰度共生矩阵(GLCM),还有多种方法可以用于纹理分析如局部二值模式(LBP),小波变换,Gabor滤波器,结构张量,共生纹理分析(CTA)。

graph TD
    A[GLCM] --> B[Contrast]
    A --> C[Energy]
    A --> D[Entropy]
    A --> E[Homogeneity]
    A --> F[Correlation]
    A --> G[ASM]

假设我们有一个卫星图像,需要将其分为不同的土地覆盖类别,如森林、水域、农田和城市区域。为每个土地覆盖类别计算GLCM,通常选择多个方向和距离以捕获不同纹理特征。从每个GLCM中提取上述纹理指标。分析这些纹理指标,确定每个类别的特征范围。比如我们可以从标注的ROI中计算一些手工设计的特征,比如纹理特征、颜色直方图、边缘特征等。这类特征旨在捕捉图像中更为抽象的信息,并且在某些情况下能够提供比原始像素更好的性能。使用这些纹理特征训练一个分类器(如支持向量机、随机森林等),并用它来对整个图像进行分类。

  1. 对比度(Contrast) 对比度指标衡量图像纹理的清晰度或显著程度。
  2. 能量(Energy) 能量指标衡量图像纹理的均匀性或平滑度。水域通常具有高能量值,因为水面相对平滑,纹理变化不大。
  3. 熵(Entropy) 熵指标衡量图像纹理的复杂度或随机性。农田区域可能有较高的熵值,因为作物种植模式可能会产生复杂的纹理。
  4. 同质性(Homogeneity) 同质性指标衡量图像纹理的相似度。森林区域可能具有高同质性值,因为树木的纹理在较大区域内看起来很相似。
  5. 相关性(Correlation) 相关性指标衡量纹理中像素值之间的线性关系。城市区域的相关性可能较低,因为建筑物和道路的纹理没有明显的线性关系。

二、 空间分辨率到底是什么?

⚠️思考1:你是怎么衡量空间分辨率的?

回答像元大小的同学出来立正挨打。首先明确的告诉你:空间分辨率像元大小,像元大小反映图像文件中每个像元的尺寸,可以通过图像处理方法(上下采样)进行调整,但不会改变实际的地面细节。(文末还会补充一种可以增加地面细节的超分辨率技术)。而地面采样距离(GSD) 是固定指标,反映传感器在地面上的实际分辨能力,由卫星轨道高度载荷硬件信息决定,不因图像处理而变。

可以说90%以上甚至更高的从业者直到现在依然对分辨率认知存在的偏差,那么空间分辨率是什么?空间分辨率是的衡量应该用:地面采样距离(Ground Sample Distance)

GSD=探测像元大小×卫星高度焦距GSD = \frac{探测像元大小 \times 卫星高度}{焦距}

注意:GSD也不是真实的的地面分辨率GRD,真实分辨率其实并非恒定值

  • GSD 是一个固定指标,反映传感器的采样密度,不会因图像处理而改变。
  • 空间分辨率是一个实际值,反映了图像的实际细节表现能力,可以通过图像处理方法进行提升。
  • 空间分辨率更适合描述图像的质量,因为它更贴近实际应用需求。
  • 天气干扰:如云层、雾气等天气条件会导致大气散射和吸收现象,不仅降低地物真实反射量,还增加了程辐射(Path Radiance)。使得图像的清晰度和对比度下降,影响了对地物特征的准确识别和分析。

  • 光照条件:在弱光条件下,接收到的信号强度降低,噪声可能更加显著,SNR降低;光照角度的变化也会改变地物的阴影和亮度分布,影响影像的清晰度。

  • 视角变化:传感器的成像角度(例如斜视或俯视)会影响地物在影像中的几何形态,同时也可能增加大气影响,降低MTF。倾斜角度越大,影像中的几何畸变越明显,分辨率也会受到影响。

  • 由于GSD并不包含信噪比、调制传递函数等影响因素的变化,实际解译时仍需考虑这些额外因素,但是考虑到GRD的动态性使得每次获取的图像分辨率都可能不同,无法形成一致的比较基准,因此我们还是将GSD用作衡量空间分辨率的一个固定参考值,方便产品比较和数据分析。

image.png                    地面定标靶场

⚠️思考2: 空间分辨率≠目标的识别能力

  1. 目标本身的形状与内部纹理:线性目标如桥梁、铁路等,由于其与背景的高对比度和线性特征,即使尺寸小于空间分辨率,也能在一定程度上被识别。比如河流,道路大桥
  2. 成像条件:成像条件的变化,如太阳高度角、方位角和观测角度,会对图像的空间分辨率产生显著影响。这些因素会影响光照条件,比如、阴影效果以及地物的反射特性,从而影响图像的清晰度和可识别性。(所以有些太阳轨道卫星会设置每天过境为正午12:00,一是为了控制光照条件便于对比,二是因为太阳高度角较高时,光照均匀,阴影较少,云雾也较少,有利于目标的识别) 。当然卫星的过境时间设置是根据该区域来确定的。

image.png            同一区域不同成像条件下的图像对比

⚠️思考3: 影响空间分辨率GSD的还有哪些主要指标?

  • 信噪比(SNR):信号强度与噪声强度的比值。高SNR意味着信号中的有效信息更多。
  • 调制传递函数(MTF):MTF值越高,系统传递的细节越多,图像的锐度越好。

高空间分辨率的图像可以捕捉到更多的地物细节,但这并不意味着图像质量一定好。如果SNR低或MTF值低,图像中的细节可能会被噪声或模糊所掩盖,从而降低图像的可用信息量。在气象监测中,可能需要较低的空间分辨率,但要求高SNR图像的准确与可靠性。

⚠️思考4: 为什么我们不只使用高空间分辨率的传感器?

  1. 波段制约应用场景

高空间分辨率的传感器确实能够提供精细的地球表面图像,但它们并不适合所有应用场景。随着分辨率的提升,探元尺寸相应减小,导致每个探元收集的光子数量减少,进而引起信噪比下降。为了维持必要的信噪比,必须增加探元的光谱带宽,这不可避免地降低了光谱分辨率,从而对于一些需要光谱分辨率的任务比如矿石探测,病虫害监测等精度就不够。这就解释了为什么全色影像能够达到极高的地面采样距离(GSD):它仅仅用一探元来覆盖整个可见光波段(约0.38~0.72微米),使得所有可见光波段的光子都集中在这个单一的大波段内。这样的设计确保了足够的辐射量,从而允许探元尺寸进一步缩小,得以实现更高的空间分辨率。 当然,兼顾二者也不是不行,但要使用特殊的光学元件或冷却系统来减少噪声,高分辨率多光谱传感器(WorldView系列)和超光谱成像传感器(Hyperion)能够提供更精细的地表细节和更详细的光谱信息,但是文件巨大,同时系统的设计和操作通常更为复杂且成本更高。

  1. 重访周期 and 成像幅宽
幅宽=轨道高度×tan(视场角/2)幅宽=轨道高度×tan(视场角/2)

粗分辨率的传感器可以对更大范围的区域进行成像,同时缩短卫星再次飞越同一区域的时间。这对于需要频繁更新数据的应用非常重要,例如运行在GEO的气象卫星需要每小时甚至更短时间间隔内提供全球或区域的气象数据。高分辨率的传感器通常覆盖范围较小,因此需要更多的时间和资源来完成大面积的成像任务。

  1. 权衡

image.png

应用场景空间分辨率光谱分辨率时间分辨率辐射分辨率传感器
城市规划土地利用高(亚米级)中到高WorldView系列
气象监测低(米至公里级)MODIS
农业和环境监测中(10~30米)中到高中到高Landsat系列

三、 超分辨率技术

为什么需要引进超分辨率技术?

要明白,空间分辨率的提升不仅仅是是技术问题,还涉及到物理和经济的限制。首先是光学系统的物理极限制约,因为即使传感器探测器的像元越来越小,制造纳米级的光学元件和传感器面临巨大的技术和经济,而且成像系统的分辨率无法无限提高。另外,空间分辨率本身就与光谱分辨率是制约关系,详情可见之前的文章,从分光模式出发,写的很细。

另外,高分辨率带来是指数级的数据量爆炸,需要大幅提升下传、存储和处理能力,这也是目前遥感政策强调加快发展星上处理的意义,星上处理通过在卫星上进行初步的数据处理和压缩,极大减少传输数据量,减轻地面站的负担。而且还能实现数据的实时处理和快速响应,支持灾害监测和应急响应等应用。

1. 超分辨率技术如何实现

1. 硬件方向的【多帧重建】——>真实信息重构

Multi-Frame Super-Resolution, MFSR 多帧超分辨率重建。核心原理其实是通过硬件进行错位采样后再组合增加图像信息的采样密度,每一帧图像之间会有一点点像素的偏移,然后把它们组合起来生成一张更清晰的图像。如果你想把图像的清晰度提升一倍,那么你需要拍4张,每张在水平和垂直方向上偏移0.5个像素。(其实很好理解,因为传感器就这样了,摆烂了,我的GSD就是10m,一个像素就只能是100m²,这个像素就一个值,但是我非要看到像素里面的细节,那我就错位呗,我向上下左右都移动个10m,就能得到4个新的100m²的像素,这些像素值存在差异,组合一下,那之前的像素内部不就有不同的像素区域儿了吗?像素差异就是信息啊)

image.png image.png

2. 软件方向的【单帧图像处理】——>推测可能信息

Single Image Super-Resolution, SISR 单帧图像处理 。与MFSR有着本质差异,它的本质是个算法,通过直接从单张低分辨率图像中推断和重建细节,生成高分辨率图像。

SISR是在"像素值空间"做映射(从低清晰度映射到高清晰度)

语义分割是在"语义空间"做映射(从图像映射到语义类别)

SISR不是语义分割:两者都涉及上采样和编码解码架构,但SISR关注的是图像清晰度的提升,语义分割则旨在理解和分类图像中的每一个像素,SISR关注的是LR和HR图像之间的映射关系,而语义分割则侧重于图像中每个像素的分类。只是因为都属于图像到图像,技术上自然存在交集。从技术难度来说语义分割更高,因为它需要:理解图像内容、精确定位每个物体的边界,正确分类每个像素。但语义分割并不能提升图像质量,因为它不是做这个的:它的输出是标签图(label map),而不是更清晰的RGB图像,即它会告诉你"这个模糊的绿色块是一棵树"但它不会让这个树变得更清晰。而SISR技术上相对简单些,它只需要学习图像的纹理特征和像素间的映射关系。具体而言就是先收集大量高清图像,然后人为降低分辨率得到低分辨率样本,训练模型学习从低分辨率到高分辨率的映射关系,所以它很擅长提升图像清晰度,它通过大量数据学习,只知道"这里应该怎么填充像素才能看起来更真实",而不知道自己在处理什么物体

特征SISR语义分割
数据结构低分辨率(LR)与高分辨率(HR)对儿带有像素级标签的图像
标签类型每个LR图像对应一个HR图像每个像素都有类别标签
评估指标PSNR、SSIMIoU、像素准确率、F1分数

image.png

CNN流程框架

  1. 数据准备:目的是确保模型能够学到低分辨率图像(LR)和高分辨率图像(HR)之间的映射关系,需要收集大量的LR和HR图像对(可以看到这里与语义分割任务就不同,这里的需要明确的验证集)。然后对数据进行预处理:包括归一化、数据增强扩样等操作,增加模型泛化能力。

  2. 模型构建:输入层接受LR图像。特征提取层即多层卷积逐步提取图像的底层特征,如边缘和纹理。选择合适的激活函数如ReLU,用于引入非线性,增强网络的表达能力。设置上采样层,通过反卷积或插值技术放大特征图,恢复图像至目标分辨率。最后输出层生成HR图像。

  3. 损失函数的选择

    损失函数设计描述主要特点
    像素损失通过计算生成图像与真实图像之间每个对应像素的平方误差MSE来衡量相似性。逐像素对比,计算简单。
    感知损失利用预训练完毕的的卷积神经网络(如VGG)提取高层次特征,然后计算这些特征的差异。核心是“特征”的差异,而不是像素的差异关注高层次特征,生成图像在视觉上更自然。
    对抗损失通过生成对抗网络(GAN)中的生成器和判别器的对抗训练,生成更逼真的高分辨率图像。生成的图像在视觉上更逼真。
    混合损失结合多种损失函数(如MSE、感知损失、对抗损失等),综合考虑多个方面的差异。综合多种损失,提升生成图像的质量。

    考虑到很多GISer对于感知损失可能不太好理解,但这是SISR绕不开的概念,需要花些篇幅补充

    首先来讲讲什么是特征图

    最初的输入图像中,每个像素都是一个数(灰度图是一个数,彩色图像是红、绿、蓝三个数)。当图像通过CNN后,卷积操作会从图像中提取出更抽象的特征,这就是特征图 这些特征可能是边缘、纹理、形状等信息。特征图可以看作是“CNN对图像的理解”,它表示的是图像中不同部分的不同特征,现在已然不再是简单的亮度或颜色。原始像素只是图像的基本构成单位,没有包含太多语义信息。 特征图虽然也是像素图,但这些值代表的是卷积网络提取的特定特征,比如某个区域有多大的边缘强度,或者某种模式的存在程度。

    基于像素损失的传统BP方案的局限性

    在传统CNN中,常用的损失函数如均方误差(MSE)和交叉熵主要关注的是像素级的差异。这些损失函数通过直接计算生成图像与真实图像在每个像素位置上的误差,旨在最小化这种误差,然而在在风格迁移、超分辨率重建和生成对抗网络等任务中,仅关注像素值的准确性不能充分捕捉图像的复杂性和深层特征。 就比如在遥感图像中识别固废(工业垃圾、生活垃圾等),这些目标通常具有复杂的形态、多样的纹理特征,在不同的光照条件下表现出不同的外观,即同样的垃圾不同的像素值,自然直接使用像素级别的损失函数可能无法捕捉到这些特征。

    基于特征图BP的感知损失

    感知损失是一种用于评估图像之间相似度的损失函数,但它并不是直接比较图像的像素值,而是去比较图像在神经网络中某些中间层输出的特征图。它通过一个预训练的神经网络(在大型数据集训练的编码器)来提取两张图像的特征图,然后直接比较这些特征图的差异。要通过感知损失提升遥感地物识别的过程:首先你会使用一个卷积神经网络(CNN)来处理遥感图像,输入是城市的遥感影像,输出是固废区域的分割结果。将感知损失加入到训练过程中,使用预训练的卷积神经网络,这种身经百战的模型能够很好地提取出图像中的边缘、纹理和形状。然后需要将两张图像都输入到这个预训练好的VGG网络中:一张是你刚才的模型生成的图像,另一张是标注的真实图像。然后由你选的编码器计算它们在特征级别上的差异(依然可通过均方误差 MSE)。这个差异值就是感知损失,用于优化模型的生成结果。

    GAN流程简述

    通过生成器(Generator)和判别器(Discriminator)的对抗训练,使生成的图像更逼真。生成器的任务是从低分辨率(LR)图像生成高分辨率(HR)图像,它通过一系列卷积层和上采样操作构建生成图像,训练目标是“欺骗”判别器,使其认为生成的图像是真实的。判别器也是一个CNN,主要用于区分生成的图像和真实图像,判断输入图像是真实的(来自真实数据)还是生成的(来自生成器),从而“对抗”生成器。生成器不仅要最小化像素级或特征级的差异(如均方误差MSE和感知损失),还要通过对抗损失来“迷惑”判别器,使生成的图像在宏观视觉上更像真实图像。这是一种动态博弈,随着训练的进行,生成器和判别器的能力都在提升。通过引入感知损失,生成器在优化过程中可以更好地捕捉到图像的高级特征,从而进一步提高生成图像的质量。

  4. 模型训练

    • 前向传播:将LR图像通过模型生成HR图像。
    • 计算损失:感知损失背后的计算方式仍然是MSE(感知损失是一个综合性的损失函数,它结合了像素级别的损失、内容损失和风格损失,有时还包括对抗损失)
    • 反向传播和优化:使用优化器(如Adam)调整网络权重,降低损失函数。
  5. 模型评估测试

    • 使用验证集评估性能,常用指标包括PSNR和SSIM。
    • 通过调整学习率、网络层数、批量大小等进行调优。
    • 确保模型在测试集上的泛化能力,并生成最终的HR图像

3. 两种超分辨率技术的比较

技术方式硬件多帧重建软件单帧深度学习
数据多帧图像(例如SPOT-5的双图像)单帧或多帧图像
技术物理过采样+交织+插值深度学习、卷积神经网络等算法处理
原理利用不同图像视角或时差重建真实信息基于已有信息推断缺失的细节
优势物理信息可靠,真实度高无需多帧数据,灵活性强,成本较低
局限硬件要求高不能引入不存在的真实信息
场景摄影测量等需高精度多帧合成的场景视觉增强相关领域

多帧重建基于真实物理信息,通过采集多个稍微有偏移的图像并进行融合,可以更真实地提高图像的分辨率。这种方法依赖于图像之间的微小差异来增加采样密度,因此可以更加精准地还原实际场景中的细节。相比之下,单帧的深度学习则更多地依赖于模型对图像内容的推断和重建,尽管深度学习可以从低分辨率图像中生成更多视觉细节,但这些细节是基于已有数据进行推测的,无法生成完全不存在的真实地物。因此,它更像是一种视觉上的增强,而不是实际信息的增加。不过,硬件多帧的获取过程受限于拍摄条件和设备成本,而单帧深度学习尽管存在局限性,却可以在没有多帧数据的情况下提供一种快速且相对廉价的高分辨率解决方案。


2.混淆点与误区解析

超采样(SS) vs 上采样 vs 超分辨率(SR)傻傻分不清?
超采样SS
Super Sampling
上采样
Upsampling
超分辨率SR
Super Resolution
定义先在更高分辨率下采样,
然后缩放到目标分辨率,减少锯齿并提高图像质量
通过插值算法增加图像的像素数量使图像显得更大通过深度学习或多帧重建
将低分辨率生成高分辨率
核心抗锯齿
通过更高采样率平滑边缘
保持显示效果
适应不同分辨率显示
重建细节
增加图像的细节信息
新增信息源高分图像的采样点单帧:推断生成新细节
多帧:真实增加了GSD
技术方法超采样抗锯齿(SSAA)最近邻、双线性、三次卷积卷积神经网络(CNN)
生成对抗网络(GAN)
多帧图像融合等
应用游戏、3D渲染。重点是平滑边缘和减少锯齿图像显示适配,视频播放设备中的分辨率调整遥感、医学图像处理、视频放大、监控图像增强
  • 超采样的核心是为了抗锯齿,在高分辨率下渲染再缩回低分辨率,以提高图像平滑度;
  • 上采样的核心是通过插值方法适应不同分辨率显示,保持图像比例,但不引入新信息;
  • 超分辨率的核心是重建细节,通过深度学习等方法从低分辨率图像生成更多视觉上的细节,有时会引入新的信息,但不会增加实际分辨率。
那上采样既然纯纯让数据变大,任何信息不增加,还有什么意义?

适应高分辨率显示器:现代显示器的分辨率越来越高,如果直接将低分辨率图像显示在高分辨率显示器上,图像会显得非常小难以看清,上采样将低分辨率图像放大,可以保持图像的显示比例,避免图像变形,更容易观察。例如,将480p的视频在1080p的显示器上播放时,如果不进行上采样,图像会显得非常小,而上采样可以使其在保持比例的情况下放大,虽然看起来还是模糊,但如果低分辨率图像直接放大时,会出现明显的锯齿和块状效应,影响视觉效果。例如,将一张低分辨率的图片直接放大,边缘会变得非常粗糙起码平滑图像,减少锯齿和块状效应,也能改善视觉体验


3. 你听说过10厘米分辨率的商业遥感卫星么?

图片

Albedo公司:

Albedo(反射率)是一家成立于2020年的美国对地观测初创企业,专注于超高分辨率商业遥感卫星的研发与应用。截至2024年1月,Albedo公司宣布获得3500万美元的新一轮融资,使其总融资金额达到9700万美元。公司计划构建一个由24颗卫星组成的星座,每颗卫星将提供10厘米分辨率的光学图像和2米分辨率的热红外图像。这些图像的分辨率目前仅能通过航飞或高度机密的军用卫星获取。Albedo卫星设计为冰箱大小,将在250-450Km高度的超低轨道Vleo上运行。这种轨道选择可以有效降低光学镜头的孔径需求,从而大幅降低卫星的制造和发射成本。然而,这也意味着卫星需要不断消耗燃料来抵抗轨道衰减,保持稳定运行。首颗卫星预计于2025年发射,并在全球范围内销售10厘米分辨率的商业光学图像。

Umbra公司:

Umbra是一家美国对地观测初创企业,专注于合成孔径雷达(SAR)技术。2023年8月,Umbra宣布可对外提供16厘米分辨率的商业SAR图像。

吉林一号

高分04A星图像分辨率约为0.3米,成像幅宽大于15千米,该卫星重量仅为92千克。

赛思倍斯智能科技有限公司:

2023年7月22日,赛思倍斯智能科技有限公司成功发射了超低轨道试验卫星“乾坤一号”。该卫星旨在测试在300千米、250千米,甚至200千米以下的轨道高度上的长期稳定飞行能力。如果超低轨道飞行试验成功,将为国内10厘米分辨率商业遥感卫星的开发提供关键技术支撑,显著降低制造和发射成本。

在超低轨VLEO轨道上运行卫星:优势与挑战

低轨的优势

  1. 分辨率提升 and 成本降低:GSD与轨道高度成反比,低轨卫星的FOV更小,意味着孔径可以更小的同时保持所需的分辨率,较小的孔径又意味着更轻的光学系统,减少了卫星整体重量,从而降低了制造成本与发射成本。(例如,假设一颗卫星在500公里轨道上需要1米孔径的镜头才能达到0.5米的分辨率,那么在250公里的轨道上,相同分辨率只需要约0.5米的孔径。) GSD的计算公式通常可以表示为:
GSD=探测像元大小×卫星高度焦距GSD = \frac{探测像元大小 \times 卫星高度}{焦距}

       在某些情况下,当相对孔径接近1时,焦距可以近似为孔径

GSD=卫星高度光学镜头孔径GSD = \frac{卫星高度}{光学镜头孔径}

    所以要获得更小的GSD(即更高的分辨率),我们可以通过以下方式:     - 降低轨道高度 ( h )(使卫星更接近地面)
    - 增加镜头焦距 ( D )(使用更大的镜头)
    - 减小探测像元的大小(使用更先进的传感器技术)

  1. 信号传输优势:较低轨道的卫星信号传输距离更短,信号在传输过程中的衰减更小,提高数据传输速率,减少数据延迟,这对于实时应用非常重要。

低轨的挑战

  1. 大气阻力:在250-450公里的高度,稀薄的大气会对卫星产生阻力,导致轨道衰减(大气的摩擦这会让卫星慢慢掉下来)。这需要额外的推进剂来维持轨道高度,增加了运营成本。而且由于需要更多的推进剂来维持轨道,卫星的寿命可能会缩短。这需要在设计阶段进行详细的寿命评估和推进剂管理

  2. 热控问题:较低轨道的大气密度较高,可能会影响卫星的热控系统。(大气更稠密,卫星更容易变热)卫星需要设计更高效的热管理系统,以确保在不同高度下的热平衡。选择耐高温和散热性能好的材料,以及优化卫星表面的热辐射特性。

四、如何理解DEM

在讨论卫星遥感影像和数字高程模型(DEM)的空间分辨率时,二者在本质上的差异源于它们的生成机理。尽管空间分辨率在概念上都表示对地表细节的捕捉能力,但影像和DEM的实现方式完全不同,这也是为什么DEM的精度通常难以达到亚米级的关键原因之一。

1. 采样点与像元不能混为一谈

DEM的本质是基于采样点的插值过程。每个采样点代表地表某一位置的高程值,采样点之间通过插值算法推导出连续的地形表面。以30米分辨率的DEM为例,意味着每30米有一个精确的高程采样点,这中间的高程值是通过数学插值估算得出。这种基于离散采样点的插值机制,虽然可以生成连续的高程信息,但在复杂地形下往往会丢失重要的细节。垂直分辨率 是DEM独有的分辨率概念,指的是高程值的精度,通常以米或更小的单位表示,由于高程模型不仅需要测量地面高程,还需要考虑地形起伏复杂度、信号反射路径等因素,数据处理的复杂性远远高于二维影像。

光学遥感影像的本质直接通过传感器对地表反射或散射的光学信号进行采集。影像中的每个像元是由传感器在成像时记录的真实光谱信息,不涉及插值。因此,光学影像的空间分辨率更多依赖于传感器的成像能力,传感器能够直接捕捉到地表细节。例如,亚米级光学影像能够以高精度记录每一个像素范围内的地表反射信息,这种直接采集的特性使得光学影像能够精确反映地表细节。

2. 插值与空间分辨率的影响

DEM中,由于采样点的稀疏性,插值算法需要在两个采样点之间推测高程值。这种方式在地形起伏较平缓的区域效果较好,但在山脉、峡谷等复杂地形中,插值的精度往往不足,导致生成的高程模型失真。例如,一个30米分辨率的DEM只能在30米间隔处提供精确的高程信息,中间的细节高度依赖于插值过程,难以捕捉到亚米级的精细变化。

光学影像则不存在这种插值问题。每个像元都是传感器直接获取的数据,传感器的分辨率越高,获取的地表细节就越丰富。因此,亚米级的光学影像可以在远低于1米的空间尺度上表现出地表物体的细节变化,没有插值过程带来的不确定性。

一个常见的错误产品:ALOS 12.5m DEM产品

ALOS 12.5实际上是 SRTMGL1 DEM 30m 上采样得到的数据,只是在像素级别增加数据的密度,但并不会增加实际的地形信息量。从反映地形细节的真实能力来说,本质依然是30 米分辨率所对应的地形细节程度。让国内众多高校及学者产生误解的原因是因为 ASF(Alaska Satellite Facility)在提供数据时,将12.5米DEM放在ALOS PALSAR数据产品包中。这种放置方式容易让人误解为该DEM是由PALSAR数据生成的,且分辨率为12.5米。实际上,PALSAR数据主要用于合成孔径雷达(SAR)图像的生成,而不是DEM的生成。网络上存在大量错误介绍,包括错误地声称12.5米DEM是由ALOS卫星的PALSAR雷达传感器数据生成的,且分辨率为12.5米。这些错误信息被广泛传播和引用,不瞒大家说,我当年的硕士论文就是基于所谓的ALOS12.5m的相关研究,现在回过头来看其实是存在问题的😂。

3. 结论

综上所述,DEM的空间分辨率本质上是基于采样点的插值,其分辨率取决于采样点的稀疏性以及插值算法的精度。这种机制使得DEM在大范围内难以达到亚米级的精度,特别是在复杂地形中,插值过程中的误差会进一步限制其精度。而光学遥感影像的空间分辨率则是通过传感器直接获取,不依赖插值,可以更容易达到亚米级甚至更高的精度。这一差异反映了两者在数据生成方式、应用场景和技术限制上的根本区别。