<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>FMCW LiDAR on 反无人机雷达 — 低空监视雷达系统</title>
    <link>https://www.counteruavradar.com/zh/tags/fmcw-lidar/</link>
    <description>Recent content in FMCW LiDAR on 反无人机雷达 — 低空监视雷达系统</description>
    <generator>Hugo</generator>
    <language>zh-CN</language>
    <lastBuildDate>Fri, 25 Apr 2025 00:00:00 +0000</lastBuildDate>
    <atom:link href="https://www.counteruavradar.com/zh/tags/fmcw-lidar/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>仿生 FMCW LiDAR 与自适应 4D 机器视觉的兴起</title>
      <link>https://www.counteruavradar.com/zh/knowledge-base/bionic-fmcw-lidar-and-adaptive-4d-machine-vision/</link>
      <pubDate>Fri, 25 Apr 2025 00:00:00 +0000</pubDate>
      <guid>https://www.counteruavradar.com/zh/knowledge-base/bionic-fmcw-lidar-and-adaptive-4d-machine-vision/</guid>
      <description>&lt;p&gt;LiDAR 引发关注时，人们往往先看一个数字：分辨率。但更关键的问题通常不是“有多高”，而是“系统把分辨率预算花在了哪里”。这正是具备视线引导能力的、或称仿生的 FMCW LiDAR 值得关注的原因。它不再以同样的密度扫描每个方向，而是对注意力进行重新分配，在保持全局感知的同时，把更高细节的感知资源集中到最重要的场景区域。&lt;/p&gt;&#xA;&lt;p&gt;这不只是一个光子学问题，更是一个系统设计问题：未来的感知栈，可能不再把每个像素、每个角度、每个目标区域都视为同等重要。&lt;/p&gt;&#xA;&lt;h2 id=&#34;这里所说的仿生是什么意思&#34;&gt;这里所说的“仿生”是什么意思&lt;/h2&gt;&#xA;&lt;p&gt;“仿生”并不是为了模仿而模仿，它指的是一种类似视网膜的感知策略。人眼并不会以统一分辨率处理整个场景，而是将广域背景认知与局部聚焦注意力结合起来。仿生 LiDAR 的思路，就是把这种逻辑迁移到机器感知中。&lt;/p&gt;&#xA;&lt;p&gt;落到实际应用上，这意味着：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;保持足够的广域覆盖，以保留上下文信息；&lt;/li&gt;&#xA;&lt;li&gt;识别关键区域；&lt;/li&gt;&#xA;&lt;li&gt;在更有操作价值的地方投入更高的感知密度。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;之所以重要，是因为感知系统几乎总要面对同一个取舍：既想要更大覆盖范围、更多细节、更低功耗、更低成本，还要更低复杂度。单纯做均匀扫描，并不能高效解决这个矛盾。&lt;/p&gt;&#xA;&lt;h2 id=&#34;为什么-fmcw-lidar-不一样&#34;&gt;为什么 FMCW LiDAR 不一样&lt;/h2&gt;&#xA;&lt;p&gt;FMCW LiDAR 的吸引力在于，它不仅仅是一种测距技术。与 FMCW 雷达类似，它使用调频连续波，并可通过相干探测，在距离估计之外获得与运动相关的信息。因此，FMCW LiDAR 常被视为一种“4D”感知候选方案：它既能提供深度信息和类似反射率的场景结构，也支持面向速度的感知能力。&lt;/p&gt;&#xA;&lt;p&gt;这并不意味着所有 FMCW LiDAR 系统都已具备成熟的工程化能力，但它解释了为什么研究界会把它看作比传统飞行时间（ToF）方案更丰富的一类感知架构，尤其是在某些应用场景下。&lt;/p&gt;&#xA;&lt;h2 id=&#34;为什么自适应分配比更大的规格参数更重要&#34;&gt;为什么自适应分配比更大的规格参数更重要&lt;/h2&gt;&#xA;&lt;p&gt;自适应或仿生 LiDAR 的核心，不是“扫得更多”，而是“扫得更聪明”。感知系统通常并不需要在所有地方都达到最高密度，它真正需要的是在正确的时间、正确的位置提供足够密度。&lt;/p&gt;&#xA;&lt;p&gt;这很关键，因为自适应分配可以带来以下改善：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;在即将做出决策的局部区域提升细节；&lt;/li&gt;&#xA;&lt;li&gt;通过避免不必要的全场高密度扫描提高计算效率；&lt;/li&gt;&#xA;&lt;li&gt;在不让硬件成本随场景规模线性增长的前提下，提升系统整体可用性。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;换句话说，自适应感知是一种资源分配策略，而不只是一个传感器特性。&lt;/p&gt;&#xA;&lt;h2 id=&#34;为什么这被称为-4d-机器视觉&#34;&gt;为什么这被称为 4D 机器视觉&lt;/h2&gt;&#xA;&lt;p&gt;“4D”这个说法经常被泛化使用，因此需要更准确地理解。在这里，它通常指系统不仅要感知三维空间位置，还要同时感知运动或时间行为，从而支持对场景随时间变化的理解。&lt;/p&gt;&#xA;&lt;p&gt;这之所以重要，是因为未来的机器视觉系统不再只看“能不能看到场景”，而是要看它能否：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;找到真正重要的区域；&lt;/li&gt;&#xA;&lt;li&gt;保持时间维度上的相关性；&lt;/li&gt;&#xA;&lt;li&gt;量化场景是如何变化的。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;这也是相干 FMCW LiDAR 研究受到关注的原因之一。它体现了感知系统应当是动态且选择性的，而不是机械地穷尽整个场景。&lt;/p&gt;&#xA;&lt;h2 id=&#34;对真实系统可能意味着什么&#34;&gt;对真实系统可能意味着什么&lt;/h2&gt;&#xA;&lt;p&gt;在短期内，几乎不会有部署直接用自适应 FMCW LiDAR 去取代现有的全部感知栈。更现实的启示其实是架构层面的：未来系统可能越来越多地结合：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;广域上下文感知；&lt;/li&gt;&#xA;&lt;li&gt;局部高细节探测；&lt;/li&gt;&#xA;&lt;li&gt;以及能够动态改变传感器行为的软件。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;这种思路已经出现在许多安防和自动驾驶类系统中。广域巡检与高细节确认，通常并不会在同一层、以同样方式完成。&lt;/p&gt;&#xA;&lt;h2 id=&#34;为什么这对安防和监视同样重要&#34;&gt;为什么这对安防和监视同样重要&lt;/h2&gt;&#xA;&lt;p&gt;即便不使用 LiDAR，安防平台也正在向同样的思路演进：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;雷达负责持续监视；&lt;/li&gt;&#xA;&lt;li&gt;光学设备负责高细节确认；&lt;/li&gt;&#xA;&lt;li&gt;控制软件决定下一步把注意力放到哪里。&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;因此，即使读者当前并不采购 LiDAR，这类自适应 LiDAR 研究仍然有价值。它强化了一个已经被安防实践反复验证的结论：最强的架构，往往是最懂得把注意力花在正确位置上的架构。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
