Skip to main content

📊 海量數據採樣策略

本章節介紹視覺化引擎中的核心算法:採樣 (Downsampling)。在大規模量產環境下,如何減少顯示點數且不誤導工程師,是系統設計的重難點。

1. 採樣的風險:為什麼不能隨機抽樣?

在 SPC 中,我們最在乎的是「異常點 (Outliers)」。

  • 隨機抽樣:極有可能丟失違規點。
  • 均值採樣:會平滑掉所有的峰值,使製程看起來比實際上穩定。
  • 後果:隱藏了潛在的良率危機。

2. 核心算法:LTTB (Largest Triangle Three Buckets)

系統採用業界公認的 LTTB 採樣算法。

  • 原理:在每個 Bucket 中尋找能組成「最大三角形面積」的點位。
  • 優勢:在數學上能最大程度地保留數據的「視覺特徵」與「分佈輪廓」。

3. 動態解析度 (Dynamic LOD)

系統會根據終端裝置的像素寬度自動調整採樣比例:

  • 像素驅動:若顯示區域寬度為 1024px1024\text{px},則系統僅會傳輸約 100015001000 \sim 1500 個點。
  • 智能緩存:預生成多層解析度的圖像快照,實現瞬間加載。

4. 領域專家思維:指標的不可篡改性

採樣僅應用於「繪圖層」,不應用於「計算層」。

  • 分離原則:圖表顯示採樣後的線條,但 CpkC_{pk} 計算必須基於「全量數據」。
  • 視覺警示:高倍率採樣時顯示提示,提醒工程師若需細部判讀應放大區間。