インテリジェントビデオ検索アルゴリズム ビデオ検索は、動画の内容を分析し、動画内の重要な情報を抽出し、関連プロセスをマーキングまたは処理し、対応するイベントやアラームの監視手法を形成するために、さまざまな属性記述を素早く検索できるようにします。 カメラを人の目と見なすなら、このインテリジェントビデオ監視システムは人間の脳と理解できます。 インテリジェントビデオ技術は、プロセッサの強力な計算機能を活用し、ビデオ画面上の膨大なデータを高速で解析し、人々が必要とする情報を取得します。
フレーム差分モデル
フレーム差は最も単純な背景モデルと言えます。ビデオ内の画像を背景として指定し、現在のフレームと背景を比較し、必要に応じて小さな差をフィルタリングし、その結果が前景となります。
背景統計モデル 背景統計モデルは、一定期間にわたって背景をカウントし、その統計量(平均値、平均差、標準偏差、平均ドリフト値など)を計算し、統計を背景として用いる方法です。
このバックグラウンドモデルをコード化 エンコードされた本の基本的な考え方は次の通りです:タイムライン上の各ピクセルの変化に対して、最近のすべての変更を含む複数(または1つ)のボックスを設置します。 検出時には現在のピクセルをボックスと比較し、現在のピクセルが任意のボックスの範囲内であれば、それが背景となります。
ハイブリッド・ガウスモデル ハイブリッドガウス背景モデリングは、比較的成功した背景モデリングの一つです。
どうしてそんなことを言うんですか。 機械視覚アルゴリズムは、移動するターゲットが直面する基本的な問題を抽出します:画像の揺れ、ノイズ干渉、光の変化、雲の漂流、影(ターゲットの影やエリア外の物体の影を含む)、エリア内の反射(水面や表示など)、移動するターゲットの遅い動きなどです。 では、ハイブリッドガウス背景モデリングがどのようにこれらの問題を解決しているのかを見てみましょう。
背景モデリングと前景抽出を通じて、ビデオフレーム内のターゲットオブジェクトが抽出されますが、抽出される対象はすべて非背景オブジェクト、すなわち混合オブジェクトであり、多くの人、車、動物、その他のオブジェクトを含む場合があります。最後に画像検索でオブジェクトと検索ターゲットの類似度を比較します。ここではオブジェクト検出と追跡を通じてこれらの混合オブジェクトを分離する必要があります。
物体検出に関しては、学習されるアルゴリズムにはベイズ法、カルマンフィルター、粒子フィルターが含まれ、それらの関係は以下の通りです。
ベイズ法は既知の情報を用いてシステムの確率密度関数を確立し、システム状態推定の最適解を得ます。
線形ガウス推定問題の場合、期待確率密度関数は依然としてガウス分布であり、その分布特性は平均と分散で記述可能であり、カルマンフィルターはこの種の推定問題をうまく解きます。
パーティクルフィルタ - シーケンス重要度サンプリングパーティクルフィルタは、強い非線形性に適しガウス制約がないアナログベースの統計フィルタです。
全体として、粒子フィルタリングの効果は優れています。
照明処理:異なる照明下での同一物体の視覚効果は異なり、対応するデータも異なるため、解析と記憶の精度を向上させるためには対象物体に対して照明処理が必要です。 光処理の観点からは、業界でより人気のあるアルゴリズムは本質画像分解法です。
固有画像分解 カメラが取得した画像内の各ピクセル値の特性で表される最も重要な情報は、明るさ(シェーディング)とアルベド(反射率)です。 明るさは環境内の照明情報に対応し、アルベドは物体の物質情報、すなわち物体の光への反射特性に対応し、アルベドは主に物体の色情報を示します。 内在像を解く問題は、画像から出発し、シーン内のすべてのピクセルに対応する明るさとアルベド情報を復元し、それぞれ明るさ固有マップとアルベド固有マップを作成することです
内在像分解はI(x,y) = L(x,y)R(x,y)と表現でき、I(x,y)は入力画像、R(x,y)はアルベド画像、L(x,y)は明るさ画像を表します。 対数体では乗算がはるかに簡単に加算されるため、画像の対数場で /(X,y) = log(I(x, y)), r0,y) = log(R(x,less)), l(x,y) = log(L(x,y))と計算します。 したがって、元の乗算関係は次のように変換されます:i(x,y,t) = r(x,y) + l(x,y,t)。
|