2026年4月25日土曜日

📏『でたらめ』の数学――神はサイコロを振るのか?確率過程をわかりやすく(ブラウン運動/ウィーナー過程/マルコフ)

 

確率過程とはランダムに変化する数学モデル、とにかくデタラメになにか出てくる数が大きめのもの

確率過程(stochastic process)は例えば、バクテリアの個体数の増加、熱雑音による電流の変動、気体分子の運動などである。 [さらに、金融市場における一見不規則な変化から、金融における確率過程の広範な利用が進められている

https://en.wikipedia.org/wiki/Stochastic_process

過程と言う言葉に惑わされてはいけない。関数程度に考えてあげて。≒ランダム関数

確率過程は関数空間におけるランダムな要素とも解釈できるランダム関数という用語は確率過程またはランダム過程を指す場合にも用いられる。
確率過程はその数学的性質から,ランダムウォーク、マルチン ゲール、マルコフ過程、レヴィ過程、ガウス過程 、ランダム場、 更新過程,分岐過程など様々なカテゴリーに分類され る

ウィーナー過程=ブラウン運動過程または単にブラウン運動とも呼ばれている  ブラウン運動するランダムな関数。増分がポイント


ウィーナー過程は、定常的で独立な増分を持ち、増分の大きさによって正規分布する確率過程である。ウィーナー過程は、その数学的存在を証明したNorbert ウィーナーにちなんで名付けられたが、液体中のブラウン運動のモデルとして歴史的に関係があるので、ブラウン運動過程または単にブラウン運動とも呼ばれている。(ウィーナー過程=ブラウン運動過程)

ウィーナー過程は、数理科学のあらゆる分野に応用されている。物理学では、ブラウン運動、流体中に浮遊する微小粒子の拡散など、Fokker-Planck方程式やLangevin方程式による拡散の研究に用いられている。また、量子力学の厳密な経路積分定式化(Feynman-Kacの式により、シュレーディンガー方程式の解をWiener過程の観点から表すことができる)や物理宇宙論における永遠のインフレーションの研究の基礎を形成するものである。また、金融の数学的理論、特にブラック・ショールズ・オプション価格決定モデルにおいても著名である。

画像
https://amzn.to/3QGLA61

花粉は出鱈目(ランダム)に移動する、しかし瞬間移動することはない(なのでランダムに増・減するモデル)

画像
https://editor.p5js.org/setapolo/sketches/pWOBBlOWz8

常に現在の位置 (x または y) に追加されるため (これがコンテキストを維持するための鍵です)、どこにいてどこに行くべきかを常に意識することができます。


画像
https://p5js.org/examples/simulate-brownian-motion.html
画像
https://reference.wolfram.com/language/ref/WienerProcess.html

マルコフ過程

https://setosa.io/ev/markov-chains/

マルコフ過程は、伝統的に離散時間または連続時間の確率過程(ランダム関数)であり、マルコフ特性を持つ。これは、マルコフ過程の次の値は現在の値に依存するが、確率過程の以前の値からは条件付きで独立であることを意味する。言い換えれば、プロセスの現在の状態が与えられれば、そのプロセスの将来における振る舞いは、過去における振る舞いから確率的に独立である

マルコフ連鎖は通常、状態遷移図によって示される。

ブラウン運動も近似的にはマルコフ性を有する。

水中のブラウン 運動では,水由来の流体力学 相互作用に起因して,強い非マルコフ性を示す

https://www.jps.or.jp/books/gakkaishi/2021/06/76-06_360researches3.pdf

どっちやねん。。。。

確率過程はランダムな現象であるので法則性は観測者にゆだねられる

じゃんけんの現在の戦況から次の手を選べばマルコフ性(現在が未来を決めてる)を有するし、過去10回の結果から結果を出す性質があれば非マルコフ性(過去が関与している)を有する事になる。
観測者や実施者の匙加減で、現象のマルコフ性は変わっていく。(恣意的な感じがベイズにも繋がるはず)

しかし、多くのデジタル処理は離散的(配列、出目、などに制限がある。上下左右なども)であり、マルコフ性をあてはめやすい。
ずっとグーを出し続ければ「同じ手」であって、それをパーに変えた場合「グーからのパー」になる。状態遷移はじゃんけんのルールによって補償されている。

状態遷移で制限、出鱈目ときたら、マルコフ性のセットアップは可能

もちろん、非マルコフ的にみることも可能。将棋、チェス、囲碁、オセロ、などなど。。。。。

画像
画像

マルコフ過程は確率過程の重要なクラスを形成し、多くの分野で応用されている。例えば、マルコフ連鎖モンテカルロとして知られる一般的な確率シミュレーション手法の基礎であり、特定の確率分布を持つランダムな対象をシミュレーションするために用いられ、ベイズ統計で応用されてきた

マルコフ連鎖モンテカルロ法 (MCMC) では、均衡分布の近辺を小さなステップで無作為に動き回る粒子を想定したアルゴリズムが多い。これをランダムウォーク(酔歩)という。

ホークス過程(非マルコフ性をもつ)

非マルコフ型ダイナミクスとは、あるシステムとその環境との間のあらゆる相互作用のことで、その環境は後の時間にそのシステムに影響を与えるもので、コヒーレントである必要さえない。

画像
確率過程
  1. ランダムウォーク (Random Walk): これは、ランダムに一連のステップを取る過程です。例えば、コインを投げて、表が出れば一歩前進し、裏が出れば一歩後退するようなものです。この過程は、株価の動きや物理学における粒子の動きなどをモデル化するのに用いられます。

  2. マルチンゲール (Martingale): これは、過去の情報に基づいて未来の価値を予想する際に、現在の価値が最善の予想であるとする過程です。ギャンブル(特に公正なゲーム)において、現在の持ち金が将来の予測値となります。

  3. マルコフ過程 (Markov Process): この過程では、将来の状態は現在の状態にのみ依存し、過去の状態には依存しません(「無記憶性」)。例えば、天気のモデル化に使われることがあります。

  4. レヴィ過程 (Lévy Process): これは、マルコフ過程の一種で、独立した増加と定常的な増加を持つ過程です。ブラウン運動やポアソン過程などが含まれます。

  5. ガウス過程 (Gaussian Process): これは、連続するランダム変数の集合で、任意の有限集合が多変量正規分布に従う過程です。機械学習、特に回帰問題で用いられます。

  6. ランダム場 (Random Field): 空間の各点にランダムな値を割り当てる過程です。例えば、気温や圧力の分布をモデル化するのに使われます。

  7. 更新過程 (Renewal Process): 一連のイベントが発生する時間間隔が独立している過程です。これは、機械の故障や修理のモデリングに用いられることがあります。

  8. 分岐過程 (Branching Process): それぞれの世代で個体がランダムに子孫を生む過程です。これは、生物学における個体群の成長や核分裂のモデル化に使われます。


📏アダマール積とドット積の違いについて教えてください

 機械学習において、アダマール積とドット積は様々な文脈で使われ、それぞれ重要な役割を果たします。

アダマール積(Hadamard積)の使用

  1. 要素ごとの操作: 機械学習において、特にニューラルネットワークの層での活性化関数の適用や、要素ごとの重みの更新などにアダマール積が使われます。たとえば、ReLUやシグモイド関数などの活性化関数は各要素に個別に適用され、これはアダマール積の形式を取ります。

  2. 勾配の計算: バックプロパゲーションにおいて、勾配は要素ごとに計算されます。エラーの勾配を各レイヤーの重みやバイアスに関して計算する際に、アダマール積が使用されることがあります。

ドット積(内積)の使用

  1. データ変換: ニューラルネットワークの全結合層や畳み込み層では、入力データと重みの間のドット積(内積)が計算されます。これにより、データは次の層への入力として変換されます。

  2. 特徴抽出: 畳み込み

ニューラルネットワーク(CNN)では、フィルタ(カーネル)と入力データ間のドット積を計算することで、画像から特徴を抽出します。

  1. シーケンスデータの処理: 再帰的ニューラルネットワーク(RNN)や変換器(Transformer)などのシーケンスモデルでは、入力シーケンスに対する内部状態や注意機構の計算にドット積が使われます。

  2. シミュレートされた類似度: 機械学習の多くのアプリケーションでは、ベクトル間の類似度を測定するためにドット積が使われます。例えば、単語埋め込みベクトルの類似性を計算する際によく用いられます。

これらの使用例から分かるように、アダマール積は要素ごとの操作に適しており、特に活性化関数の適用や勾配計算に役立ちます。一方で、ドット積はデータの変換や特徴抽出、シーケンスデータの処理、類似度の計算など、より複雑な操作に適しています。これらの演算は、機械学習モデルの構築と学習のプロセスにおいて重要な要素です。

📏距離関数とglslのsdfとdfの解説

 数学およびその応用において,計量空間の集合Ωの符号付き距離関数(または配向性距離関数)は,与えられた点xのΩの境界からの距離を決めるもので,xがΩ内にあるかどうかによって符号が決まる. この関数は,Ω内の点xでは正の値をとり,xが符号付き距離関数がゼロとなるΩの境界に近づくにつれて値が減少し,Ω外では負の値をとる

画像
https://amzn.to/3B4Q80M

距離関数は一般的な2つの点や点と形状との間の距離を示す関数です。

GLSLはシェーディング言語であり、グラフィックスの描画や計算を効率的に行うためのプログラムを記述するための言語です。
SDFは特定の形状との距離を示す関数で、点が形状の内部か外部かに応じて符号付きの距離を返します。
DFは距離の情報を持つデータやテクスチャで、特定の形状や文字の描画を助けるために使われます。

SDFやDFはGLSL内で利用されることが多く、特に3Dシーンのレンダリングやエフェクトの生成に用いられます。

GLSLやレイマーチングにおいて、距離関数 (Signed Distance Function, SDF) が使われる理由は以下のような利点があるためです。

  1. シンプルで効率的なシーン定義: SDFはシーン内のオブジェクトを数式で表現するため、非常にコンパクトかつ簡潔にシーンを定義できます。これにより、複雑なオブジェクトやシーンも比較的少ないコードで表現できます。

  2. 滑らかな形状生成: SDFを使うと、滑らかで継続的な表面を持つ形状を簡単に生成できます。例えば、球、トーラス、キューブなどの基本的な形状は単純な数式で表現でき、これらを組み合わせることで複雑な形状も作成可能です。

  3. 効率的なレイマーチング: レイマーチングでは、各ステップでの進行距離をSDFに基づいて決定するため、無駄な計算を減らしつつ効率的にサーフェスに到達できます。これにより、レンダリングのパフォーマンスが向上します。

  4. 布ルーディング・エフェクト: SDFはブーリアン演算(和、積、差など)を使って形状を合成するのに適しており、複数のSDFを組み合わせることで複雑な形状を作成できます。これにより、複雑なオブジェクトやシーンの作成が容易になります。

  5. 柔軟なディスタンスフィールド操作: SDFは形状の変形やモディファイを柔軟に行うことができます。例えば、スムージングやブレンド、反転などの操作が数式レベルで簡単に行えます。

これらの理由から、GLSLやレイマーチングでSDFが広く使用されているのです。