2025年9月15日月曜日

ベクトルの内積は、十九世紀半ばにドイツの数学者グラスマンが提案した「要素ごとの掛け合わせと足し合わせ」を土台に、二十世紀初頭にギブスとヘヴィサイドが電磁気学へ導入したことで広く知られるようになった

 ベクトルの内積は、十九世紀半ばにドイツの数学者グラスマンが提案した「要素ごとの掛け合わせと足し合わせ」を土台に、二十世紀初頭にギブスとヘヴィサイドが電磁気学へ導入したことで広く知られるようになった。二つのベクトルがどれだけ同じ向きを向いているか、その「なじみ具合」を一つの数値で示せる便利さが研究者を魅了し、力学や量子論を経て情報科学へと波及した。

現代の機械学習では、この内積が至る所で働いている。まず線形分類器だ。パーセプトロンやロジスティック回帰は、入力の特徴と重みを照合し、その合計が正か負かで結論を出す。計算はただの足し算とかけ算に還元でき、データが百万件あっても処理は高速だ。

次に埋め込み表現の世界。言葉や画像を多次元のベクトルに変換し、その近さを測る際、内積が「意味の距離計」として機能する。大量の文書を秒単位で検索できる検索エンジンやチャットAIの裏側では、専用チップがこの計算を並列で回し続けている。

推薦システムも例外ではない。ユーザーの嗜好ベクトルと商品の特徴ベクトルを内積すれば、どれほど好まれそうかが即座にわかる。映画や音楽のレコメンドが驚くほど的確なのは、この仕組みが膨大な選択肢を瞬時にふるいにかけているからだ。

さらに、音声翻訳などで脚光を浴びるトランスフォーマー型モデルでは「注意機構」が核心を担う。処理中の単語同士を比べ、どれとどれが強く関係するかを測る作業も、実は内積の応用だ。

内積が重宝される理由は三つある。第一に線形演算なので計算が単純で、勾配を求める際も複雑な手続きがいらない。第二に並列化が容易で、スパースなデータでも無駄なく加速できる。第三に数値が大きいほど方向が近いという直感的な意味を保つため、モデルの挙動を人間が理解しやすい。

内積は「方向の指標」と「重み付き合計」を同時に担う、多目的な道具だ。十九世紀に芽吹いたこの概念は、二十一世紀のAIブームの中核に据えられ、検索、翻訳、推薦など日常サービスの裏側で静かに力を発揮し続けている。