カットアップは20世紀初頭のダダに源流があります。チューリヒのツァラは新聞を切って袋で混ぜ、取り出した順に詩を作る方法を示しました。のちにシュルレアリスムの偶然性や自動記述と響き合い、1959年にガイシンが偶然発見、60年代にはバロウズと共に本や録音テープを物理的に切断・貼り直す実験へ発展します。ジョン・ケージのチャンス・オペレーションや、制約で遊ぶオウリポとも連動し、「切って、並べ替えて、最小限だけ接ぐ」という編集術が確立しました。
LLMと比べると方向は逆です。LLMは大量の文章から「次に来そうな語」の確率分布を学び、アテンションで離れた文脈も結び、温度やtop-pで揺らぎを調整して、滑らかで一貫した文を作ります。要は“意味の糊で接ぐ”。一方カットアップは、人が句や文を切り、順序を入れ替え、必要なときだけ接続詞などで橋をかけます。工程で言えば、LLMは接着が主役、カットアップは編集が主役です。
両者には共通の物差しもあります。n-gramのパープレキシティ(読みやすさ)、境界PMI(継ぎ目の不自然さ)、隣り合う文の埋め込み距離(意味の飛距離)、出典の混合度(キメラ性)などです。実務では、断片を長く・橋渡し語を多くすれば「読めるキメラ」、断片を短く・順序をランダム寄りに・温度を上げれば「尖ったキメラ」になります。
後半の視点として、離散モデルはカットアップに近い作法を持ちます。n-gramやHMM、挿入・削除・置換を扱う確率的トランスデューサ、マスクした範囲を復元するBART/T5、まとめて穴埋めする非自回帰系や離散拡散は、いずれも「離散的な断片を壊し、選び、並べる」手続きです。逆に、密なアテンションで連続的に補間し、温度を下げ、強い整合制約をかけるほど、カットアップ的な断続は後景に退きます。
https://it-lists.blogspot.com/2025/09/llms-make-adhesion-protagonist-while.html