2025年10月26日日曜日

Apache Sparkは、分散処理エンジンです

 

1. Apache Sparkとは何か(前提)

Apache Sparkは、分散処理エンジンです。メモリ上でデータを扱うことで従来のHadoop系バッチ処理より高速に、大量データをバッチ処理・ストリーミング処理・機械学習・グラフ解析などに使えます。Python / SQL / Scala / Java / Rから利用できます。Amazon Web Services, Inc.
Sparkは1つのフレームワークでバッチとリアルタイム両方の処理、SQL分析(Spark SQL)、機械学習(MLlib)、グラフ解析(GraphX)までカバーする「統一エンジン」です。spark.apache.org+1


2. Sparkの主な実用パターン(ユースケース)

2.1 大規模ETL / データレイク整備

  • 例:S3やデータベース、ログ、IoTイベントなど大量の生データを一気に読み込み、クレンジング・結合・正規化して分析用形式(Parquetなど)に変換する「ETL(Extract / Transform / Load)」バッチ。

  • 特徴:Sparkは大容量バッチを一括処理するのが得意で、日次・時間毎の集計レポート生成やデータウェアハウス/レイクハウスへのロードに使われています。CData Software+1

  • 組織的には「データレイクの心臓」として、部門横断で使われることが多いです。CData Software

2.2 ストリーミング/リアルタイム分析

  • 例:クリックログ、センサー値、取引イベントなどが秒単位で流れてくるストリームをほぼリアルタイムで集計し、ダッシュボードや検知ロジックに反映。

  • Spark Structured Streamingは継続的にデータを取り込み、ウィンドウ集計や異常検知を行えます。これは不正検知、レコメンドの即時更新、パーソナライズ広告などに使われています。AWS Documentation+1

  • 典型的にはKinesisやKafkaなどのストリームからSparkで処理→結果をS3やRedshiftに格納、という流れがよくあります。AWS Documentation+1

2.3 機械学習・レコメンド

  • Spark MLlib(機械学習ライブラリ)や分散データフレームを使って、大量データで学習するクリック率予測モデルやレコメンドモデルを学習する用途があります。

  • 具体例として、Yelpは広告クリック率予測モデルの学習をSpark on Amazon EMRで行い、広告収益とCTR(クリック率)を改善したと報告されています。また、Washington Postは読者の行動データをSparkで解析し、レコメンドを最適化しています。Amazon Web Services, Inc.

  • 特徴:大量データを反復学習するワークロード(勾配降下・特徴量生成など)では、Sparkの「メモリに保持したまま繰り返し計算できる」性質が効きます。Amazon Web Services, Inc.

2.4 対話型データ探索・BI支援

  • Spark SQLを使って、巨大なログテーブルやイベントテーブルに対してインタラクティブにクエリを打って可視化・調査する使い方があります。バッチではなく“調査・仮説検証”フェーズでデータアナリストがよく使います。Amazon Web Services, Inc.+1

2.5 グラフ解析・つながり分析

  • SparkのGraphXなどでソーシャルグラフ、ネットワークの中心性解析、レコメンド用の関係性グラフなどを分散計算するケースがあります。これは広告のターゲティング・ユーザー類似度推定・不正取引ネットワーク検出などに応用されます。Instaclustr


3. AWSでのApache Spark関連ソリューション

Spark自体はオープンソースですが、AWSは “クラスタのセットアップやスケーリングを代わりにやる” サービスを複数用意しています。以下が主な選択肢です。

3.1 Amazon EMR(Elastic MapReduce)

用途イメージ:フル機能のビッグデータ基盤 / 自由度高いSpark実行環境

  • Amazon EMRはHadoop/Spark/Hiveなどのビッグデータ系OSSをマネージドで動かすサービスです。Sparkクラスタを数クリックで用意し、S3のデータを分散処理できます。Amazon Web Services, Inc.

  • Spark on EMRは機械学習(MLlibによるスケールアウト学習)、ストリーム処理、インタラクティブSQL、ETLまで幅広くカバーします。Amazon Web Services, Inc.

  • Amazon SageMakerと連携して、EMR上のSparkから学習・推論ジョブをSageMakerに渡すことも可能です。これは大規模特徴量生成をSparkで行い、その後のMLライフサイクル管理をSageMaker側でやる、という分業に向いています。Amazon Web Services, Inc.

  • EMR Serverless:近年は“サーバレス版EMR”が提供されており、Sparkジョブを投げるだけで自動的に必要な計算リソースが立ち上がり・スケールし・終了します。クラスタ常駐管理が不要になり、アイドルコストを抑えられる、というのが狙いです。Amazon Web Services, Inc.+2AWS Documentation+2

    • ストリーミング(Spark Structured Streaming)もEMR Serverless上でスケールさせられるようになっていて、リアルタイム処理基盤としても使えます。Amazon Web Services, Inc.

    • Step Functionsなどとつなげて、バッチETLパイプラインや定期集計をワークフロー化することも一般的です。Amazon Web Services, Inc.

まとめると、EMRは「Sparkを含むビッグデータOSSスタックをほぼ素のまま使いたい」「チューニング自由度も欲しい」「でもインフラ管理は極力AWS側に任せたい」という場合の主力です。Amazon Web Services, Inc.+2AWS Documentation+2


3.2 AWS Glue

用途イメージ:サーバレスETL特化(データ整備・カタログ化)

  • AWS Glueはサーバレスのデータ統合/ETLサービスで、裏側の実行エンジンとして最適化済みのApache Sparkランタイムを採用しています。GlueのSparkランタイムはオープンソース版Sparkより高速化・コスト削減のためにAWS側でチューニングされています。AWS Documentation+2Amazon Web Services, Inc.+2

  • “ジョブ”単位でPySpark(またはSpark SQL変換スクリプト)を投げるだけで、Glueがインフラを自動で用意・スケール・終了します。管理するのはスクリプトとスケジュールだけです。AWS Documentation+1

  • Glueにはクローラとデータカタログがあり、S3等のデータソースを自動的にスキーマ推定してメタデータ管理できます。これは組織横断の“データレイクの目録(データカタログ)”として使われます。CloudThat+1

  • ストリーミングETLもサポートしており、Spark Structured StreamingベースでKinesis等のリアルタイムデータを取り込みつつクレンジング→S3/Redshiftに流し込むことができます。AWS Documentation+1

Glueは「分析用データをきれいに整備してRedshiftやデータレイクに流し込みたい」「とにかくサーバレスで、ETLパイプラインの管理コストを最小化したい」という場合に選ばれます。AWS Documentation+1


3.3 ストリーミング連携:Amazon Kinesis × Spark

用途イメージ:リアルタイムのイベント処理/監視/不正検知

  • Amazon Kinesis(Data Streamsなど)は、クリックログ・IoTセンサー・アプリイベントなどを高スループットで取り込み、ほぼリアルタイムで下流に流します。AWS Documentation+1

  • Spark Structured StreamingはKinesis Data Streamsのコネクタを通じて、専用スループット(Enhanced Fan-Out)で各シャードから2MB/秒レベルの読み取りが可能です。これにより、低レイテンシーでの集計・アラート・ダッシュボード更新・特徴量生成などができます。AWS Documentation+1

  • この構成は「リアルタイム売上監視」「決済不正検知」「パーソナライズ広告の即時更新」のような、秒〜分単位の応答が必要なケースでよく採用されます。AWS Documentation+1


3.4 SageMaker連携(学習・推論のMLOps化)

用途イメージ:Sparkで特徴量生成 → SageMakerでモデル運用

  • Spark(特にEMR上のSpark)は、巨大データから特徴量を生成・集計・前処理する部分に強い。Amazon Web Services, Inc.

  • その後、Amazon SageMakerに渡して分散学習・ハイパーパラメータ最適化・モデルデプロイ(エンドポイント化)まで持っていく、という分業パターンが一般的になっています。Amazon Web Services, Inc.


4. ざっくり使い分けイメージ

シナリオ向いているAWSサービス (Spark関連)ねらい
データレイクのバッチETL/日次集計AWS Glue(サーバレスSparkランタイム)最小運用コストでETLを回したい
ストリーミングETL/リアルタイム分析Spark Structured Streaming + Kinesis/EMR Serverless数秒〜数十秒で検知・集計したい
ビッグデータの自由度高い分析・ML基盤Amazon EMR / EMR Serverless(Sparkクラスター/ジョブ)OSSスタックをほぼそのまま使いたい
特徴量生成から学習・推論まで一気通貫なMLパイプラインEMR上のSpark + SageMaker大規模データで学習し、そのまま本番提供したい

(上記はそれぞれのサービス公式ドキュメント・活用事例に基づき要約しました。InfoQ+4Amazon Web Services, Inc.+4AWS Documentation+4


まとめ

  • Apache Sparkは「大量データをまとめて変換・学習・分析」「リアルタイムで流れてくるデータを即座に処理」の両方を1つのエンジンでこなせるのが強みです。Amazon Web Services, Inc.+2spark.apache.org+2

  • AWS側ではSparkをいちから自分でEC2に構築しなくても、

強化学習と進化計算は、ゴールそのものは共通している。

 強化学習と進化計算は、ゴールそのものは共通している。どちらも「試して結果を評価し、その結果を使ってもっと良い振る舞い・もっと良い解に近づく」という枠組みの中にある。したがって、目的レベルでは別世界の手法ではなく、同じ大きな学習ファミリーの中の別のやり方と位置づけられる。ただし、良くしていく手続きはかなり異なる。進化計算は多数の候補(個体)を同時に用意し、それぞれを実際に動かしてスコアを測り、スコアが高いものを「残す」ことで世代を進める。重要なのは、その個体がなぜ良かったのか、どの判断が効いたのかを細かく分析しなくても動く点である。良い個体を親として交叉や突然変異を行い、より良い設計図だけを次世代に渡す。つまり「どの個体が良いか」を決める仕組みである。一方、強化学習は基本的に一つのエージェントを育てる。エージェントは環境の中で行動し、その行動ごとに報酬を受け取り、経験をもとに自分の方策(状況に対してどの行動を選ぶか)を少しずつ書き換えていく。ここでは「どの行動がどの報酬に結びついたのか」を時間的にたどって割り当てること、いわゆる信用割当が核になる。これにより、同じエージェントが生きたまま上達していく。進化計算は幅広い探索に強く、強化学習は一つの方策をきめ細かく磨くのに強い。両者は対立関係ではなく、組み合わせることもできる。進化計算で良い方策候補を見つけ、強化学習でさらに洗練する、といった使い方が現実的に可能である。つまり、両者は「ねらいは似ているが、育て方と改善プロセスが違う手法」とまとめるのが正確である。


2025年10月25日土曜日

吉本隆明『最後の親鸞』に関する考察記事まとめ

 


以下に、『最後の親鸞』について思想的・哲学的な解釈や分析を行っている長文記事をまとめます。それぞれタイトル・リンク・著者・内容要約を示しました。

  • 第23回・飯田橋読書会の記録:『最後の親鸞』(吉本隆明)/『歎異抄』(親鸞)著:三津田治夫(本とITを研究する会ブログ)
    吉本隆明の評伝『最後の親鸞』と原典『歎異抄』を題材にした読書会の記録記事。参加者たちは、親鸞が「理解のジレンマ」を乗り越えて宗教を原点に立ち返らせ、人々に「信じ切ること」のフレームワーク(枠組み)を提示した点を議論していますtech-dialoge.hatenablog.comtech-dialoge.hatenablog.com。難解になり権力化した仏教教義を徹底的に解体し、誰もが理屈抜きで信に至る境地まで平易化した親鸞像を描き出し、宗教本来の役割を大衆の側に取り戻したという見解が示されています。吉本隆明が描く“最後の親鸞”の革新性を、現代の我々が初心を忘れることとの対比で語る内容です。

  • 『最後の親鸞』/吉本隆明(関内関外日記)著:goldhead
    個人ブログによる書評・思想考察記事。筆者は本書を夢中で読んだ体験を綴りつつ、吉本隆明が親鸞思想を推し進めた先にある逆説に迫っている点を評価しています。すなわち、「絶対他力」を極限まで追究すると、信も不信もない領域に至り、宗教や信仰そのものが解体されてしまうのではないかという問いに対し、『最後の親鸞』はまさにその点を論じた書であると述べられていますgoldhead.hatenablog.com。吉本は親鸞が<信>そのものを解体していく過程を描いており、その読み解きに筆者自身も大きな刺激を受けたと記しています。専門的知識がなくとも感じ取れる宗教思想の深奥に触れたエキサイティングな読書体験が語られています。

  • 書籍紹介:『最後の親鸞』著:池渕石材(奈良の石屋のブログ)
    石材店のブログながら内容は非常に踏み込んだ書評エッセイ。吉本隆明による親鸞論の核心を丁寧に紹介・分析しています。浄土真宗の要である他力本願について、「もし阿弥陀仏の他力が絶対ならば、念仏を称える行為すら僅かな自力ではないか」という疑問を起点に、他力の徹底が宗教不要の地点にまで至る逆説を指摘しますameblo.jp。吉本はまさにこの点に親鸞思想の神髄を見出し、親鸞が考えた「〈信〉」とは何かを緊張感をもって論じていると述べていますameblo.jp。易行(念仏称名)が実は至難の行であり、信なきところで易行を行う困難さを洞察した親鸞像を描いた吉本の議論は、正統教学からの異論はあれど思想的読みとして非常に面白い、と筆者は評価しています。宗教の極北において宗教を超えてしまうという逆説的テーマに強く刺激を受けたと結んでいます。

  • 絶対他力の向こう側に至った「最後の親鸞」——吉本隆明『最後の親鸞』を読む著:そんそん(note)
    オンラインプラットフォームnoteに掲載された長文の思想解説記事。吉本隆明の文章や『最後の親鸞』の内容を詳細に引きつつ、親鸞思想の構造を分析しています。親鸞が強調した〈契機〉(業縁)と〈不可避〉の論理を手がかりに、念仏=信心の解体に至る思考過程を追究しています。記事によれば、吉本は親鸞が「念仏すれば往生できる」という因果関係(自力による救済)さえ解体し、絶対他力をも相対化・越境した先に「最後の親鸞」の姿を見出したと述べますnote.com。それは、親鸞が自らの思想を極限まで推し進めた結果、〈信〉そのものを問い直し解体せざるを得なくなった境地であり、吉本はそれを「浄土教理の極北」と表現していると解説しています。スピノザの汎神論などとも比較しながら、親鸞思想の現代的意義を読み解く骨太な論考です。

  • akiさんとの対話「吉本隆明と親鸞さん。」著:eminus(ダウンワード・パラダイス:gooブログ)
    ブログ管理人と読者によるコメント対話形式で展開される哲学・思想談義の中の一篇。読者からの指摘を受けて、筆者は吉本隆明の親鸞解釈について自身の考えを述べています。吉本隆明が「親鸞は大衆のためにぎりぎりまで宗教を解体した」と述べている点に着目しblog.goo.ne.jp、信仰の側に立てない俗人である自分たち(=《非-信》の側)にとって、その言葉がいかに腑に落ちるかを語ります。つまり宗教を極限まで世俗化・解体した親鸞像を提示する吉本の語りによって、信仰を持たない者でも親鸞にリアリティを感じられるというのです。一方でそれは正統な信徒から見れば異端的解釈であり得ることも承知しつつ、信と不信の架橋という大きなテーマへのヒントとして吉本親鸞論を捉え直しています。対話形式ながら、信仰と思想の関わりをめぐる鋭い洞察が含まれた記事です。

  • 書評:『思想の危険について―吉本隆明のたどった軌跡』(田川建三 著) – 評者:橋爪大三郎(ALL REVIEWS掲載)
    社会学者・橋爪大三郎による書評記事で、田川建三『思想の危険について―吉本隆明のたどった軌跡』を論じています。この中で田川氏が指摘する吉本隆明の親鸞論への批判が紹介されています。田川氏は、吉本の『最後の親鸞』が「宗教者としての親鸞」の実像に基づかず、吉本自身の思想的境遇(知識人として大衆から乖離してしまった焦燥)を勝手に投影したものに過ぎない点が問題だと述べるallreviews.jpと橋爪氏はまとめます。すなわち、吉本は自らが大衆に“なりきれない”もどかしさを親鸞に仮託して論じており、そこに恣意があるという批判です。この書評では、吉本思想全体の転換点として『最後の親鸞』と『共同幻想論』が挙げられている点にも触れられ、吉本隆明の親鸞解釈が戦後思想史の中でどのように評価され得るかについて示唆を与えています。橋爪氏自身は田川氏の論には一部肯定しつつ概ね批判的ですが、吉本の親鸞論が論争的テーマであることがうかがえる内容になっています。

マイク・“マッドマン”・マーカムの人物背景と経歴

マイク・マーカム(通称「マッドマン・マーカム」)は、1990年代中頃に米ミズーリ州で自作タイムマシンの実験を行っていた若い自称発明家である。出身地はミズーリ州北西部(スタンベリーまたはキングス・シティ近郊)とされ、大学で電気工学を学ぶ学生だったと伝えられる。電子工学に長けた「エレクトロニクス技術者(tinkerer)」とも評され、高電圧装置の自作を趣味としていたnexusmagazine.com。詳細な学歴や出生年は不明だが、1995年当時に21歳前後であったとされる。地元の電力会社から盗んだ変圧器事件で逮捕・収監された経歴があり、これが後のタイムマシン実験につながったと報じられているen.wikipedia.org

実験内容とタイムマシンの概要

マーカムは自宅に設置した自作の「ジャコブズ・ラダー(高電圧コイル装置)」を基盤とし、そこに改造を加えてタイムマシンを試作していたとされるen.wikipedia.org。報道によれば、まず2本の極間に連続アークを発生させる放電装置(ジェイコブズ・ラダー)を製作し、CDレーザーで放電中の空気抵抗を下げる仕組みを導入した。また、実験を効率化するためフィラデルフィア実験のような回転磁場装置も取り入れたと伝えられているmedium.com。電力供給には地元の発電所から盗んだ大型変圧器(約300ポンド級のもの6基)を用い、装置の稼働に必要な高電流を確保しようとしたen.wikipedia.org。実験では、モルモット(実験用ネズミ)を含む約200点の物体をアーク内に投入して瞬間移動効果を確かめたという報告がありnexusmagazine.com、スクリュー(ねじ)など小さな物体の「消失再出現」現象も観測したとされる(これら詳細は都市伝説として語られている)。

ラジオ番組『Coast to Coast AM』等への出演歴と主張内容

マーカムは1995年4月頃、アート・ベル司会の深夜ラジオ番組『Coast to Coast AM』に電話出演し、前述のジャコブズ・ラダー装置によるタイムトラベル理論を披露したen.wikipedia.org。この際、自身が発電所から変圧器を盗んでいたことや、実験装置で地元の停電を引き起こしたエピソードも語っているen.wikipedia.org。翌1996年8月の再出演時には、より大型の「第2のタイムマシン」を構築中であることを報告し、その完成まで30日と宣言したen.wikipedia.org。2度目の出演では約200点の物品と小動物を装置に通した実験結果を主張し、自分自身も同装置で時空移動を試みる計画を明かしたen.wikipedia.org。放送中に自身の電話番号を公開したため全国から支援の申し出が殺到し、新たなアイデアや資金提供を受けたとも伝えられているmedium.com。なお、2023年現在までCoast to Coast AM出演時の公式アーカイブが確認できる。2015年9月にはベルの新番組『Midnight in the Desert』にも再登場し、装置によって未来へ2年移動してオハイオ州付近に到達したが記憶喪失状態になったと語ったen.wikipedia.org

消失・再出現に関する逸話と証言

2度目のラジオ出演後、マーカムは1997年頃から公の場に姿を現さなくなり、以後消息不明となっているen.wikipedia.org。彼自身の失踪届は出されておらず、ミズーリ州警察の記録にもマーカムの氏名での行方不明届けは確認されていないen.wikipedia.org。このため、身元不明の単なる都市伝説と見る向きもある。一方、2010年代に入って再び彼の話題がネット上で拡散され、2015年のインタビュー以降に何らかの目撃や「再出現」情報があったのではないかとの噂も飛び交った。例えば一部メディアでは、マーカムがハワイでホームレス生活を送りつつ実験資金を募るクラウドファンディングを行っていたと伝えられているmedium.com。しかし、これらの証言の裏付けは乏しく、いずれも公式には確認されていない。

英語圏でのメディア掲載・書籍例と要点

  • NEXUS Magazine 第18巻第5号(2011年):Jason Offutt執筆の記事『MIKE MARCUM’S TIME MACHINE EXPERIMENTS』では、マーカムがモルモットを使った実験を経て自らテレポート実験を試み、ミズーリ州からオハイオ州へ2年飛んだと主張した経緯が詳述されているnexusmagazine.com

  • FOX2 (セントルイス地元局) ニュース記事 (Liz Dowell, 2023年10月・12月):最新取材でマーカム事件を再検証し、彼の失踪の経緯やその後の話題化について報じた(記事内では公式記録上の行方不明届の未登録も指摘)。

  • Yahoo!ニュース (Liz Dowell, 2023年12月):FOX2記事の内容を一般ニュース向けに配信したもので、タイムマシン実験の主張やその後の消失・再出現説などを紹介している。

  • The New York Times Magazine「Epoch Journey」 (1996年12月8日付):マーカム当時21歳の男子の奇妙な話として取り上げ、タイムマシン実験の背景を紹介している(関連記事は紙面掲載)。

  • その他の取り上げ例:英国の月刊誌『Fortean Times』や各種都市伝説本では詳細は不明だが類似のタイムトラベル話の一例として言及例がある。また、アート・ベル公式サイトや『Coast to Coast AM』関連のアーカイブページにもゲスト紹介が残っている。

  • ポッドキャスト・ウェブ記事:近年では米国のオカルト系ポッドキャスト(例:Hysteria 51、Into The Dark 等)やネット記事で物語が語られ、YouTubeドキュメンタリーも制作された。

都市伝説としての扱われ方と信憑性の考察

マーカム事件は公式な裏付けが乏しく、ネット上では都市伝説・怪談的に語られることが多い。多くのメディアはその実話性に懐疑的で、報道機関の記事でも証拠不十分の点を指摘しているen.wikipedia.org。例えばFOX2の記事では警察記録に失踪届なしが強調され、実話説への疑念が示された。また、専門家や批評家の間では「ニュースに載るほどの大事件に比べ証言が断片的すぎる」「実験内容に科学的根拠がない」などの指摘もある。マーカム自身の主張も後年には「検証不可能になっている」と一部で報告されておりmedium.com、ミステリー性が先行した形跡が強い。以上より、本件は現在では「タイムトラベルの都市伝説」の典型例として扱われ、情報の信頼性には大きな疑問が残る。

参考資料: 上記内容はいずれも入手可能な情報源(ニュース記事、都市伝説記事、ネット掲示板、ラジオ放送の記録など)に基づいてまとめたen.wikipedia.orgmedium.comnexusmagazine.com

2025年10月19日日曜日

「トーナル」とは、音に引力関係を与える秩序のことで、クラシックではⅤ→Ⅰの進行がその中心をなす。

 「トーナル」とは、音に引力関係を与える秩序のことで、クラシックではⅤ→Ⅰの進行がその中心をなす。ジョージ・ラッセルはリディアン・クロマチック・コンセプトでこの重力の中心を再定義し、CメジャーではなくCリディアンを自然なトーナル・センターとした。すべての音が完全五度で積み上がる構造を「音響的安定」と捉えたためである。コルトレーンやマイルスらはこの理論を基に、固定的な中心を持たないモード・ジャズやポスト・トーナルな音世界へ発展させた。一方、セロニアス・モンクはトーナルを破壊するのではなく、あえて歪ませ再配置することで、重力の裏側に詩的構造を見出した。彼の不協和と間は、理論ではなく感覚による重力の再構築である。


ttention Is All You Need(2017) の執筆者 8 名について、「主な論文/現在の成果」を整理した表

 

名前 主な論文・研究 (リンク) 現在の成果・活動 補足
Ashish Vaswani “Attention Is All You Need” (2017) [PDF] → https://arxiv.org/abs/1706.03762 (arXiv) また、”Bottleneck Transformers for Visual Recognition” 等 (DeepAI) スタートアップ Essential AI の共同創業者兼 CEO に就任しているとの報道あり。 (Wikipedia) Transformer アーキテクチャを世に出した中心人物の一人。
Noam Shazeer “Attention Is All You Need” (2017) (arXiv) “Scaling to Trillion Parameter Models with Simple and Efficient Sparsity (Switch Transformer)” (2022) → https://jmlr.org/papers/v23/21-0998.html (jmlr.org) Google の “Gemini” プロジェクト技術統括リードに就任との報道あり。 (thesoftwarereport.com) Transformer の発祥アーキテクチャ設計に深く関与。
Niki Parmar “Attention Is All You Need” (2017) (arXiv) Google リサーチサイエンティスト/Essential AI の創業者の一人との報道あり。 (Communications Today) 研究から起業へ移行している人物。
Jakob Uszkoreit “Attention Is All You Need” (2017) (arXiv) バイオテック系スタートアップ等に関与しているという情報あり。 (USC Viterbi | School of Engineering) 研究基盤の翻訳/NLP背景を持つ。
Llion Jones “Attention Is All You Need” (2017) (arXiv) 東京拠点のスタートアップ CTO 等の立場という記述あり。 日本/アジア圏での活動も報じられている。
Aidan N. Gomez “Attention Is All You Need” (2017) (arXiv) スタートアップ Cohere の CEO として、生成AI/言語モデル提供に携わっているとの記事あり。 (The New Yorker) 起業家/研究者として転身している例。
Łukasz Kaiser “Attention Is All You Need” (2017) (arXiv) ほか “Fast Decoding in Sequence Models using Discrete Latent Variables” (2018) (arXiv) 研究/モデル設計寄りのポジションにあるという報道あり。 起業というより研究継続の傾向あり。
Illia Polosukhin “Attention Is All You Need” (2017) (arXiv) ブロックチェーン/Web3 プロジェクトなどの技術活動に関与の報道あり。 AIと別技術(分散型/プラットフォーム)との融合も視野に。