2025年10月19日日曜日

ttention Is All You Need(2017) の執筆者 8 名について、「主な論文/現在の成果」を整理した表

 

名前 主な論文・研究 (リンク) 現在の成果・活動 補足
Ashish Vaswani “Attention Is All You Need” (2017) [PDF] → https://arxiv.org/abs/1706.03762 (arXiv) また、”Bottleneck Transformers for Visual Recognition” 等 (DeepAI) スタートアップ Essential AI の共同創業者兼 CEO に就任しているとの報道あり。 (Wikipedia) Transformer アーキテクチャを世に出した中心人物の一人。
Noam Shazeer “Attention Is All You Need” (2017) (arXiv) “Scaling to Trillion Parameter Models with Simple and Efficient Sparsity (Switch Transformer)” (2022) → https://jmlr.org/papers/v23/21-0998.html (jmlr.org) Google の “Gemini” プロジェクト技術統括リードに就任との報道あり。 (thesoftwarereport.com) Transformer の発祥アーキテクチャ設計に深く関与。
Niki Parmar “Attention Is All You Need” (2017) (arXiv) Google リサーチサイエンティスト/Essential AI の創業者の一人との報道あり。 (Communications Today) 研究から起業へ移行している人物。
Jakob Uszkoreit “Attention Is All You Need” (2017) (arXiv) バイオテック系スタートアップ等に関与しているという情報あり。 (USC Viterbi | School of Engineering) 研究基盤の翻訳/NLP背景を持つ。
Llion Jones “Attention Is All You Need” (2017) (arXiv) 東京拠点のスタートアップ CTO 等の立場という記述あり。 日本/アジア圏での活動も報じられている。
Aidan N. Gomez “Attention Is All You Need” (2017) (arXiv) スタートアップ Cohere の CEO として、生成AI/言語モデル提供に携わっているとの記事あり。 (The New Yorker) 起業家/研究者として転身している例。
Łukasz Kaiser “Attention Is All You Need” (2017) (arXiv) ほか “Fast Decoding in Sequence Models using Discrete Latent Variables” (2018) (arXiv) 研究/モデル設計寄りのポジションにあるという報道あり。 起業というより研究継続の傾向あり。
Illia Polosukhin “Attention Is All You Need” (2017) (arXiv) ブロックチェーン/Web3 プロジェクトなどの技術活動に関与の報道あり。 AIと別技術(分散型/プラットフォーム)との融合も視野に。