名前 | 主な論文・研究 (リンク) | 現在の成果・活動 | 補足 |
---|---|---|---|
Ashish Vaswani | “Attention Is All You Need” (2017) [PDF] → https://arxiv.org/abs/1706.03762 (arXiv) また、”Bottleneck Transformers for Visual Recognition” 等 (DeepAI) | スタートアップ Essential AI の共同創業者兼 CEO に就任しているとの報道あり。 (Wikipedia) | Transformer アーキテクチャを世に出した中心人物の一人。 |
Noam Shazeer | “Attention Is All You Need” (2017) (arXiv) “Scaling to Trillion Parameter Models with Simple and Efficient Sparsity (Switch Transformer)” (2022) → https://jmlr.org/papers/v23/21-0998.html (jmlr.org) | Google の “Gemini” プロジェクト技術統括リードに就任との報道あり。 (thesoftwarereport.com) | Transformer の発祥アーキテクチャ設計に深く関与。 |
Niki Parmar | “Attention Is All You Need” (2017) (arXiv) | Google リサーチサイエンティスト/Essential AI の創業者の一人との報道あり。 (Communications Today) | 研究から起業へ移行している人物。 |
Jakob Uszkoreit | “Attention Is All You Need” (2017) (arXiv) | バイオテック系スタートアップ等に関与しているという情報あり。 (USC Viterbi | School of Engineering) | 研究基盤の翻訳/NLP背景を持つ。 |
Llion Jones | “Attention Is All You Need” (2017) (arXiv) | 東京拠点のスタートアップ CTO 等の立場という記述あり。 | 日本/アジア圏での活動も報じられている。 |
Aidan N. Gomez | “Attention Is All You Need” (2017) (arXiv) | スタートアップ Cohere の CEO として、生成AI/言語モデル提供に携わっているとの記事あり。 (The New Yorker) | 起業家/研究者として転身している例。 |
Łukasz Kaiser | “Attention Is All You Need” (2017) (arXiv) ほか “Fast Decoding in Sequence Models using Discrete Latent Variables” (2018) (arXiv) | 研究/モデル設計寄りのポジションにあるという報道あり。 | 起業というより研究継続の傾向あり。 |
Illia Polosukhin | “Attention Is All You Need” (2017) (arXiv) | ブロックチェーン/Web3 プロジェクトなどの技術活動に関与の報道あり。 | AIと別技術(分散型/プラットフォーム)との融合も視野に。 |