Generated with sparks and insights from 6 sources
Introduction
-
学習転移技術は、過去の学習過程を再利用することで、低コストで新たなモデルの学習結果を得ることができる。
-
この技術により、生成AIなどの大規模基盤モデルの運用コストや消費電力を削減できる。
-
学習転移技術は、ニューラルネットワークのパラメータ空間の高い対称性を活用している。
-
NTTの研究成果は、2024年5月に開催されるICLR 2024で発表される予定。
学習転移技術の概要 [1]
-
学習転移技術は、過去の学習過程を再利用する新たな仕組み。
-
ニューラルネットワークのパラメータ空間の高い対称性を活用。
-
低コストな変換により、数秒~数分で一定の精度を実現。
-
再学習コストを大幅に削減可能。
-
生成AIなどの大規模基盤モデルに適用可能。
基盤モデルの特徴 [2]
-
基盤モデルは、大量かつ多様なデータで訓練される。
-
多様な下流タスクに適応できる汎用性が高い。
-
ファインチューニングにより、特定のタスクに最適化可能。
-
従来のAIと異なり、汎用性と精度の両方を兼ね備える。
-
大規模言語モデル(LLM)は基盤モデルの一種。
NTTの研究成果 [1]
-
NTTは、学習転移技術を世界で初めて提唱および実証。
-
ニューラルネットワークのパラメータ空間の高い対称性を活用。
-
過去の学習過程を適切な置換対称性によって変換。
-
新たなモデルの学習過程として再利用可能。
-
ICLR 2024で発表予定。
生成AIの運用効率化 [3]
-
生成AIの運用容易化に貢献。
-
基盤モデルの定期的な更新に伴う再チューニングコストを削減。
-
消費電力の削減にも寄与。
-
多様な基盤モデルの運用コスト削減。
-
AIコンステレーションの構想具現化に貢献。
今後の展望
-
NTTの研究成果は、次世代のAI技術開発に貢献。
-
大規模言語モデル「tsuzumi」の運用コスト削減。
-
環境負荷軽減にも寄与。
-
AIコンステレーションの構想具現化。
-
ICLR 2024での発表を予定。
Related Videos
<br><br>
<div class="-md-ext-youtube-widget"> { "title": "Stable Diffusion\u3001\u751f\u6210AI\u3067\u30b2\u30fc\u30e0\u696d\u754c\u306f\u3069\u3046\u5909\u308f\u308b!?\u307e\u305a\u306f ...", "link": "https://www.youtube.com/watch?v=NImgD4hWyxA", "channel": { "name": ""}, "published_date": "Jul 30, 2023", "length": "" }</div>
<div class="-md-ext-youtube-widget"> { "title": "[Sakana AI\u6700\u65b0\u8ad6\u6587] AI\u304c\u79d1\u5b66\u8ad6\u6587\u3092\u81ea\u52d5\u751f\u6210\uff1f\u9a5a\u304d\u306e15\u30c9\u30eb\u3067 ...", "link": "https://www.youtube.com/watch?v=9Oa1ZY833jc", "channel": { "name": ""}, "published_date": "1 day ago", "length": "" }</div>