“大規模AIモデル、逆スケーリング現象で性能低下 – 研究者、原因特定と対策開発に挑む”

[更新]2023年12月20日01:29

from Bigger, Not Necessarily Better.

人工知能において、一般的には大きい方が良いとされていますが、研究者たちは逆の結果が出ることもあることに気付いています。大規模な言語モデル(LLM)は、訓練コンピュート、訓練データの量、重みや変数の数などの観点で大きくなると、一般により洗練された回答を生成することができます。しかし、逆スケーリングと呼ばれる現象もあり、LLMが大きくなるにつれて特定のタスクをうまくこなせなくなることがわかっています。この現象を理解し、対策を開発することが重要であり、研究者たちは逆スケーリングの原因を特定しようとしています。また、逆スケーリングのコンテストを通じて、大規模な言語モデルが特定のタスクにおいて性能が悪化することが明らかになり、その原因を特定することができました。さらに、言語モデルが特定の単語の意味を考慮しないことが示され、大規模なモデルがなるほど性能が悪化することも明らかになりました。これらの研究結果から、大規模な言語モデルが一般的に期待されるタスクに対して、その出力を即座に信頼することはできない可能性があることが示唆されています。


読み込み中…
読み込み中…
advertisements
読み込み中…