Pluralisは今週ICMLで主要なタックペーパーを発表し、チームはバンクーバーでいくつかのイベントを開催しています。中でも一番の見どころは、@gensynaiと@akashnet_と共同で開催するオープンソースミキサーで、木曜日の夜に行われます。分散型トレーニングに関心のある方にとっては、素晴らしい夜になるはずです。
https://t.co/7fR7PYGWeS
受理された論文(https://t.co/nRazOHBgKJ)のコードは完全にオープンです。このアプローチは多くの社内実験で役立つことがわかりました。他の人にも役立つと思います。https://t.co/X93ovivvEi
この研究は、パイプライン並列設定で完全非同期トレーニングを可能にする最初の方法であり、同期メソッドに匹敵する収束率(論文には準線形率の証明があります)を持ちながら、デバイス上のアイドル時間を排除します。これは、トレーニングが高速になることを意味します。通信速度が遅いためアイドル時間が増幅される分散型ケースでは、大きな効果があります。
また、Protocol Models論文のライブ実行が間もなく開始されることをお知らせします。今回の実行では、対応できるよりもはるかに多くの関心が寄せられていますが、登録情報の完全性に基づいて参加者を優先します(登録フォームについては、固定されたツイートを参照してください)。