Pluralis tiene un artículo principal en ICML esta semana y el equipo está en Vancouver organizando varios eventos. El mejor será el Open Source Mixer que estamos organizando con @gensynai y @akashnet_ el jueves por la noche. Para cualquiera interesado en el entrenamiento descentralizado, debería ser una gran noche.
https://t.co/7fR7PYGWeS
Nuestro artículo aceptado (https://t.co/nRazOHBgKJ) tiene el código completamente abierto; hemos encontrado este enfoque útil en muchos de nuestros experimentos internos y creemos que será útil para otros. https://t.co/X93ovivvEi
El trabajo es el primer método que permite el entrenamiento totalmente asíncrono en el entorno de Pipeline Parallel con tasas de convergencia comparables a los métodos síncronos (hay una prueba de una tasa sublineal en el artículo), al tiempo que elimina cualquier tiempo de inactividad en los dispositivos. Esto significa que el entrenamiento es más rápido. Tiene un gran efecto en el caso descentralizado, donde los tiempos de inactividad se amplifican debido a las lentas velocidades de comunicación.
También un recordatorio de que la ejecución en vivo del artículo Protocol Models comenzará pronto; tenemos mucho más interés del que podemos acomodar en esta primera ejecución, sin embargo, priorizaremos a los participantes en función de la integridad de la información registrada (consulte el tweet fijado para el formulario de registro).