From mboxrd@z Thu Jan 1 00:00:00 1970 Return-Path: X-Spam-Checker-Version: SpamAssassin 3.2.5 (2008-06-10) on sa.int.altlinux.org X-Spam-Level: X-Spam-Status: No, score=-2.6 required=5.0 tests=BAYES_00 autolearn=ham version=3.2.5 Date: Wed, 6 Jun 2012 21:40:34 +0300 From: "Kirill A. Shutemov" To: ALT Devel discussion list Message-ID: <20120606184034.GA19121@shutemov.name> References: <201206050135.36582.ledest@gmail.com> <20120604211117.GA10184@altlinux.org> <20120604223046.GA10007@shutemov.name> <20120605002047.GA11877@altlinux.org> <20120605060622.GA11312@shutemov.name> <20120605090827.GB16122@altlinux.org> <20120605123719.GA12996@shutemov.name> <20120605124603.GA19483@altlinux.org> <20120605131035.GA13142@shutemov.name> <20120606013127.GA29780@altlinux.org> MIME-Version: 1.0 Content-Type: text/plain; charset=utf-8 Content-Disposition: inline Content-Transfer-Encoding: 8bit In-Reply-To: <20120606013127.GA29780@altlinux.org> User-Agent: Mutt/1.5.21 (2010-09-15) Subject: Re: [devel] [partially solved] Q: exit_group slowness X-BeenThere: devel@lists.altlinux.org X-Mailman-Version: 2.1.12 Precedence: list Reply-To: ALT Linux Team development discussions List-Id: ALT Linux Team development discussions List-Unsubscribe: , List-Archive: List-Post: List-Help: List-Subscribe: , X-List-Received-Date: Wed, 06 Jun 2012 18:39:04 -0000 Archived-At: List-Archive: List-Post: On Wed, Jun 06, 2012 at 05:31:27AM +0400, Dmitry V. Levin wrote: > On Tue, Jun 05, 2012 at 04:10:35PM +0300, Kirill A. Shutemov wrote: > > On Tue, Jun 05, 2012 at 04:46:03PM +0400, Dmitry V. Levin wrote: > > > On Tue, Jun 05, 2012 at 03:37:19PM +0300, Kirill A. Shutemov wrote: > > > > On Tue, Jun 05, 2012 at 01:08:28PM +0400, Dmitry V. Levin wrote: > > > > > On Tue, Jun 05, 2012 at 09:06:22AM +0300, Kirill A. Shutemov wrote: > > > > > > Похоже вот на это: > > > > > > > > > > > > http://lkml.org/lkml/2012/6/3/34 > > > > > > > > > > > > Ниже по трэду Пол предлагает возможное решение. > > > > > > > > > > Спасибо, откат на 3.2.14-std-def-alt1 радикально улучшил картинку: > > > > > # env -i strace -r -eprocess /usr/bin/unshare -i /bin/true > > > > > 0.000000 execve("/usr/bin/unshare", ["/usr/bin/unshare", "-i", "/bin/true"], [/* 0 vars */]) = 0 > > > > > 0.001357 arch_prctl(ARCH_SET_FS, 0x7f49add73700) = 0 > > > > > 0.000457 unshare(CLONE_NEWIPC) = 0 > > > > > 0.000200 execve("/bin/true", ["/bin/true"], [/* 0 vars */]) = 0 > > > > > 0.000350 exit_group(0) = ? > > > > > 0.156461 +++ exited with 0 +++ > > > > > > > > > > Хотя до идеала еще далеко: > > > > > # env -i strace -r /bin/true > > > > > 0.000000 execve("/bin/true", ["/bin/true"], [/* 0 vars */]) = 0 > > > > > 0.000628 exit_group(0) = ? > > > > > 0.000329 +++ exited with 0 +++ > > > > > > > > exit_group() дорогой только для последнего процесса в namespace, так? > > > > > > Да, конечно. > > > > > > > Думаю, это цена которую можно заплатить. > > > > > > 0.15 секунды это очень долго, то же самое ядро на более простых серверах > > > завершает последний процесс в namespace на 1-2 порядка быстрее. Так что > > > вопрос, что не так и как с этим бороться, пока остается. > > > > RCU_FAST_NO_HZ не предназначена для больших машин. О чём в явном виде > > написано в описании опции. Так что CONFIG_RCU_FAST_NO_HZ=y было ошибкой > > для дистрибутивного ядра. > > > > Когда моя большая машинка (40 ядер + ht) освободится я попробую > > поэксперементировать с этим немного. Есть подозрение, что отмонирование > > файловой системы (внутриядерной, в случае CLONE_NEWIPC) плохо > > масштабируется на большое количество процессоров даже без RCU_FAST_NO_HZ. > > Для справки: на той же машинке (где "rpm --eval %__nprocs" показывает 32) с > 3.3.8-std-def-alt1 (с отключенным CONFIG_RCU_FAST_NO_HZ) время завершения > "unshare -i /bin/true" уменьшилось примерно в полтора раза по сравнению с > 3.2.14-std-def-alt1 (с 0.15 до 0.10 секунды). Похоже виноват rcu_barrier() в deactivate_locked_super(). В моём случае (ядро v3.4) exit_group() выполняется за 0.07538 из них 0.05188 в rcu_barrier(). Цифры могут несколько разнится от запуска к запуску, но в целом как-то так. Это должно было наблюдаться с ядра v2.6.38. См. коммит "d863b50 vfs: call rcu_barrier after ->kill_sb()". Простого решения я не вижу. Наверно, можно сделать инитиализацию namespace'а ленивой. В этом use-case'е долно помочь. Если когда-нибудь будет время может посмотрю. Или напиши ребятам из Parallels, может они что предложат. -- Kirill A. Shutemov