雲雀 路朗
hibar****@nttco*****
2011年 10月 18日 (火) 19:26:17 JST
酒井様 雲雀です。 問題が解決したとのご連絡、ありがとうございます。 session_thread_pool_size の設定を変更した場合、設定の反映には l7vsdプロセスの再起動が必要となります。 heartbeatの再起動を行った場合、l7vsdも再起動することになりますので、 設定の反映が行われるはずなのですが・・・ session_thread_pool_size の設定変更および、heartbeatの再起動は、 両系ともに行っていましたでしょうか? #もし、お試しで現用系のみsession_thread_pool_sizeを変更していた とすると、次の動きになるので、説明がつくかな〜と思ったり。 1.現用系のみ設定を反映 2.heartbeatを再起動 3.フェールオーバする 4.session_thread_pool_sizeを変更してない予備系がACTになる 5.予備系はまだsession_thread_pool_size=32のまま (2011/10/18 19:02), 酒井 聡司 wrote: > 雲雀様 > > 酒井です。返信ありがとうございます。 > 色々試していたところ改善しました。 > > session_thread_pool_size の設定ですが、 > 最初は変更後heartbeatの再起動を行っていました。 > heartbeatの再起動では、ActiveConn最大32は変わらなかったのですが、 > 設定変更後のOS再起動で32を超えて想定した数値に変わることがわかりました。 > > l7vs.cfの変更で、heartbeatの再起動で反映されるものと思っていたのですが、 > これは仕様なのでしょうか?それとも個別環境の問題でしょうか? > > > On Tue, 18 Oct 2011 12:53:15 +0900 > 雲雀 路朗<hibar****@nttco*****> wrote: > >> 酒井様 >> >> 雲雀です。お世話になっております。 >> >> l7vsdが起動しているスレッド数を確認するため、 >> l7vsdを起動し、VirtualServiceを追加した状態で、以下 >> のコマンドの実行結果を確認していただけますでしょうか? >> # ps -AL | grep l7vsd | wc -l >> >> あと、差し支えなければ >> # ulimit -a >> の実行結果も教えていただければと思います。 >> >> >> (2011/10/17 17:38), 酒井 聡司 wrote: >>> 雲雀様 >>> >>> 酒井です。返信ありがとうございます。 >>> 以下の設定に変更しましたが、依然としてActiveConnは最大32のままです。 >>> -------------------------------------- >>> maxconn = 1024 >>> >>> session_thread_pool_size = 2048 >>> -------------------------------------- >>> >>> ApacheBench ⇒ UltraMonkey ⇒ Webserver >>> の構成を >>> ApacheBench ⇒ LVS(Ultramonkeyとは違うサーバ) ⇒ Webserver >>> で検証した所、ActiveConnはApacheBenchで設定した100を示しました。 >>> ApacheBenchとWebserverに問題はなさそうです。 >>> >>> 他の方の環境で出ないのであれば個別の問題になってしまうのですが、 >>> 現状解決策が見出せていません。 >>> >>> 他に見るところはありますか? >>> >>> >>> On Fri, 14 Oct 2011 12:04:50 +0900 >>> 雲雀 路朗<hibar****@nttco*****> wrote: >>> >>>> 酒井様 >>>> >>>> 雲雀です。 >>>> >>>> maxconn< session_thread_pool_size となるように >>>> 設定する必要があります。 >>>> maxconnを1000に設定したい場合はsession_thread_pool_sizeは >>>> 1000以上とすることで、期待する動作になるかと思います。 >>>> >>>> じゃあ、maxconnで上限設定しないで、最初からsession_thread_pool_size >>>> だけ設定すればOKなのでは?と感じるかもしれませんので、以下、細かい話 >>>> ですが、参考までに。 >>>> >>>> session_thread_pool_sizeは通信処理を行うスレッド数の >>>> 設定値となります。 >>>> >>>> スレッドの動作はざっくり、以下の動作になります。 >>>> 1. スレッドを起動する >>>> 2.クライアントからの接続受付 >>>> 3.振り分け先のリアルサーバを選択 >>>> 4. リアルサーバに接続 >>>> 5.クライアント・リアルサーバ間の通信処理 >>>> 6.クライアント・リアルサーバとの通信終了 >>>> 7.スレッドを待機状態にする >>>> >>>> 上記処理の中で、"4〜6の処理を行っているスレッド数=ActiveConn" >>>> です。 >>>> >>>> 通信処理以外の1〜3、7の処理も並列で実行しているほうがパフォーマンス >>>> がよくなると思いますので、maxconnより少し多めの値を >>>> session_thread_pool_sizeに設定しておくことをお勧めします。 >>>> >>>> あと、複数のVirtualServiceを登録する際に、session_thread_pool_sizeは >>>> すべてのVirtualServiceで同じ値になります。 >>>> VirtualServiceごとに異なる最大同時接続数を設けたい場合はmaxconnオプショ >>>> ンを設定するのが便利です。 >>>> >>>> >>>> >>>> (2011/10/14 11:20), 酒井 聡司 wrote: >>>>> こんにちは。酒井と申します。 >>>>> Ultramonkey-L7に対して、負荷試験を実施しています。 >>>>> 同時接続数を50で実施しl7vsadmで確認すると >>>>> ActiveConnの合計が最大32までになってしまいます。 >>>>> >>>>> 同時接続数を100,200にしても結果は同じです。 >>>>> 以下2点を変更して試してみましたが、接続合計数32のままでした。 >>>>> >>>>> --- l7directord.cf --- >>>>> virtual = 以下の箇所 >>>>> maxconn = 1000 ←0,1000に変更 >>>>> >>>>> --- l7vs.cf --- >>>>> session_thread_pool_size = 32 ←1〜256まで変更 >>>>> >>>>> この他に関わる設定箇所はありますか? >>>>> >>>>> 負荷ツールはJmeterとApache Benchで検証しています。 >>>>> Ultramonkey-l7は3.0.1、CentOS5.5を使用しています。 >>>>> >>>>> よろしくお願いいたします。 >>>>> >>>>> _______________________________________________ >>>>> Ultramonkey-l7-users mailing list >>>>> Ultra****@lists***** >>>>> http://lists.sourceforge.jp/mailman/listinfo/ultramonkey-l7-users >>>>> >>>>> >>>> >>>> >>>> -- >>>> ============================================== >>>> NTTコムウェア株式会社 >>>> 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 >>>> 雲雀 路朗(ひばり みちろう) >>>> E-Mail:hibar****@nttco***** >>>> TEL:043-211-2452 >>>> ============================================== >>>> >>> >>> >>> >>> >>> >> >> >> -- >> ============================================== >> NTTコムウェア株式会社 >> 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 >> 雲雀 路朗(ひばり みちろう) >> E-Mail:hibar****@nttco***** >> TEL:043-211-2452 >> ============================================== >> > > > > -- ============================================== NTTコムウェア株式会社 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 雲雀 路朗(ひばり みちろう) E-Mail:hibar****@nttco***** TEL:043-211-2452 ==============================================