◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2->画像>11枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/operate/1088657713/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
日増しに増加する携帯からのアクセス。
かつて、羨ブラが生まれたように何かが生まれないと
ならない気がする。
たぶん解決策は、時間を売って空間を買うだと思うけど
いろいろ考察して、次の一手を決めようかと、
Love Affair 作戦。
Part2 大黒埠頭
前スレ
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part1
http://qb5.2ch.net/test/read.cgi/operate/1075887465/ ●はPCと共通で構わないのでは? 携帯上で購入可にするのは難しいのでしょうかねやはり
http://qb5.2ch.net/test/read.cgi/sec2chd/1079334987/597 597 :だいこん ★ :04/07/01 15:36 ID:???
毎日五個くらい携帯規制リストに追加している気がする。。。
リストが大きくなると、bbs.cgi が遅くなるというか負荷が上がるというか
処理が重くなるというか、、、
>>9 携帯用判定文字列ってどんなかんじなんでしたっけ。
DNSにうまく載せられるのかしら。
私はパソコンがないので携帯から2ちゃんを閲覧しています。 携帯から閲覧できる機能は、とてもありがたいのですが、 そのせいで2ちゃんねるに負担をかけたり、以前のような閉鎖危機に陥ったりするのは嫌です。 サーバーの負担になるのであれば、携帯からの閲覧機能は無くてもいいです。 悲しいけど、2ちゃんねるが無くなるのはもっと悲しい。
>>11 俺はPCオンリーのユーザーだが君みたいな人にはなんとかしてあげたい
>>10 http://qb5.2ch.net/test/read.cgi/sec2chd/1079334987/ 辺りを見ると、 au ¥d{14}_[a-z]{2}.ezweb.ne.jp docomo [A-Z]{5}¥d{6} 又は ¥d{15} のようですねー。 vodaはよく分からなかったんですが、 http://specters.net/cgipon/labo/c_env.cgi?c=j&e=HTTP_USER_AGENT とか見ると voda {A-Z]+¥d+ でいいのかな。 auの "_" 以外は大丈夫そうですねー 規制するのは端末固有情報だから、bbs.cgi叩きにいくときしか出さないはず。
そうだ。せっかく占有のスイッチでつながってるんだから、 datディレクトリをNFSするというのはどうだろ。 あとで、やってみよう。
use Digest::md5; : : sub Get_Mobile_ID($) { my $Mobile_ID = Digest::md5->new; $Mobile_ID->add(shift); return $Mobile_ID->base64digest; } : : DispError('ERROR!', '寄生虫') if join( '.', unpack 'C4', sprintf qq|%s.bbm.2ch.net|, Get_Mobile_ID($ENV{HTTP_USER_AGENT})) =~ /^127.0.0/ ; UA をそのまま MD5 にして bbm(仮名) 送りはちょと強引かな?(^-^;)
確かにNFSにするのが一番簡単ですね。 それならばクラシック側は変更もいらないですね。
>>16 datの下だけNFSにすると「キャッシュが作成できません」と言われるなぁ。
たぶん、何か呪文が必要なのかも。
これ以上は中の人に聞かないと。
>>18 単に、datの下をNFSに(動かしながら)するんじゃだめなんでしたっけ。
何か設定が必要なんだっけか。
うーむ、NFSじゃなければいきなりmvしてもいけるみたい。 だとすると私の設定の問題か。
>>21 は勘違いでした。どうもいきなりmvするんじゃだめかも。
結局
>>19 か。
パーミッションはどうなっていますか? 777ならキャッシュ作れると思うんだけどな〜
出来れば「目的」を書いてから「手段」(たとえば
>>21 )を書いていただけると
とてもありがたいです、
なにをしたいんだろう
そしてそれは何が目的なんだろう
結果どうなったんだろう
マーリンルージュ作戦の目的をおさらいしよう。 携帯からのアクセスは速度が非常に遅い等の特徴があり 2ちゃんねるのサーバ全体のお荷物となっている。 受付嬢を置く等でそれが原因となる負荷 速度が遅いのを2ちゃんねるの各サーバへ 直接影響を及ぼさないようにダム(バッファー)になって 動作する、またディレイ値を設けることで全体の負荷もさげようです。 つまり 1) ダム(バッファー)になり通信速度の遅さを吸収し、全サーバを助ける。 2) ディレイ値を設けて、全体のアクセスを減らし、全サーバを助ける。 3) フロントのマシンは DSIK IO をしないで、通信に専念 4) BlackGoat はdatのキャッシング(遅延値=可変)に専念 5) どんなにアクセスが来ても二ヶ月はリブートなしで動くように、 大黒埠頭は BBM等の各種一元管理+四台目以降の増設方法(テクニカル、ポリティカル、エコノミカル)です
>>24 今回の目的は、前スレにもありますが、
・PHPによる各種処理
・datキャッシュへのディスクI/O
を、分割するためのものです。
今回のNFS化がうまく動けば、現在のクラシックメニューのプログラムを変更せずに、
ディスクI/Oだけをバックエンド(BlackGoat)に持っていけることになります。
BBM(仮称)はBBQ同様、banana238かoyster243かな。
管理する必要があるデータの大きさで決まると思います。
小さければbanana238、大きければoyster243。
というわけで、目的 (
>>25 ) の 3) と 4) を実現しようというのが、
今回の眼目になりますね。
5)は「重くても重いなりに動く」という、現在の路線(LA=100でも一応動きはする)
という方向で、チューニングをすることになるかと。
現在行っていることは、以下の事だと思っています right ? 1) フロント三台に携帯からのアクセスを有る程度集めた 2) c-docomo 等が重い状況になっている 3) c-docomo のディスクi/oが処理に追いついていない 4) 当初の目論見どおり BlackGoat を導入して Disk i/o は分離 現在ここ 5) c-docomo の負荷が劇的にさがる ← 期待されること(達成すべきこと)
>>28 3)までは概ねcorrect.
現在4)の方法を模索している状態。
昨夜やってみたことの簡単なまとめ: ・BlackGoatでフロントエンドと同じ構成のクラシックメニューを動かした ・三人娘ではpoundというプログラムを動かし、単純にBlackGoatにリクエストを 転送するようにした ・その結果、BlackGoatにディスクI/Oを集めることが出来たが、 同時にPHPでの処理もBlackGoatに移ったため、BlackGoatが劇重になった その結果わかったこと ・対携帯のネットワーク処理だけを別マシンに移す方式ではだめだった
>>32 むむむさん、それって、失敗の巻きって事ですね。
>>32 うん。ということで
>>26 なわけだ。
NFSでうまくいかなかったのは、statd/lockdを上げていなかったからだとわかりました。 (NFS設定するのなんて昔のSun以来だから、すっかり忘れていた) で、正しく設定しても、どうもFreeBSDではうまく動かないみたい。 BlackGoat側のrpc.lockdがすごい勢いでCPUを食い、クライアント側(httpd)はハングアップ。 いろいろ調べてみると、どうもFreeBSDのNFS経由でのflockは、かなりいいかげんらしいと。 ということで、NFS路線はどうもやめたほうがいいみたい。 やっぱり、三人娘のクラシックをクラシック改にする必要がありそう。
>>37 了解です。
では、blackgoatではProxyモードでApacheを上げておきます。
使い方等は別途。
了解です。 キャッシュのdelayは黒山羊さんが握るんだよね。
>>39 squidのdelay poolsを使えばいいかな。
Apacheのmod_proxyではできるんだっけ。
>>40 あ、時間って指定できないかも。< squid
ありものでできるか別途調べた上で、なければ何か考えないといかんかな。
あらまほしい動作は、datが更新されていた場合でも
120秒は読み込まない、ということですよね。
そうですね。 ちゃんとやるには差分とDelayを黒山羊さんに実装しないといけませんね。
質問です(^_^;) 1 今回の失敗の巻は ・BGにクラシックメニューを設置 ・受付嬢をリバースプロキシに変更 だったのかな? 2 リバースプロキシはBGからのパケットをバッファして送出してたのかな? つまり、BG側の送出をいかにすばやく完了させて、BGの処理を開放してあげるかが肝だと思うんだけど そういう仕様になってたのかって話です(^_^;)
>>43 1 Yes. (私としては正直「予想通りの失敗」です)
2 なかなかBGから携帯側に送り返すべき結果が来ない状態でした。
つまり、三人娘はすかすかで、BG側が過負荷でパンク。
ということで、BG=>三人娘の送出が詰まっていたわけではなく、
BG側の処理が詰まっている状態と。
>44 えーっと(^_^;)どういう状態だったかってのは結果なので、それはそれでいいんですが 問題は >BG側の送出をいかにすばやく完了させて、BGの処理を開放してあげるかが肝だと思うんだけど >そういう仕様になってたのかって話です(^_^;) これなんですよ。もし、そういう仕様になってなかったら、BGが重くなるのは当然だと思えるので(^_^;)
クラシックメニューのPHPでの処理は、それなりにコスト高いです。 これと純粋なディスクI/O処理を分離したいというのが、今模索している方向かなと。
>>45 リバースプロキシはpoundをとりあえずほぼデフォルトで使いました。
この場合どうなるのかな。
>47 そこを検証しないと、結果だけ見て動いても問題は解決に近づかないと思われ(^_^;) 携帯側の低速なネットワークに対してバッファするのがフロントエンド データをキャッシュすることで、フロントエンドのI/Oの負荷を下げ かつ2ch側の負荷を携帯システムから分離するのがバックエンド という役割分担をしたいわけなんだけど もし、フロントエンドがパケット単位で受け取り>送出(つまりストリーミングな処理)をしていたら 今までフロントエンドが単独で処理してたより、状況が悪くなりですよ。 1 フロント、バックに分けたことによるオーバーヘッド 2 フロント3台の処理を、バック1台にまとめたことによる負荷 3 ボトルネックとなったバックエンドからの低速なアクセスによる2ch全体の負荷
少なくともフロントエンドは、携帯に送出する速度に関わらず バックエンドから一気にデータを受け取ってしまわないと 携帯への送出速度に同期してバックエンドからデータを受け取ってしまうと バックエンドが破綻するのはあたりまえといえばあたりまえの結果かと思います(^_^;)
>49 あ(^_^;)おいらの認識が間違ってるってのは普通のことです なので「質問」なのですよ。
これから負荷が重くなる時間なので、バックエンドにクラシックメニューにして、 プロキシのチューニングをまずやってみるのが先決かな?
理想を言えば バックエンドはデータのキャッシュ、差分取得、必要分の送出の3つだけを黙々とこなして フロントエンドは、データ送出バッファとread.cgi(およびその付加機能)を担当できればいいんだけどね・・・・(^_^;) バックエンドにユーザーインターフェースとかが入ってくるのは 負荷集中を生み出すだけだと思われ。
>>50 だあね。そのやり方だと結局今までと変わらないし。 フロント⇔バック間の処理は携帯の速度と非同期で 動かないと成功しないでしょう。 携帯 → フロント バック リクエスト (PORT閉) 携帯 − フロント → バック TIME_WAIT リクエスト 携帯 − フロント ← バック TIME_WAIT DAT転送 携帯 − フロント バック TIMEWAIT PHP処理 (PORT閉) 携帯 ← フロント バック cHTML転送 (PORT閉) 携帯 フロント バック (PORT閉) (PORT閉) >>53 そうですね。というか当初からそれしかないと思われ。
>55 ですよね(^_^;) で、リバースプロキシはそういう動作をするものなんでしょうか? ↑実はどういうものか全然わかってなかったりする(^_^;)
>>54 昨日やったのはこれですね。★のところが重いわけです。 ちなみに現在の各フロントエンドので発生しているディスク書き込み量は、 ピーク時のgame6の倍以上、負荷がやや高い時のlive8ぐらいあります。 http://mumumu.mu/mrtg/mrtg-rrd.cgi/io/ 携帯 → フロント バック リクエスト (PORT閉) 携帯 − フロント → バック TIME_WAIT リクエスト 携帯 − フロント ← バック TIME_WAIT ★必要に応じdatを取得・datを保存・PHP処理・結果転送 携帯 − フロント バック TIMEWAIT そのまま転送 (PORT閉) 携帯 ← フロント バック cHTML転送 (PORT閉) 携帯 フロント バック (PORT閉) (PORT閉) >>56 そういう動作はしませんです。
今回の実験は、前スレのこれ↓を受けた試験だったということで。
960 名前: ◆BFzK/mtqM2 [sage] 投稿日:04/06/30 18:23 ID:vQ7rJwVR
クラシック本体をバックエンドに持ってきて、フロントを介して携帯とやりとりするのかな?
961 名前:root ★[sage] 投稿日:04/06/30 20:22 ID:???
>>960 はい、最初(Tigerサーバ/w SCSI stripeが入る前提だったころ)は、それも考えていました。
で、各フロントエンドは、リバースプロキシをすると。
しかし、今回入るバックエンドはbananaサーバです。
ということで、PHPをバックエンドではあんまり動かしたくないかもなぁと。
ただ、どっちの方式がいいかは、やってみないとわからないところがあります。
1)方式1
・フロントエンドはクラシック(改)
・バックエンドはApacheのプロキシ+キャッシュ
2)方式2
・フロントエンドはApacheのリバースプロキシ
・バックエンドはクラシック
962 名前: ◆BFzK/mtqM2 [sage] 投稿日:04/06/30 20:33 ID:vQ7rJwVR
まずは、負荷かかるかもしれないが、(2)を試して、
その間に(1)の準備をしましょうか。
963 名前:root ★[sage] 投稿日:04/06/30 20:47 ID:???
>>962 そうしますか。
なら、一番苦しいとこからやんないと意味ないですね。
c-auやc-othersは何とかなってるから、自動的にあれかぁ。
いやこのリンク先、単なるIT用語辞典なんだけどね、、 さすがに用語の意味くらいなら検索したほうがいいんじゃないかと思って。 IT用語辞典が消えることはインターネットがある限りないと思うし。 それをどのように適用するかなら書いても価値があると思うんですけど、、 とりあえずかいつまんで書いておくと、 外部からネットワーク内部へのアクセスをする際に通されるもののことで、 中継時にURLやパケットの内容を保存することでセキュリティを強化したり アクセス数の多いデータをキャッシュとして保存することにより高速化したりできる。(←今回はこれが目的かな) 内部から外部へ接続するプロクシの反対なので「リバース」がつくと言われている。 こんなところかな、
で、もしバックエンドのPHP処理やディスクI/Oがおなかいっぱいで、 かつクラシックメニューが簡単には改造できないとしたら、 以下の構成もありかなと。 フロント <=> バックエンド1(クラシック) <=> バックエンド2(クラシック) <=> バックエンド3(クラシック) フロント<=>バック間はリバースプロキシでURLを見てロードバランスする。 (これは簡単に設定できます) つまり、ディスクI/OやPHPをやる人の負担を単に1/3に薄めると。
で、
>>62 の構成は今の路線(今はURLを見るのではなくて、au/docomo/othersで割っている)
で、これを細かく割ると。
ただ、どうみてもこれは筋悪だし、本格的な解決になってないというのがここの判断かなと。
ということで、
>>53 >>54 方式かなと。
>62 それだと携帯ユーザーが満足できるだけバックエンドを入れた時点で2ch側の負荷が・・・・(^_^;) フロントいっぱい>バックエンド少し>2ch という分散モデルにならないと・・・・(^_^;)
まー、外野であれでなと、これでないとと騒ぐのは簡単なんですけどね(^_^;)
>>64 ということで世間的には、バックエンド1,2,3を
別途用意した同じProxyサーバにつなぐわけです。はい。
ただ今回は、もうめざす路線は概ね合意できている気がするので、 ・携帯からの受付・PHP処理・dat/subject.txtリクエスト…フロントエンド ・フロントからのリクエスト受理・dat/subject.txt取得・管理…バックエンド その形をめざして動くことでよいのではないかと。
blackgoat、これからちょっとファイルシステムのチューニングをしてみます。
Pekoでやったようなメモリ周りのチューニングはいかがでしょ
blackgoat、チューニングできた。 ちょっと、c-docomoでためしてみます。
c-docomo => blackgoatを復活させた。 さて、どこまで上がるか。< blackgoat
ccdを使って、blackgoatのディスクをストライピングにしてみた。 ちゃんとad0とad1にほぼ均等にアクセスがいくようになった模様。 ただし、ディスクは確かに楽になったけど、LAは改善されてないみたい。 ただ、今はまだ無制限に受け付けるので、 接続が目いっぱいまで使われてしまうことも、原因にあるかなと。 httpdを24, 32, 48, 64, 96, 128, 160 と変えて試してみたけど、 24の状態で既にPHP処理だけでCPUはめいっぱいみたい。 ほとんどのhttpdはRUN状態(PHP処理中)になっています。 で、マァヴさんが言っていた状態になっているかどうか(BlackGoat側の送信部分が ふん詰まり状態になっているか)をnetstatコマンドなどで確認してみましたが、 いずれの状態もバック=>フロントへの送信そのものは速やかに終わっていました。 つまり、BlackGoat側からフロント側への送信はすばやく終わっていて、 BlackGoat側で送信そのものに詰まっている状態は、観測されていませんでした。 コストかかっているのは、やはりPHP処理とディスクI/O処理のようです。 接続数を多くするとリニアにLAが上がっていく状態。 実はへたすると、PHPの処理の方がディスクI/O処理よりもコストが高いのかも。 自宅に帰ったらフロントエンド側を調整して、接続数制限を入れてみるか。
>>72 そっちは、ねぇ。PHP処理とディスクI/O処理をしない状態になるから、軽くなるんですよ。
こっちが、重要。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/load/blackgoatload.html 実際のDoCoMoのユーザさんのレスポンス具合はどうかなと。
たぶん、今は昨日までとあんまり変わらないはず。
>コストかかっているのは、やはりPHP処理とディスクI/O処理のようです。 って、BlackGoat の話しですか? であるならば、 まずは何よりも先に「本来の目論見である、DISK i/o だけ」にするのが先かと、
>>74 あんまり変わらないですね。ただもともと接続速度が遅いので
そんなに気になりませんが。
FOMAの人は気になるレベルかもしれません。
>>75 はい、その通りですね。
今回のテストでは「PHP処理とディスク処理のどちらがより苦しいか」の
再検証と、BlackGoatをディスクI/Oに特化させるための準備
(BlackGoatへのストライピングの導入&テスト)をやっていました。
ということで、BlackGoatのディスクをストライプ構成にできました。
(FreeBSDには標準でその機能があります)
/etc/ccd.conf に以下のように書くと、ストライプ構成にできます。
# ccd ileave flags component devices
ccd0 64 none /dev/ad0s1f /dev/ad1s1d
/dev/ccd0を/homeにmountしました。
/homeに書き込むと、ad0とad1に均等にI/Oがかかることを確認しています。
(これの確認には、実際に高い負荷をかけてみることが必要なので)
>>73 >実はへたすると、PHPの処理の方がディスクI/O処理よりもコストが高いのかも。
よーしこうなったらkage.cgi(仮)をCで作っちまおう
んで、ディスクI/Oは相当楽になりました。 ccd化はパフォーマンス向上にかなり効果ありそうです。 しばらく動かして問題なければ、機を見てフロントエンドの/homeもこの構成にしようかなと。 ここはバックアップ要らないということで、バックアップ用ディスクをつぶしました。
いまN900iからアクセスしています。 1ページ開くのに30秒くらいかかります。 ヤフーは5秒です。
>>76 >>80 どうも。
>>73 >>74 でも書きましたが、今までのこの時間と概ね同じか。
LAは少し低くなりましたが、あんまり変わりませんね。
100超えていたのが80台になったぐらい(このぐらいは誤差の範疇)。
つまり、ストライピングによる I/O性能の向上では、
PHP処理の重さは埋めきれなかったと。
ということで、
>>75 であることが改めて裏付けられたと。
(もしこれで軽くなっていたら、I/Oがボトルネックだったことになる)
Front - BlackGoat 間の通信に何を使えば一番いいのかはわかりませんが 一つの案としては、素直に http を使うのもありだと思っています つまり(予測ですが) Front の 2ちゃんねるのサーバ群への dat 要求を 現在 http で行っている。その部分を BlackGoat に書き直す(たぶん private IPs) だけで front 側の修正は ok なはず んで、 BlackGoat 側でのfrontとの会話部分を新たに開発すれば 以上終わりだと思います。この辺でいろいろな方法があると思う。
私も、概ねそう思っています(
>>82 の前半部分)。
単純にシンプルな形でいいんじゃないかなと。
基本的には、120secのディレイをうまく処理できるProxyサーバみたいなものがあれば、
いいんじゃないなと思っています。
あとは、クラシックメニュー側で持ってきたdatファイルをopen()とかstat()とかしていたり、
追加書き込みをしていたりするところがあると思うので、
それへの対応が
>>82 の後半部分になるのかなと。
で、ぐちというか、ひとりごとを。 最初からTiger+ストライピングだったら、うんうんうなりながらccdとかvinumとか 調べたりしませんでした。 つまり、いわゆるただ働きモデルでストライピングは実現できたわけで。 しかし、どきどきしながらパーティションのつけかえをしたり、 リモートでccdの設定したりして、なかなかスリリングで楽しかったです(w。 ただし、カネを使ってハードウェアでやるストライピングには、もちろんかないませんが。
1) 受付嬢から 必要な時に必要な データ(.dat .txt) を BlackGoat から取得する この場合、受付嬢はデータを溜め込むとか何もしない もしかしたら ディレイ値 0sec で動かせばそうなるのかな?(中見たことないので推測) ただし2ちゃんねるの各サーバから取得するのではなく BlackGoat から全部取得する 2) BlackGoat は受付嬢からの要求が来たら、キャッシュしつつ 2ちゃんねるの各サーバから実際に持ってくる ・初めてのとき or 指定された delay値を超えた場合は実際に取りにいく(差分取得) ・そうでないときは自HDに溜め込んでいるデータを帰す。 3) この二つを達成するために 受付嬢 - BlackGoat の間にはデータやり取りの 決め事を作らなければならない。 ・ http を使ってやり取りするとしたらどんな方法? ・ cgi にしちゃう? (これが第一歩かも・・・)
2ちゃんを月100〜300円くらいの有料コンテンツにして 鯖増強してほしい。
>>86 有料にしても同じ人数が集まるならいいが
確実に人が減るので今のような有益な情報が集まらなくなる。
するとさらに人が減る
2chあぼーん
いや半分ぐらいになった方が良いかもしれん。 あとから入ってくる人はアホみたいに居るし。 ってスレ違いだよ、頑張れオレ。
携帯(パケホ)での観覧だけ有料にするとか? スレ違い。。。
0000000 067 066 063 063 012 000 000 000 000 000 000 000 000 000 000 000
0000000 7 6 3 3 \n \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0
0000010 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
0000010 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0
*
00007d0 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 062
00007d0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 \0 2
00007e0 060 060 064 057 060 067 057 060 063 040 060 064 072 063 060 072
00007e0 0 0 4 / 0 7 / 0 3 0 4 : 3 0 :
あ、ぬる(ry
リブート前のログは正常なんですけど、なんででしょうね。
http://www6.ocn.ne.jp/ ~usada/c-au/20040703.0.txt 但し2:30迄
いままで直接各サーバに
GET /operate/dat/1086680380.dat HTTP/1.1
でリクエストしていたものを、
BGの指定ポート経由(proxy)で
GET
http://qb5.2ch.net/operate/dat/1086680380.dat HTTP/1.1
とリクエストするように変えてみますか?
ふむふむ、で ・ 受付嬢は DIsk i/o しなくなる ができるなら、それがいいです。 そして BlackGoat はそのまま各サーバから データを持ってくる状態になっているのだろうか? それであるならば、あとはその部分を改良すれば良いだけな気がする。 >>93 をやって何がわかりどんな期待が出来るか。。。 1) c-docomo 一台でフロントとしての実力がわかる 2) BlackGoat をどの様に改善すればよいかの情報がとれる ただし 3) BlackGoat がフロントからの要求を全て直接各2ちゃんねるのサーバに 問い合わせるので、各サーバの負荷はあがる 受付嬢の要求仕様は >>93 をやる事で完成だと思う >>94 FOXさん、
では、ちょっとやってみます。
・受付嬢変更点
1) dat、subjectのリクエスト先をBGへ(PROXY経由)
2) キャッシュの作成を停止
3) 2)より、ディレイは実質的に0secへ(ディレイ処理はBG側に任せることになります)
BGは現段階でproxyとして動作可能なのでしょうか?
もし動作可能であるなら、接続の為のport等の情報をメールして下さると幸いです。 >>rootさん
とりあえず、キャッシュ生成しないバージョンを入れてみました。 ちょっと、バグがあるけど(^^; 現在、ディレイなしで直接各サーバからdatを読み込み、それを処理するようにしてみました。 PROXYはとりあえずなしです。
2004/07/04 01:41:21 LA= 1:42AM up 22:18, 0 users, load averages: 92.06, 93.51, 93.92 2004/07/04 01:50:02 LA= 1:50AM up 22:26, 0 users, load averages: 93.77, 94.52, 94.51 2004/07/04 02:01:19 LA= 2:01AM up 22:37, 0 users, load averages: 93.92, 93.44, 93.98 2004/07/04 02:10:00 LA= 2:10AM up 22:46, 0 users, load averages: 95.25, 94.00, 93.86 2004/07/04 02:20:00 LA= 2:20AM up 22:56, 0 users, load averages: 1.91, 21.91, 53.72 2004/07/04 02:30:00 LA= 2:30AM up 23:06, 0 users, load averages: 1.39, 4.18, 27.20 LAは劇的に低くなったがレスポンスは相変わらずですね。。。。
c-docomo 2004/07/04 02:40:00 LA= 2:40AM up 23:16, 0 users, load averages: 1.30, 2.15, 14.43 c-au 2004/07/04 02:40:00 LA= 2:40AM up 22:10, 0 users, load averages: 20.86, 23.19, 23.66 c-others 2004/07/04 02:40:00 LA= 2:40AM up 21:55, 0 users, load averages: 0.59, 0.52, 0.51 うーん、c-docomoはなんでLAがこんなに低いんだろう。。。。
全部読み込んでいるので、レス数が大きいスレは開くのに時間かかるね。 やはり、BG側で必要な情報だけを渡すようにする必要がありますね。
そこは注目のところですね、 受付嬢 - BlackGoat 間の通信が十分にはやいなら 受付嬢は dat の全データを貰っても貰わなくても ok な気がします。 もしこの間の通信がおそいなら・・・ 別の手を考える必要があるのかな? まずは、毎回dat全取得という方法に固定しておきましょう。 次は BlackGoat でのキャッシングでどう変わるか。。。 1) 受付嬢の負荷はほとんど変わらないか、若干改善か? 2) 2ちゃんねるのサーバたちの負荷は大幅に改善される。 3) BlackGoat が受付嬢三人娘はかるがるとこなし、 10人までだったら相手にできるかも? の感触をつかむ。
そうですね。 受け付け嬢へのデータ加工機能をBGに入れるとすればそれなりの負荷が発生しますよね。 単なるプロキシならほとんど負荷はかからないんじゃないかな?
>>◆BFzK/mtqM2さん、 ちょと改造されたところを拝見したのですが、 getres の 86 と 99 行目で2回にわたって dat リクエストしているようです。 どうしましょう、私が改造しても良いのかな? もし複数人で改造を行うなら、日時と変更箇所を簡単にコメントした方が良いですね…
直しちゃってくださーい。 rewindがうまく行かなかったんで(^^; そうですね。これからは変更したらコメント入れましょう。
>>107 DoCoMoはbananaの10Mbps制限に引っかかってるみたいだけど、
auは帯域制限が効いて無くて、20Mbps程度でてるみたい
>フロント←→2ch鯖間通信
その辺の関係で、DoCoMoは窓口数と処理が掃ける速度により
事実上アクセス上限に当たってる状況なのではないかと推測したり。
使用帯域は、どっちも 1Mbps 以下かそれくらいのような、
>>109 どもー。
1Mbps以下ってのはPIE-外部の帯域じゃないですか?
>>108 で書いたのは
このグラフで言うところの青線の方です。
ここの傾向がauとDoCoMoで明らかに違うので何らかの
影響があるのではないかと思うのですが。
# いちおうリンク
http://server.maido3.com/pie/ おぅおぅ たしかに。。。 これが BlckGoat を通すことによってなくなるはず というのが検証できますね。 BlackGoat - 2ちゃんねる の間はキャッシングすることによって いろいろと、、、
>PIE-外部の帯域
の表現はちと違うかな?
http://server.maido3.com/pie/ のサーバのグラフは
青 Switch -> Server の使用帯域
緑 Server -> Switch の使用帯域です
また Switch 以降はルータまでとルータから外部は十分に太いので
青 外 -> Server の使用帯域
緑 Server -> 外 の使用帯域と言いかえられます。
これからの作業として 「受付嬢 - BlackGoat 間を
インターネット(GrovalなIP,ネット)を使ってをやっているのを
内部LANを使ってやる」となっています。
もし 10M の制限がなかったら
(((( ;゚Д゚)))ガクガクブルブル もんでしたなぁ
>>112 >PIE-外部の帯域
という表現が乱暴だった事は承知しておりますm(__)m
今回の作戦の成果(キャッシュ効率)を示す指標の一つはBlackGoatの
「Local(受付嬢)帯域 / Global(2ch)帯域」比をどれだけ大きくできるか、
ですね。
これからの流れとしては
(1) BGのキャッシュシステムを構築→キャッシュ効率・負荷の評価
(2) 受付嬢のチューニング→負荷、処理能力の評価
(3) 受付嬢-BG間のdat取得方法の見直し (BGのLAN側100Mbpsが飽和)
(4) 大黒埠頭時代を見据え、BGの性能評価。増強が必要ならスペック検討。
といった辺りでしょうか。
(3),(4)まで進んで嬉しい悲鳴をあげる事が出来ますように…(-人-)
現時点の受付嬢の仕様 (1)キャッシュなし (2)その都度、2chの各サーバからdat全取得(過去ログ等はキャッシュしている) (3)Delayなし (4)docomoは10Mbps帯域制限中、auは10Mbps帯域制限かかっていない、othersは不明 各受付嬢の現状 docomo LAは低いが、帯域制限されてレスポンス遅い au 帯域制限されていないので、比較的レスポンスはよい。ただしLAは高め others いつも通り余裕
昨日・本日とおやすみしておりました。
というわけで、まずは
>>93-94 >>96 に対応します。
>>96 とりあえず設定しました。(Apacheのmod_proxy+mod_disk_cache)
c-au, c-docomo, c-othersから、192.168.0.1:80をProxyにしてみてください。
お、ちょっとまってください。
キャッシュ関連を調整します。
>>116 携帯用と高機能版があるけど携帯用を選択したら見違えるくらい軽くなった。 高機能版はレスポンスに30秒以上かかっていたのに5秒くらいになった。
Bad Requestがでるな。。。 まだ設定終わっていないのか、送り方間違っているのかな。。。。
キャッシュの調整、おわりました。
ということで
>>116 でおながいします。
>>120 Proxy経由で接続も確認できました。
これから三人娘に導入します。
HTTP/1.1 をつけてもいいのかな。 ちと、ためしてみるです。
c-othersからきはじめたかな。
>>126 どうもとらないとだめみたいですね。
設定をへまっているのかしら。(とりあえずApacheのmod_proxyを使用)
私のプロキシ側の設定がいまいちな予感。 ちと、とめてくださいです。
現在、c-othersで実験中 私のPCからのみPROXY接続で、それ以外は直接接続です。
Apacheのmod_disk_cacheにはバグがいるみたい。 .htmlな拡張子だとちゃんと動くけど、.datという拡張子だと キャッシュにデータが入っている時に再度同じものをとろうとすると、 httpdがsignal 11で死んでしまう。 キャッシュしないモードではちゃんと動きますが、それじゃ意味ないし。 ということで、squidに切り替えます。
落着いて待ってます… =≡= ∧_∧ / (・∀・ ) 〆 ┌ | | .∈≡∋ || γ ⌒ヽヽコノ || || .| |:::|∪〓 || ./|\人 _.ノノ _||_. /|\
―――――――――――――‐┬┘ =≡= | __ 〆 ____.____ | ─── \ | | ∧_∧ | | がっ! \_ =二 ∧_∧ | |. (#´Д`)| | _ |ヽ \ (; ・∀・)/ | |⌒ て) 人 _ ―――‐ γ ⌒ヽヽ ⊂ つ ∈≡∋ | |( ___三ワ < > ――― ―― ―二 | |:::| 三ノ ノ ノ ≡ // | | ) ) | ∨  ̄ ̄ ̄ ―――‐ 人 _ノノ (_ノ、_ノ _//  ̄ ̄ ̄ ̄' ̄ ̄ ̄ ̄ |
おそくなりました。 192.168.0.1:8080 でやってみてください。HTTP/1.1 形式が必須のようです。
アクセスできました。 statusが返ってこないのがちょっと気になるが。。。。。 これでいってみますか。
>>135 アクセス確認しました。
statusは、、、設定しないとだめなのかな。
# なにぶん数年ぶりで設定するので。< squid
othersを切り替えました。 statusは出来れば設定してほしいですね。 何か問題あるかもしれないけど、他も切り替えてみます
diskdだとsquidが死ぬみたいなので、aufsに変更してみた。
>>142 の影響だとおもう。今はどうですかね。
>>141 ということは others au docomo の転送量が裏の経路に回るので 帯域問題は解決するかも? ということですね、 帯域問題が次に発生するとしたら BlackGoat - 各サーバの部分と、 期待したいのは「受付嬢は何も問題なく動きはじめる」といことだー。
aufsにした後は死ななくなったみたい。 status設定をちょっと調べてみます。
>>142 大丈夫になりました。
んじゃ、最後にdocomoも切り替えます。
おおっ 素晴らしい。。。 んで BlackGoat さんはdat,txtをキャッシュするですか?
時間帯があれなのでなんともいえませんが、いまのところゆとりあります。< blackgoat
>>144 そのように期待しています。
>>148 今のところなんでものはず。htmlでもgifでも。
Pragma: no-cacheとか命令されない限り。
ストライピングの効果がうまく出ているようです。 ディスクI/Oが2本のディスクに分散されて、いいかんじ。
いまのところ、datのみをリクエストしています。 あとで、subject.txtもPROXY経由で取得するように変更します。
>>149-150 りょうかいでーす
うまく動いているようなどっかで固定して
48h 間くらいいろいろデータ見てみたいでーす
ごめん。今、1分ぐらいsquidとめました。 今日一時的に止める時は、ここに書きます。
いい感じですね。
お忙しい所すみませんガ BlackGoat のキャッシュする機能としては どかん設定なのでしょうか? 1) 何秒のディレイと考えればいいのか 2) BlackGoat - 2ちゃんねるのサーバ間の通信での差分読み込みの有無 3) BlackGoat に性能の限界が来るとすれば、どの部分と予想されるか、 この辺を記録として残したい気分です、
ログを見る限り、結構キャッシュはヒットしている予感。
とっても良さげなんだけど。。。
http://ch2.ath.cx/load/c-docomo.html docomo だけ負荷が高いのはなぜなんだろう。
DISK i/o が無くなり、帯域の制限もなくなり・・・
何がネック?
ディスクI/Oがなくなったので、 httpdでかけていた接続制限(128個まで)を大きくしてみることにした。< c-docomo とりあえず128 => 192に変更。
うーん、体感的に c-docomo 早くなった希ガスる
Apache statusで見る限り、さっきよりは健康になった予感(単に時間が遅くなったからかも) 既に現時点でF/Eのc-docomoは2台必要なのかも。
ちなみに三台とも同じ設定ですか? 違う場合は同じ設定にしていただけるとありがたいです 条件一定にしないと比較できないからでーす
いずれにしても、今日一日様子見てみないとなんともいえませんね。
>>164 了解です。
これから3人娘の設定を
>>161 に変えます。
>>163 c-others がスカスカなのがもったいないよね。
必要なデータが取れた時点で、
banana405 上に c-docomo2 を作って、ラウンドプロキシで負荷分散ってのは?
>>166 done.
今の3人娘のhttpd.confの該当箇所:
<IfModule prefork.c>
StartServers 64
MinSpareServers 5
MaxSpareServers 32
ServerLimit 192
MaxClients 192
MaxRequestsPerChild 1000
MaxMemFree 2048
</IfModule>
php.iniでPHP accesralatorを導入。
zend_extension=/usr/local/lib/php/php_accelerator_1.3.3r2.so
で、
>>157 ですが、
1)F/E側の設定によります。
もしF/E側でディレイなしなら、ディレイなしです。
2)これもF/E側で制御できるのかな。
HTTP/1.1で制御すれば、それでいいはずなので。
3)しばらく見てみないとわからないですが、
ディスクI/Oかなとは思っていたり。
>>167 いやー まだまだ
r.i p.i とまってるのまだ 1/3 位だと思う(台数で)
今やりたい事は、「手法」の考案で劇的な変化を求めたいのだ
小手先の節約は劇的にはならないから
知恵をフル動因かと、
たぶん docomo の中の人とか au の中の人が通った道のりと思われるので
そこに少しでも近づければ、、、
きっと ニヤニヤされていると思われ、
>>169 なるほど、
で、F/E側の設定値はいかほどなんでしょうか?
3人娘の仕様は
>>114 です。
データを毎回読みにいくので必然的にディレイはありません。
また差分も内部にキャッシュ持たないため難しいでしょうね。
>>172 つまり、バックエンド側でディレイや差分を実装する(or しているソフトを入れる)
必要があるということですね。
うーん ヒンフューズドというかコンプリケイティドというか I am stupid 状態ですが BlackGoat 側ではキャッシュの設定は受付嬢側に委ねられている設定で 受付嬢はキャッシュはしない設定であると。。。 ということは、どういうことなんでしょうか? 現在 BlackGoat はキャッシングしてない?
バックエンドは、datが更新されれば内部キャッシュを更新しているんじゃないかな? だからスレの速度がゆっくりしたデータは今以上にディレイ付くが、スレの速度が速い奴は頻繁に更新されるんじゃないかな?
>>174 BlackGoatは現在、単純なProxyサーバとして動いています。 1)c-xxx →datのリクエスト→ blackgoat 2)blackgoatでdatの準備、こんなかんじ if (blackgoatがそのdatを持っている) { blackgoat →datの更新チェック→ 各サーバ if (datが更新されている) { // ここでsquidが増分取得をしているかは未確認 blackgoat →datのリクエスト→ 各サーバ blackgoatはdatをキャッシュに格納 } else { // キャッシュヒットにつきdatの取得はしない } else { // 持っていないのでdatを取得 blackgoat →datのリクエスト→ 各サーバ blackgoatはdatをキャッシュに格納 } 3)blackgoat →datの送信→ c-xxx なるほど、なるほど 48h ほど観察して、次の話題は 1) BlackGoat にディレイ機能を入れたらどうなるか → 転送量(2ちゃんねる各サーバの負荷) 2) 差分読み込みまでする必要があるかどうかの検討 ------------------------------------------ 3) 受付嬢(とくに docomo) の負荷が高いのは 単純にアクセス数が多いからなのかどうか あたりですかねぇ
そうですね。そんなところかと。
>>177 で、思いついたことを。
三人娘側でディレイを実現するのは、
どの板のどのdatをいつ最終取得したかをチェックできればいいわけです。
つまり、今までdat本体をストアしていたところに
大きさ0のxxxxxxxxxx.datファイルを作ることにして、
取得の際にそのファイルのmtimeを更新するようにするようにしておいて、
その時刻が現在時刻よりも120秒以上経過していなかったら、
blackgoat側にリクエストをそもそも発行しないようにする、というのはどうかなと。
>>178 これやると、ちょっぴりですが三人娘側でI/Oが発生しますね。
一番いいのは、blackgoat側で今もっているデータよりも120秒以上未来になってなかったら、
更新されていないとみなすようにすることか。
これってsquidの設定でできるのかしら。
>>178-179 これまでの雰囲気からは、
>>179 が本線だと思いますー
つまり 現在の目標は、 1) 受付嬢の負荷を極力避けて、より多くのアクセスをこなせる様にする。 越えられない壁 2) 転送量等の話し、 ですから
>>179 よくわからないけど、refresh_patternかな。
寝る前にごそごそ調べたら、squidはそもそもこの機能を持っているかも。 ということで、squid.confの設定を変えてみた。 なんとなくうまく動いているような予感。 # changed, 2 minutes delay #refresh_pattern . 0 20% 4320 refresh_pattern . 2 20% 4320 それでは、おやすみなさい。
>>182 お、かぶりましたね。どうもそうみたい。
>root★さん FOX★さん お疲れ様です。 昼時がどれくらいになるか楽しみですね。
ひるどき。-docomo, c-auとも劇重。 vmstat 1 で runnable process が150とか出るし。 PHPってこれ以上高速化できないのかしら。
c-others、blackgoatはまだ相当ゆとりありの模様。 あと念のため、裏側のネットワークの使われ具合をチェックしてみる必要があるかな。
どうだろう。PHPで毎回ページ作っている(= キャッシュされない)んじゃなかったっけ。
>>190 で、産児制限するとそれなりにつながるようになるので、
接続要求を同時に受け付けすぎの予感も。< c-docomo
ということで、観察を継続するために元の設定に戻しました。 重くても、明日夜まではこのままいきます。> c-{au,docomo,others}
今c-xxでは、リクエストした全てのdatが、まるまる配列に格納されています。 メモリに乗り切れてないってことはありますか?
>>193 Perlでいう「連想配列がばちょ」ですね。
重そうな処理だなぁ。
c-docomo の負荷がなぜ高いかの推測大会ですね、
>>195 ちなみに昼休みはc-auも高負荷だったので、
アクセス数が多いことは当然原因の一つではあるかなと。
わたし的には「単純に数が多くてもうむりぽ」なのか、まだ改善の余地はあるのか、
が問題で。
vmstatでみると、httpdがRUNになっている状態のものが圧倒的に多いですね。
つまり、処理がおいついていないように見える。
blackgoatは今のところ余裕があるので、横並びでc-docomoをもうひとつ増やしてみる
というのは、可能ではあるのかも。
公衆便所の壁になに書いてもおんなじやで、ハヨみんな死ねよ、ちんぽおめこ、くさー
>>197 そういう事じゃなく
今まで
1) DISK i/o が問題と推測 → DISK i/o をなくした
2) 帯域が問題と推測 → 帯域制限にかからないように方式変更
3) 今度は何?
前提としては「需要 > 供給」は当たり前なわけで、
>>200 なるほど。現有戦力で次にとれる手法は何で、そのための戦略は何?
ってことですか。
ちなみに、下記は済みのもの。
0) PHPの処理に時間がかかる → PHP acceralator導入(倍ぐらいのパフォーマンスに)
>>201 そです そです。
そして突然「素晴らしい発想」が生まれ、「劇的な改善」が見込まれると、
1000% 効率アップとか、
それが出来るのは「若い柔軟な脳」だけかと、
・ 3 人娘を単なるクローンにする。 ・ c.2ch.net はシリアル番号(機種固有番号)からランダムにいずれかの 3 人娘を呼び出す。 →ランダムなので純粋に負荷が 3 等分されるのではないか?@帯域、負荷 ○ 現状 3 人娘はそれぞれ違う処理を行っている? → HTML, HDML, MML, XML と違う出力にしているならば、 その部分を切り離して UA でそれぞれ振分けてパイプ処理で変換させるとか?(nkf みたいな pod2html みたいな)
>>203 単に負荷を3等分する、というのは前にも少し考えました。
今でもpoundで簡単にできるけど。やってみますか?
後者は、中身の重そうな処理がどこかを調べることになるのかな。
c-docomo の挙動
これが c-docomo に襲い掛かっているアクセスである。
48hの推移を見ると三つの部分に分かれている
1) 最初の3kくらいのところ → DISK i/o が率速だった
2) 5k 位の平坦部 → 10Mbps の帯域制限が率速だった
3) 10k - 25k を乱高下 → 純粋に襲い掛かっているアクセス?
と考えていいんだろうか、実はどこかに別の秘密が隠されているのだろうか、
解せないのは、 3) が本来のアクセスならばなぜ 1) 2) が平坦になり乱高下が
観測されないんだろう。
>>204 だめだめ、ここからもしかしたら確信なのかも知れないから
台数増やすのはいつでも簡単に出来る一番安易な方法です
また、今の目標はそこにはないです。
>>204 c-docomo を軽くしようというのは目標ですが
絶対に他のキャリアとまぜないでください
勿論、au もですけど、
せっかく分けて、分析しているのですから、
簡単に言えば 「台数増やす → 軽くなる」は既に解っている解決策ですから 実験する必要は全くないと思います。 平均化も台数増やすと同じことです。
>>205 > 3) 10k - 25k を乱高下 → 純粋に襲い掛かっているアクセス?
転送速度も絡んでいるのかもですね。
c-docomo 内部では処理が終わっているのに、なかなか全部受取ってくれていないとか。@mova類
あと気になるのが鯖名。4xx 台ってば httpd のエラーコードなんですよねぇ(^-^)
>>205-207 了解です。物量以外の知恵で。
ccdによるストライピングにしてもそういうことでひねり出したわけで、
(これでディスクI/Oのキャパが2倍近くになった)。
で、乱高下は「その時の限界ぎりぎりまで資源が使われた場合」にこうなるようです。
でも、限界だと思っていたのが実は限界ではなかった、ってのを
既に何度も経験しています。
というか、弱いマシンでやらないと、弱点も見えてこないものです。
強いマシンだと詰めが甘くても、動いてしまうし。
このへんの「苦しいマシン環境での力のしぼり出し」は本業的に昔取った杵柄なので、
(もう何年もやってないけど)もう少しがんがってみようかなと。
ロードアベレージで負荷を見ているわけですが、 LA 高の原因は単純に言って 入ってくる量 > 完了する量 なわけです。 つまり処理が完了する量に注目すれば(動かすことの出来る項だと仮定すると) どんどん完了すればいいわけです。 なぜ完了しないのか? c-docomo が完了できないのか 呼び出し側が完了してくれないのか。。。
>>210 見ている限りでは、c-docomoが完了できないように見えますね。
常にhttpdがCPUを食っていて、とても多忙に見えます。
一つの呼び出しを処理するのにかかる平均時間というのは計測できるんですかねぇ docomo の場合 au の場合 その他の場合 で知ることが出来たら、何か出てくるかも、
>>211 >c-docomoが完了できない
と原因を仮定すれば、どこが問題ななんだろうか?
1) CPU 性能?
2) RAM 不足?
3) network ? or その他?
何を見たらそう断定できる?
また解決すればどれくらいの効果が見込める?
逆に、ハードは変更しないとしたらどんな解決方法があるか?
あくまで仮説ですけど定額制端末に焦点を当てると違いは転送速度です のでそれが処理の遅れになってるかもしれませんね FOMA 最大384K AU(WIN) 最大2.4M
>214 非定額の場合でも大きな違いがありますよ(^_^;) Docomoの主力の5xx&2xxシリーズは9600bpsだったはず。 auの主力の1xは144kbpsだったかな? 詳しい人フォローよろしく。
ちょっと疑問というか不思議なのは
当初、au : docomo : others = 4:5:1.5 という計測結果があって、
その上でいろいろ進めてきたわけですが、
http://mumumu.mu/mrtg/mrtg-rrd.cgi/access/ を見ると 4:10:1.5 に見えます。
どしてこんなに docomo の比率増えたのだろぅ
うーむ疑問だらけじゃ
>>214 いくら携帯2chユーザのWIN率が高いって言ってもWINを基準にはできんじゃろう
FOMAも同じく
mova 最大 28.8kbps (505i以降)
au 最大 144kbps
でも、よーわからんのだけど、ネットワーク速度がボトルネックなってる場合 1 コネクションが足りなくなって、エラーを返す 2 コネクションを開放できなくてメモリが不足してスワップが起こってLAが上がる のどっちかになるんでないのかな?(^_^;) 現状、LAが高いんだから1ではないわけで・・・・
>217 あ、28800bpsまで上がってるのか(^_^;)>5xx,2xx
>>216 i => cの誘導を開始してから、DoCoMoの比率がかなりの勢いで上がった気がします。
あと、深夜はドコモの比率が高いような。他が少なくなるだけなのかもしれませんが。
>215,217 非定額でも転送速度の差が結構ありますねぇ 転送量が少なくてもユーザーが一杯いれば僅かな差も塵も積もれば何と やら状態って事ですかねぇ
>>213 いまのところ、1)に見えますね。
メモリ不足には見えないです。
ただ、プログラムの「つくり」とか、システム(カーネル)のチューニングで
相当改善できるような気がしていたり。
で、クラシックメニューの場合画像とかはないので、携帯相手でも
転送そのものはそれなりになんとかなっているようです。
netstat -mで見ると、Send queueにデータがたまっている
(送っているが携帯が受け取ってくれない)ものはほとんどなく、
TIME_WAIT(携帯側が待っている)ものがどっさりある状態。
c-othersの今日17時ごろへこみは、私がちょっとごそごそしたせいです。 あらかじめ。
一回本当の各キャリアのアクセス数を取りたいですね。
>>255 ほほぅ なるほどです、
ちと 考え中。。。
ちなみに、docomo を二つに分けるとしてどんな分け方あるですか?
今までと同様 IP で振り分けたいのですが、
>>228 今振り分けはIPじゃなくて、携帯が名乗ってくるUAでやっています。
もちろんIPでもできるけど、今はまだやってないです。
もう1台投入した場合、二つやり方があります。
DNSで自然にラウンドロビンさせるやり方と、poundを使ってロードバランシングするやり方。
DNSで自然にやるのは、同じ性能のマシンがいっぱい来るときはシンプルでいいです。
poundだと、こっちに1/4、向こうに3/4とかいう決め細やかな制御ができます。
おのおののphpスクリプトから、その鯖のキャリアと関係ないキャリアに 対応したスクリプトをばっさり削除するってのは? docomo専用クラシック、au専用クラシック、とか
>>230 続き
DNSの場合: c-docomo.2ch.netという名前に複数のIPアドレスをつける
poundの場合: 設定で振り先のマシンを変える
いずれも、ユーザ側には同じURIをみせることができます。
>>230 平均化とか、それを目的にやるのじゃなく
折角のチャンスだからいろいろデータを取って
あれこれ研究するのが目的ですー
つまり 分け方の一例としては
1) 回線速度 a 低速 b 高速
等でわけたいのです。
何か他に分ける方法というか物差しありますかねぇ?
>>233 例えばFOMAはこっちでPDCはこっちってかんじですね。
それなら、UAで見ればいけるかなと。
あとはなんだろう。< 分け方
http://www.nttdocomo.co.jp/mc-user/i/spec/useragent.html DoCoMo/1.0 → mova
DoCoMo/2.0 → FOMA
これは個人的におもしろそうなんで統計とってほし
次の一手は・・・ 1) peko 機を移動してこのLANに接続 2) c-docomo を peko 機でそのまま運用(まだ分割しない) 3) これで CPU がへたれかどうかが検証できるはず !? 懸念されることは c の機能がそっくりそのまま改造することなく peko で動くか かな?
>>236 こないだまでcomic4(cobra2246)で動いてました。< cの機能
あのときはLA=50ぐらいで、全部のキャリアを受けてたかな。
DOCOMO/AU/otherの振り分けは間違いなくできてるという前提で LAでなく接続端末数はどうなっているのだろう 待ちプロセス多数でメモリが足りないなら接続受付数の調整で変化出てるとは思いますが
この間のcobraでは送出待ち多数な状況でしたねえ(接続数とか処理周りに違いはあるけども)。 docomoとauはcobraが必要なんすかねぇ…
まだ出ていないようなので、浅知恵で意見致します。 DoCoMoとauの大きな違いは、 端末でキャッシュするかしないかだと思いました。 それから、端末って、ちゃんと「処理完了」のお返事してるのでしょうか? その辺は解決済みですか?
httpd -F on tcpserver という手も残されているのかな?
実験してみたところ、無駄に風呂敷(メモリ)を広げずに動いているみたいです。StartServer も無視。
接続数なども tcpserver 側で制限できるので(-c)、その分 httpd のお仕事も減らないかなぁと。
>>241 TCP レベルのお話かな?@処理完了のお返事
続けて失礼します。 キャッシュがあると、 1.リクエストの間隔が長くなる、 2.一度のデータが大きくなる、 と思います。 誤差程度かもしれませんが、一応書いておきます。
>>242 どの階層かは思い付きませんが、その辺です。<TCP
>>247 5xx全てが28.8Kでは無い。
504以降から28.8Kだったっけ
詳しくは知らん。
鯖負荷を見ていたら、c-docomoとc-auがパンク状態でc-othersがガラガラ 一応、c.2chの機種別総合アクセス統計が必要かも…。 ・D(FOMA/mova) ・au(cdmaOne&CDMA2000/WIN/TU-KA ・v(V6&J5/V8) ・PHS(AirH" PHONE/PALDIO brouserphone/ASTELドットi) てな感じで…。
>245 そうですね。 ADSLみたいに非対称通信といいたかったわけで。
一台増えるけど、 squid---c-docomo---黒山羊 の三段体制とかは? squidとc-docomoは同居でも良いと思うけど。。
>>248 28.8k対応:
50xは504以降。
25xは252以降。
21xは該当無し。
6xxも該当無し。
>>251 これ以上の鯖増設は携帯ユーザーの資金でお願いします。
TCP/IP 28.8k/9600 2ch鯖 ------ GW ----- パケットの制御装置とか ----- 基地局 ------ 端末(数千万台) この構成でTCP/IPの所まで基地局−端末間のスピードで通信してるとは思えないです。 多分どこかでバッファリングしてるはず。
今の状態を見る限りキャリアの問題とは違うんじゃないかな? auもdocomoもほぼ同じアクセス数で同じような負荷
>>241 に関連したことですが・・・・
「携帯電話は移動する」 → 電波状況が悪くなる → 強制切断
・・・で、「2chからのデータが完全に送信完了されない」ために
ゴミが溢れるということは考えられないですか?
ついでですが・・・・ FOMAに限って言えば年末あたりにパケット定額料金の契約者に限定して ネットワークの混雑状況に応じて個別に帯域制限をかける予定らしいので、 そのことで2ch鯖→FOMA携帯へのデータ送出が詰まりやすくなることも 懸念されてくるような気がしますです。
各キャリアの公式メニューに載せて有料にしちゃえよってのはガイシュツ?
>>253 それで正解にしよう。
これ以上巻き添いは拙いだろう。
携帯からの接続に課金してたんじゃないのかよ! 最初はそういう話じゃ無かったか? いくら鯖増強したって、保つわけないよ。
有料でも快適に利用したいという希望者用に●専用鯖併設というのは?
今ここはそういう話をしてるんじゃないんです しかもおまえら全部既出
そういえば、3 人娘の Apache がまだ 2.0.49 のままですよね。@メモリリークの件
サーバのチューニングも大切だけど、PHPを使うのを やめるのもひとつの方向性かもね。 全部のスクリプトを変えなくても、一部の重い処理だけを バイナリ化するだけでも全然違うだろうし。
>>267 64bits 環境じゃないので関係ないですね。m(_ _)m
>>268 プログラムの保守性や開発のしやすさとの兼ね合いもありますね。< PHPをやめるかどうか
個人的には、PHPを少なくとも全面的にはやめないほうがいいかなと思っています。
圧倒的にCPUを食っているのがhttpdなので、
PHPの処理であることはほぼ間違いないですね。
あとは「どの」処理に最もコストかかっているかの見極めかと。
ちょっとだけAPC(無停電電源じゃなくてPHPを高速化するモジュール)をc-auでためしてみたけど、 あんまり速くならない模様。 これでZend optimizer, PHP acceralator, APCを試してみたけど、 フリー物ではPHP acceralatorが一番(しかも、相当)いいみたい。
さきほどc-othersとc-auで呪文を唱えました。 c-docomoでも機を見て唱えてみる予定。
>>272 は「効果があれば」の話です。
しばらくはc-auで様子をチェックで。
内容は
>>271 をもう少しまじめに設定してみた、ということで。
PHP用プロファイラって無いの? PHPじゃtruss/traceしても仕方ないか
きたく。
>>274 プロファイリングはしたいところですね。
このへん(PHPのプログラムでどの処理が高コストなのかを調べる)は、どうやるのがいいんだろう。
>>275 > このへん(PHPのプログラムでどの処理が高コストなのかを調べる)は、どうやるのがいいんだろう。
勘で。
あんまり効果ないっすね。設定が悪いのかもしれないけど。 いちおう、shmモードで動かしてみてました。 php_acceralatorと一緒に動かしたり(さっきのc-others/cのダウン)、 apc.optimization = 1 を入れたりすると恐ろしいことになる(今しがたのc-othersの急激な負荷上昇)ので注意。
前からの問題だが、c-auとc-docomoの鯖負荷が物凄い。 i.2ch時代はそれぞれの鯖でcgiを叩いて負荷が分散されたが、 c.2chでは中間鯖を経由してdatを読む、それに呼び出しが殺到な感じ。 機種別統計の必要性が感じられる。
ということで、さきほどphp_acceleratorに戻しました。< c-au/c-others
>>279 参考までに昨日のログでアクセス数を調べてみるかな。
game6と同じ問題があるかもしれない(高負荷時には統計取りの負荷もばかにできなくなる)ので、 アクセス統計の取り方を変えてみよう。 それまで、少しアクセス統計とるのをおやすみ。< c-au/c-docomo
統計とめてしばらく見てるけど、まさに焼け石に水だなぁ。
それでも働き続けている彼女たちは健気ですよね。@ 3 人娘 でもってもしかして、素敵な淑女達でやるよりも、 幼気な少女(低スペック+低帯域)を何十人と集めて捌いた方がいいのかな?@キャンディーズよりも娘。みたいな(w
こんなのあった。とりあえずメモ。
これで板カテゴリを出すところとか、相当にキャッシュできそうな予感。
キャッシュデータをMySQLで管理するのにも対応しているし。
http://www.jpcache.com/ サーバ側のセットアップ(まだやってません)の後に、プログラム側の書き換えも必要なのか。
root ★さーん cobra2247 のセカンドポートがLANのスイッチにつながったという 未確認情報がきましたー
>>287 これから確認します。
で、OKなら、
cobra2247のセッティング変更・掲示板バーチャルホストのmemoriesへの移動などをすすめます。
接続されていますね。192.168なアドレスをつけました。 セットアップ作業にはいります。
c-au or c-docomo を 分割じゃなく全面移行で、 私としては c-au だけど、 実験を目的とするなら c-docomo ですかねぇ
>>290 c-docomoですかね。
cobra2247はdual channelのSCSIですが(peko仕様)、
両方が同じチャンネルに接続されています。
他のpeko同様に別のチャンネルにわけてもらったほうがよいので、
これは別途すすめます(メールはCc:します)。
etc2 society2 food5 の内容をmemoriesに転送中。
この後別スレで変更の儀式の予定。
今回の目的は CPU パワーがあれば解決するの? yes /no でーす
>>292 了解。
それだと、PHPアクセラレータが使えるi386モードがいいのかな。
あ、i386互換モードで動かせばいいのかも。
いずれにせよ、まずはできることをやってみましょ。
>>291 乙です。
先に移転した分↓についてもmemories入りをよろしくお願いします(念のため)。
etc2→life6(body hikky mental psy sousai utu)
>>294 すべてホームディレクトリをまるごと移動しました。
>>295 おどしですか(w。
bananaとpecoのCPUの性能の差をいよいよ見られるわけで まじにわくわくです
お店からですかね・・・>狐さん
http://tmp4.2ch.net/test/read.cgi/mog2/1089018804/ 363 名前: ◆BDFCNV1.to 投稿日:04/07/07 20:30
さてさて、
ダダダダダタッ
クラシックさん and/or ◆BFzK/mtqM2さん、いますか。 新c-docomoの準備ができました。 c-docomo.peko.2ch.net という名前を一時的につけてあります。 アカウント等の設定は現c-docomoと同じです。 中身を入れ込んでくださいです。 c-docomoから転送しようと思ったけど、重い重い重い重いでだめぽでした。
>root★さん、 いますよーん >◆EA.clAssIcさん、 c-othersのでいいんだよね。
>>302 裏口も含めて設定済みですので、同じものでよいはず。
準備できたらここで知らせてくださいです。
携帯用とPC用は内容を分離することきぼんぬ。 (=同じものは見えない)
既に作業進行しはじめている予感。 ということで、うまく調整してくださいです。
あら、、、 確認ですが、作業完了後に名前がc-docomoに変わる、 で良かったですか? >>rootさん
あら、コピーしおわちゃった。 多分大丈夫な予感です。
おつです。>両氏
いちおう、両氏からの動作OKの確認を待って、儀式依頼します。
でも中の人が
>>300 であることと、DNSが変わるのに時間がかかることから、
本格稼働は明日以降になる予感も。
動作確認OKです。 今名前が変わる前なので、subjectをキャッシュしちゃってますが、 c-docomoに変更後は期待通り動作すると思います。 ところで、.BAKファイルは削除して良いですか? >>◆BFzK/mtqM2さん
削除しちゃってくださいw 他にいらないのも。。。。
datフォルダもsubjectフォルダももう要らないんだよな。。。。
依頼しました。 さて、poundでちょっとつないでみるか。
旧c-docomo=>新c-docomoをpoundでつないでみた。
さて、どうかな? ログを見る限り、だいじょうぶそうにみえるけど。
LAが2とか3ぐらいしかいかないや。< 新c-docomo うそみたいだ。何か間違ってるのかな。
c-docomoは 503 Service Unavailable です。
>>322 pound側でほんとうに携帯からしかみられなくなっています。
どうせ新c-docomoで止まるので、解除します。
そっかぁ。poundで飛ばすとIPアドレスが変わっちゃうのね。 PCから見るとわれわれも人大杉になっちゃうなぁ。しかたないか。
LAが1切ってるけど、何かの間違いってことはないよなぁ、、、。
やっぱ、サーバとしての「モノ」が違うってことなのかなぁ。
アクセスカウンタ復活させてみませんか? < 新c-docomo
負荷は脈動的にかかるけど、LA=1〜3で安定してるみたい。 やっぱ、Pen4 Single IDEとOpteron dual SCSIでは比較することすらおこがましいのかも。 ちなみにPHPアクセラレータのamd64版はないため、次善の策としてAPCを導入しています。
>>332 DNSが更新されていないので、旧c-docomoです。
今は単に新c-docomoに転送しているだけだから、軽いわけで。
LA情報はしばらくはこちらで。
http://c-docomo.peko.2ch.net/_service/20040708.txt >>333 明日以降、DoCoMoゲートウェイから直接来るようになったらやってみます。
>>334 なろほど、旧c-docomoがバッファになっている可能性もあるのかな?
いずれにしても、旧c.2ch.netの実績からすると当然のような気もしますね。
comic4鯖とdomoco以外のアクセスがなくなっているわけだし。
>>336 で、ディスクもストライピングを導入してnewfsのパラメータを変えてチューニングしてあるし、
apc(PHPキャッシュ)を入れているし、datキャッシュはblackgoatがやっているし、
掲示板がないのでPHP処理に注力できると。
でもこのへんのチューニングノウハウは、遅いサーバで四苦八苦したからこそ得られたわけで。
>334
同じファイルを指しているような。
http://banana404.maido3.com/ ~ch2c-docomo/_service/20040708.txt
>>338 お、こっちもpoundで運ばれるのか。
じゃ、既にメモリは変わったことになるわけか。
>>334 鯖監視所のc-docomoはc-docomo.pekoを読んでるみたいですね。
http://c-docomo.2ch.net/_service/20040708.txt http://c-docomo.peko.2ch.net/_service/20040708.txt ココまでオマケで転送掛かってるみたい。
旧c-docomoはmumumu.muのMRTG統計で取ってる方が
正規のLAなんじゃないですかね。
メモリ => 目盛
(ch2.ath.cxのことです)
http://ch2.ath.cx/load/c-docomo.html しかしそうして見ると、改めてすごい。
>>340 そうすね。こっちはhttpでとってないので、転送の影響出ないし。
295 名前:wbcc1s15.ezweb.ne.jp@FOX ★ 投稿日:04/07/07 22:14 ID:??? 10倍はこなせるですよね? とりあえず、今の負荷からすると10倍こなせそうな予感はしますね。
負荷は喫水線を超えるとがばっと来るので油断は禁物ですが、
とりあえずそれなりに性能は出せている…のかな。
>>343 live8を作っていた時にも思ったけど「これで本来の性能」と思うと、
実はそうじゃなかったりするんだよなぁ。
まだr.i/p.iを止めていないサーバがかなりあるわけで、、、。
>>345 11日は球宴(長野)と参院選開票があります。どれくらいの負荷が かかるか興味があります。
さて、DNS変更後もこの軽さが続くことを祈りながら、本日はおやすみなさい。
ためしにhttpdを再起動してみた。するとLAが一時的に上がる。 APC(PHP中間コードキャッシュ)がうまく動いている予感。 さて、ねるか。
でしょ 次はフロント全部peko にして 30倍の負荷を BlacGoat へですよー で、このとき多分耐えられなくなるけど これを解消するのはソフトウェァ的手段で、という運びになっとります。
>>351 えっ、もう次のプランですかぁ・・・
相変わらず、早いですねぇ・・・
がんばってください・・・
>>351 あと2台のpekoをどこから調達するのか気になります。
cobra2246が空いてて、もう1台は…?
othersどこかと同居でも問題ないんじゃないかなぁ〜
>>354 cobra 2244(game6とnews11)をどけるのでは?
移動させるとしてもgame6がbanana3台分いるのですよね。
値段調べてませんが、banana3台とTiger1台どちらが安上がりなのかわかりません。
>>351 BlackGoatが限界に達したら(どんな限界かにもよりますが、もしblackgoatのディスクI/Oなら)、 blackgoatを多段化すればいいのかな。 こんなかんじで。 c-docomo1,2,3,... => c-docomoX 用 blackgoat => blackgoat親玉 => 2chサーバ群 c-au1,2,3,... => c-auX 用 blackgoat => c-others1,2,3,... => c-othersX 用 blackgoat => キャッシュの効率化を考えたら、キャリアじゃなくdatを取りにいく先で分けたほうがいいんじゃないかな?
>>358 お、それいいですね。
絶対ヒット率上がるし。
news*、tv*、... 用blackgoat
etc*、life*、... 用blackgoat
love*、comic*、... 用blackgoat
っていうかんじかなと(上記分け方に意味はないです)。
>>357-358 その方法は封印して一台で動くようにプログラムを書こうという話でーす。
>>360 なるほど、それがソフトウェア的手段(
>>351 )だと。
何か、勝算がおありなので。
まずは 30倍負荷下の BlackGoatを作り出さなきゃ なにも見えてこないかと・・・ つまりあそこが悲鳴を上げるかな? とかは予想は出来るけど 実際にはわからないわけで、
と言う訳で入り口を広くしましょうと言うことですね。
とすると実作業は、 1)c-auをpekoにする 1')c-others/c(同じマシン)をpekoにする 2)すべてのサーバのr.iとp.iを止める 3)i.2ch.netのr.iとp.iに行く入り口をふさぐ ということになるのかな。
概ねそんな順番かと、 c-au をpeko にして、r.i / p.i を順次とめてみて どこまで耐えられるか、、、 c-others はpeko化が必要になった時点で、
各板のi/index.html生成もとめてみればいいかと>r.i/p.i停止
要は、c.2chの負荷テストですかな? でも、失敗すると、少し前にc-docomoがダウンした二の轍を踏むのでは…。 現在は少し前の過負荷状態は解消されたが…。予断が許さない状態だし…。
>>366 たぶん /i/ の停止は一番最後になる予感
bbs.cgi の改造ですし、
削除じゃなくて、c- への誘導リンクにして欲しいな と思ってみる。
これはどのように理解すればいいのだろうか?
>>370 これは今のbanana404かな。
だとすると、
・入るほうは: (1)携帯からのリクエスト (3)cobra2247からの応答
・出るほうは: (1)携帯への戻り (2)cobra2247への転送
かと。つまり、今は単純に「水道管」になっているだけかと。
ということで、c-docomo/c-au/c-othersの代表化作業ができました。 DNS浸透すれば(1日かな)、形が整います。 ということで、クラシックさん、◆BFzK/mtqM2 さんにお知らせです。 1)それぞれのフロントエンドへのアクセス方法: c-au1.2ch.net c-docomo2.2ch.net c-others1.2ch.net でアクセス(ファイルのうp等)してください。 また動作確認が必要な場合には、それぞれの名前でhttpアクセスすることもできます。 デバッグ用のアクセスコントロールもしてあります。 2)設定 それぞれのフロントエンドには、代表名でアクセスが来ます。 つまり、携帯側から送られてくるホスト名は、今までと同じです。 (c-au.2ch.net, c-docomo.2ch.net, c-others.2ch.net となります)
LAがピークで24ぐらいになるのか。 ということでちょっとだけ設定をいじってみた。 # Apacheを起動しなおすとPHPの中間コードキャッシュがなくなるので、LAが一時的に急上昇。
負荷監視所見たら、au鯖だけ物凄い負荷(一時に比べ、1/10だが)。 他鯖(c.2ch以外含む)の10倍の負荷がかかっている。下手すれば、ダウンしかねない。 docomo/others鯖は負荷が今のところ安定している。
傾向としては、アクセス数がある喫水線を超えると負荷がぐわっと上がる感じだなぁ。 c-au1とかは明確にそうだし、peko化して劇的に軽くなったc-docomo2もその傾向。 あちこちのr.i/p.iを止めた時に、どうなるのかなぁ。 もしレスポンスが悪く重くなったら、またチューニング(= 悪あがき)の日々か。
おっ 何かが切り替わった?
でもこれらはどういう意味なんだろ、、、
難しいなぁ、、、
>>378 DoCoMoのサーバにDNSが浸透しましたね。
c-docomo1=>c-docomo2へのpoundでの転送をとめます。
>>379 上は、c-others1に代表(c-docomo, c-au, c-others)を集めたからですね。
c-auの青線がたまに上回るのは、なんでだろう。
とうめん c-docomo1 (banana404) が空いている状態ですが、 ロビンちゃんの実験(別にする必要はないけど)でもしますかー? au 用をターゲットに、
>>382 おぉ、c-au2の登場ですか。いいかも。
今日はもう眠くてアタマが回らないので、
明日の午後あたりにでも。
c-au2のバーチャルホストの設定しました。 儀式場にて。
c-au2の準備ができました。 アカウント等の設定は現c-au1と同じです。 2ch.net的DNS設定はまだですが、banana404.maido3.com でアクセスできます。 ということで、中身を入れ込んでくださいです。 >両氏
c-docomo1中身は消しちゃったのかな? そのままで動くはずです。
>>387 そうすか。
だとすると、バーチャルホストとしてc-auを受け付けるようにすればいいのかな。
実験だし、それでいいかな。
んじゃやってみます。
ログでみる限り、うまくいってそうな予感。 そのうち転送量グラフに反映されるかなと。
で、今回はDNSラウンドロビンではなくて、poundの分散機能を使用。 こんなかんじで。 UrlGroup ".*" BackEnd 206.223.150.95,80,1 BackEnd 206.223.150.140,80,1 EndGroup
現在のところ、こうなのかな? c.2ch.net (banana405) |- c-au1 (banana403) -| |- c-au2 (banana404) -- 二台でロードバランス | |- c-docomo2 (peko247) - 強力な一台 | |- c-others (banana405) - c と共用
そうですね。
>>392 こんなかんじで、分業制で機能しています。
・総合受付、携帯との通信担当
banana405
・PHP処理担当
au係 banana403 banana404
DoCoMo係 cobra2247
その他係 banana405
・dat/subject.txtキャッシュ、I/O担当
banana406
ロードバランスなんてするとFOXさんに怒られますよ なんて。
>>394 実験だし。
でも2ch.netドメインでロードバランシングを導入したのはお初かもね。
ロードバランシングはかなり効果ある模様。今日のピークを乗り越えられるか。
http://ch2.ath.cx/load/c-au1.html 順次p.iとr.iを止めていき、BlackGoatの限界を見ていくフェーズに移行かな?
ふうむ、MaxRequestsPerChildが1000の時よりも100の時のほうが断然軽い、、、。< c-docomo ちょっと不思議な気がするけど、PHP+APCキャッシュな設定ならではなのかも。
>>398 ということで、設定変えてみたです。メモリというより処理自体が滞留していたみたいなので。
あらホントだ、 LAが100→30に一気に下がった。
c-au[12]も重くなってきたので、c-docomo2と同じ設定にしてみた。 つまりphp_accerelatorを止め、APCキャッシュに変更し、 MaxRequestsPerChildを1000から100に変更。
c-au[12]も下がった。アクセスがハイレートの時は、APCキャッシュのほうが効果あるのか。
念のためc-others1も同じ設定にしておいた。
どうもhttpdのゾンビさんがいっぱいいました。< c-docomo とりあえずリブートしてみた。
これで概ね落ち着いたはず。 少しめしくってきます。
次の実験はDocomoとauの鯖を取り替えっこですかい? Docomo→ロードバランス au→peko鯖
次は もうちょっと統計情報を取ってから どんどん r.i / p.i を停止して、どこまで負荷が上がるか。。。 c-docomo2 (peko) が果たしてどこまで受け止められるか !? c-au1 / c-au2 のコンビではどうか。。。 を予定してますー。
>>409 あと、BlackGoatはBananaで充分かもね。
p.i / r.i を廃止しているサーバを五台ほど増やしてみた。
もう携帯は禁止するしかないよ 携帯向けカテゴリだけpeko鯖に入れて別運用
作戦失敗かな? i.2ch止めてc.2chがパンクしたとなると…。 i.2chでは各鯖に負荷がかかっていたが、c.2chでは特定の鯖にドンと負荷がかかっている訳だし…。
>>416 失敗じゃなくて、たんに現実をつきつけられた段階かと。
ふやす気になれば受付嬢は横並びで増やせるわけですが(c-auのように)、
ふやすためには第8層や第9層のプロトコルが(りゃ。
しかし、c-docomo2、涙が出る状況だなぁ。 何か手法はないもんかなぁ。 PHPの実行回数を減らす(キャッシュ使うとか、物量でクリアするとか) 1回の実行コストを下げる このあたりか。
c-auとc-docomoの鯖を替えてみようぜ〜。
c-docomo2.2ch.net は作業中でしょうか?@応答無し uptime にも 1 user と入ってましたので。
>>420 作業中でした。異常なシステムメッセージが出て、パフォーマンスが悪くなったため、
リブートをかけたところ上がってこず。
リブート要請中。もし上がってこない場合、現地対応が必要かも。
>>421 やはりそうでしたか。
おつですおつですm(_ _)m
メニューの実行コストを下げるなら、 表示に関しては r.i と完全互換にして、メニューの機能を削るとかですか… 1) URL解釈 2) 1)に沿って指定のコンテンツを要求(dat、subject) 3) コンテンツを整形 というようなシンプルなものなら、コストもいくらか安いかと。
移行に向けての試験の為一時的にr.i/p.iを止めて、c-docomoが飛んだ。 と言う事は、作戦失敗が濃厚になって来た。かな…。
× 一時的にr.i/p.iを止めて ○ 順次r.i/p.iを廃止して
現状でクラシックメニューをPHPで動かすには重すぎたのかも。 ・機能を減らしてPHPのままで様子見 ↓ ・減らしたままスクリプトをバイナリ化して様子見 ↓ ・おとなしくフロントエンド増やすor高スペックに変更 こんな流れ?
もはや、カテゴリ鯖(ここならqb5)の数だけ、c.2ch鯖を用意しないと持ちませんな…。 現在c-docomo脂肪状態だし…。志半ばで挫折か?
>>429 早くも登場ですかぁ・・・「大黒埠頭」・・・
c-docomoの脂肪の件: 1:廃止前提で止めているアレを復活(暫定的に)[type:rebith] 2:c-au/c-othersの中の人にdocomoを超臨時で受け入れ(危険が高い)[type:helply] 3:ミラーや私家メニューに誘導する(殺到すると問題あり)[type:paralel] 4:きっぱり諦める[type:salender] どのように調理するか…。 野次馬は程々にして寝るぽ。
寝る前に…。 負荷実験で一時止めて、成功なら順次廃止、でも、「失敗したら」どうするんだ? c-docomo脂肪は半ば挫折とも言えなくもない。作戦失敗の場合は謝罪と責任(ryになりかねない。 ああ、眠くて頭がうまく回らん…。
>>432 なーんにも問題はないかと。
r.iや p.iが「はじめからそこにあったもの」と思ってますか?
>>432 あなたの言う「作戦失敗」とはいったい何なの?
携帯アクセスを受けるための器を作るとして、現在考えられている手段として
(a)システムチューニング、(b)プログラムチューニング、(c)課金モデル構築、
そのお金で(d)マシンを増やそうがあるわけで。
今、取りかかっているのは(a)で、何が処理の足を引っ張っているのかを見極めている
段階。(a)が行き詰まれば(b),(c),(d)を模索するだけの事。そう言う意味で、まだ始まった
ばかりの作戦で、打つ手、打たなければならない手は沢山あるのに、何を持って「失敗」
と言おうとしているのかわからん。
ま、サクサク動いて管理者はヒマでヒマで…という日が来れば「作戦成功」だろうが、
そんな日が近いうちに来るとは(多くの人は)ハナから考えてないんじゃないかなぁ。
俺=グレゴリー・ペック によって、 荒鷲の要塞=FOX★は陥落!!
ここまでの一切のレスを読まずに発言。 携帯から削除依頼されるとアドレスが全く違うので確認できない。 アドレスをクリックしてもPCからだと人大杉になるのでスレタイすら見られない。 専用ブラウザでは対応していないので見られない。 この辺の解決策って何か出てるのかな?
>>439 Cのスレを表示する。
↓
「写」をクリック
↓
一番上のボックスににスレタイとread.cgi用URLあり。
これにて削除依頼可能。携帯のブラウザ機能を使うよりも便利だったりする。
r.iをread.cgiに書き換える必要ないし。
というかまあ削除依頼はフォーム依頼を前提としてるからねぇ。 携帯用投稿フォームも必要かなと感じたり。 とりあえず上記手法で本来のURLをひっぱってくることは可能。
setrootbyname failed ffs_mountroot: can't find rootvp Root mount failed : 6
>>442 あわわ、、、(汗)
そこで、wheel ★ タンのご登場?(違
あがりました。< cobra2247 中身をチェック中。
. -‐ ) ‐- . .´,.::::;;:... . . _ `. i ヾ:;_ `_,.ン| l  ̄ ̄...:;:彡| } . . ...::::;:;;;;;彡{∧∧ i . . ...:::;;;;;彡|・ω・`) root ★さん、お茶が入りましたよ・・・・。 } . .....:::;::;:;;;;彡{ /U !, . .:.::;:;;;彡j | ト , . ....,:;:;:=:彳 ∪ ヽ、.. ....::::...;;;ジ ( ( (. ) . -‐ ) ‐- . .´,.::::;;:... . . _ `. i ヾ:;_´・ω・`_,.ン| l  ̄ ̄...:;:彡| } . . ...::::;:;;;;;彡{ root ★さん、お茶に入りましたよ・・・・。 i . . ...:::;;;;;彡| } . .....:::;::;:;;;;彡{ !, . .:.::;:;;;彡j:::::::::::::::....... ト , . ....,:;:;:=:彳:::::::::::::::::::::::::::.. ヽ、.. .......::::;;;ジ.::::::::::::::::::::::
Me: Reboot test is ok. I think the trouble of cobra2247 is fixed. Jim-san, thank you for your work.
味ぽんだけど以前ブックマークした クラシックさんが読めないです。
stray irq7 stray irq7 stray irq7 stray irq7 too many stray irq 7's: not logging anymore といって、パフォーマンスが出ないですね。< cobra2247 で、よく見るとcobra2247のACPIはずしカーネルではlptが認識されていない。 コメントアウトはしてないんだが。
c-docomoはトップにアクセスするとInternal Errorになりますね。 スレッドなどに直接飛べば問題ない。 なんでだろう?
トップのみということは、x.phpがおかしいのかな?
あのさ、人多杉だと携帯じゃ全く見れないわけだが(まぁ携帯に限らないけど。) ●ログインしたら見れるようにするとかさ、 杓子定規に見れませんなんてナンセンスだと思うわけよ。 少なくとも●買ってる奴らは有料会員なわけだし ●持ってない奴らも買うヤツ出てくると思うわけだ。 ●売れれば設備増強も視野に入るわけだろ?(sports8とか。実はこれが言いたい。) 2ch運営側、●持ってる人たち、設備増強されれば●持ってない人たちも、 全ての人にメリットがあると思うんだが 自分で言うのもアレだけど結構いい案だと自画自賛。 ちょっとまじめに考えてくださいよ。ホントに。もう人多杉画面見るのヤダ。
>>459 ●なんてなくても、人大杉は回避できますよ
専用ブラウザをご利用ください。無料ですよ。
携帯でも、いろいろ検討されていますよ。
>>459 ●でやるかどうかは別としても、何らかの有料化・課金化の道は仕方ないな。
月300円までなら払うよ。どうせクソアプリに支払ってるわけだし。
携帯からのアクセスを有料化する考えは数年前にも出されていたなあ。
c-docomo2の設定をACPIを切る前の設定に戻しました。 これでデュアルCPUになったので、パフォーマンスは元に戻ったはず。
不調につき、1度httpdをリスタートします。< c-docomo2
いちだんと、人が多くなったような。 すぐにhttpdのスロットが埋まってしまうので、スロットを増やしてみた。
おいおい、全然携帯からスレが読めなくなったぞ。 人多杉出しすぎじゃね?
使用料取られても良いから携帯からサクサク使えるようにしてほしいよ。
c-docomo結構負荷来ています。 ダウンするのも時間の問題かも…。
news12を凍結させてgame8を同居させて、vipをex7へ・game6にある板をgame8へ…。 確か、game6は高性能鯖だったと思うが…。 もしかしてgame6を凍結させてc-docomoの増強に転用するとか…。
>>476 game6(=oyster244)はBBMに転用だったはず
>>477 【Project peko】2ch特化型サーバ・ロケーション構築作戦 Part14
http://qb5.2ch.net/test/read.cgi/operate/1087666806/601- 601 名前:留守番 ★ 投稿日:04/07/16 04:35 ID:???
root ★さんも忙しそうなので
BBM に使おうと思っていた oyster246 を
c-docomo3 に転用しよう
BBM は244が空いたらト言うことにしよう
620 名前:root ★ 投稿日:04/07/17 23:56 ID:???
昨夜〜本日は本業の疲労でぐったり。
本日はc-docomo3の作成を。
621 名前:root ★ 投稿日:04/07/18 01:02 ID:???
c-docomo3の準備できました。
しかし、IPアドレス変更の後のほうがいいかも。
デビューは来週か。
>>478 レスアンカー間違い
×
>>477 ○
>>476 c-docomoも連日の過負荷からいよいよ解放されるかも…(?)。
c-docomo限界に近い? そろそろ増設の時期か?
>>482 > そろそろ増設の時期か?
この前出来たばかりなのに(つД`)
ドキュモ厨が重いから増設をさせるために煽っているだけ
今日のIPアドレスつけかえの際にcobra2246のセカンドI/Fを ローカルハブに接続してもらいました。 準備ができたら、c-docomo3のコンテンツを上げてもらおうかなと。
了解です。 私は夜にならないとできないかもです。 ◆EA.clAssIcさんも忙しいかな?
おつです。
>>486 私も忙しいし。
AirH"経由でIPアドレス変更作業したことは秘密です。
DNSとか、入れ込みの準備を午後やる
夜入れ込みをしていただく
動作確認後、pound振り分けに追加
ってなかんじでいきましょうか。
私も帰宅は10時ごろになりますので、 それまでどなたもコンテンツをアップしておられないようでしたら アップします〜 ちなみに、スクリプトはちょこちょこ更新してますので、 最新のものはcーothersからダウンロードしてくださいです。
質問でーす
http://headline.2ch.net/bbynews/i/ ヘッドライン(携帯用)から各スレッドへのリンクですが。
現在各サーバの r.i を呼ぶような記述になっています。
結果、人多すぎにとんでしまいます。
c.2ch.net のアドレスにするにはどうしたらいいんですか?
>>491 410 : ◆BFzK/mtqM2 :04/06/23 13:21 ID:T/7RpUtc New!! これでもアクセス出来ますよー http://c.2ch.net/z/-/operate/1086680380/i ほぅほぅ なるほど、 そのアドレスで呼べば自動的に au docomo other に振りわけ完了なんですかね? >>492 cで呼べば、常によきにはからわれます。
c系列(au、docomo、others)の方向性を変えてみたいと思います。 今までは、メニューを「より使いやすく」というコンセプトで作っていましたが、 今後は「より軽く」というコンセプトで。 不必要な機能は削り、最低限「見れること」を意識し作り直したいと思います。 もし、特に問題が無いようでしたら、そんな感じで進めたいですー。
c-docomo3の器のセットアップができました。
ということで、c-docomo2と同じものを入れてくださいです。
アカウント情報をこれからメールします。
>>497 わくわく。
あれ? 中身もはいってるなぁ〜 ◆EA.clAssIcさんかroot★さんがいれたのかな? 問題無さそうなので、ロードバランサーしちゃいましょうか〜
>>499 私は何もしとらんです。クラシックさんじゃないかな。
んじゃ、poundの設定更新してきます。
>>497 いつも凄まじい負荷との戦いお疲れさまです
検索と一回の表示数の設定さえ残してもらえればいちユーザーとしてうれしいです
poundってメモリリークするみたい。 c-au担当のpoundの大きさが200M超えてたです(リスタート済)。
現在のところ、こうなのかな? (前回
>>392 )
c.2ch.net (banana405)
|- c-au1 (banana403) -|
|- c-au2 (banana404) -- 二台でロードバランス
|
|- c-docomo2 (peko247) -|
|- c-docomo3 (peko246) -- 二台でロードバランス
|
|- c-others (banana405) - c と共用
うまく半分ずつになっているみたい。11:00前の断はIPアドレスの変更。
16:00の急降下は、とりあえずさっき仮に対策してみた。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/access/ http://mumumu.mu/mrtg/mrtg-rrd.cgi/traffic/ トラフィックのグラフを見て思ったこと、つらつら
1) au は docomo の1.5倍の転送量(out) である。
2) au は in/out 同じくらいだけど、docomo は outがinの三倍。
どしてなの?
この違いはどこからくるの?
つまりアクセス数は docomo は au のせいぜい 1.5 倍しかないのに
なんで peko 二台もいるの?
root ★さんに質問でーす
http://mumumu.mu/mrtg/mrtg-rrd.cgi/access/ このアクセスというのは何の値なのですか?
c.2ch.net のphpが起動された回数と思っていいのかな?
>>510 1つ考えられることは、再送信の頻度の問題(回線の質)
つまり、携帯側に同じデータを何度か送信しないと携帯側がデータを受信完了しない。
>>511 サーバにアクセスした回数だと思う。
phpなどの動的コンテンツだけでなく、静的コンテンツへのアクセスもカウントされているはずです。
docomo2 ・access 19.3 c/s ・data in 98.5 kb/s ・data out 285.5 kb/s 1アクセスでは、IN 5.10kb OUT 14.79kb au1 ・access 11.1 c/s ・data in 155.5 kb/s ・data out 170.4 kb/s 1アクセスでは、IN 14.03kb OUT 15.35kb 比較してみたら、docomoは受信が少ない、送信は両方とも同じですね。 という事は、 ↓
帰宅。
>>510-513 について、ひとつずつ。
アクセス量(iからcへのリンク作ってから比率はあまり変わらない):
au : DoCoMo: others = 24 : 40 : 12 = 2 : 3+1/4 : 1
c-docomo2 + c-docomo3 で 40access/sec
c-au1 + c-au2 で 24access/sec
c-others1 は 12access/sec
アクセスはhttpdへの秒あたりのアクセス数です(access/sec)。
c系の場合そのほとんどがPHPの実行なので、PHPの起動回数と考えてよいです。
というわけで、DoCoMoのアクセス数はauの1.5倍よりは多い。
でも倍はない。
でも、pekoが2台必要だった。
それでもそれなりに負荷かかっている。というか、httpdのスロットが埋まっている。
で、トラフィックのグラフを見ていると、確かに不思議。
最初は計り間違いを疑ったぐらい。
でも、公式発表 (
http://server.maido3.com/pie/ )と比較しても、間違ってないみたい。
で、auが多いんではなくて、DoCoMoのinが異常に少ない気がします。
このへんにpekoが2台必要になる鍵がある気がする。
なんというか、コネクションが捌けない原因が潜んでいそうというか。
で、DoCoMoって、アクセスがとっても脈動的な気がするのですよ。 少しすいたなと思うと、どばっと押し寄せてくる。 寄せては返す波のように、脈動的にアクセスがあります。 というか、Apacheのスロットが埋まります。 ひょっとして、何か携帯からの出口でしぼっていて、上りのトラフィックの通信速度を、 わざと出ないようにでもしてるのかしら。< DoCoMo
>>515 INが少ないのは、URIが小さいって事かな?
だとすれば、docomoユーザはデフォルト設定のままの使用率が多いってことかも。
classicメニューの場合は、各種設定をURIに埋め込んでいるので、
違いがあるとすればそれくらいしか考えられないよな。
公式(
http://server.maido3.com/pie/ )を見る限り、逆にauやotherのINが多い気がする。。。
poundのうちの一つ(c-others担当)がしばらくおかしかった模様。 今リスタートしました。
poundが一つ詰まると、全部いまいちになるみたい。 何かのヘルスチェックを入れないといけない予感。
見てるとメモリリークじゃなくて、そのぐらい(200M)バッファメモリを使うみたい。< poundロードバランサ メモリ1G仕様で正解だったかも。
au+others→peko×1 docomo→banana×3〜4 て、ゆうのにしたら……。
うーむ、今日はpound不調すね。 いったんリブートします。< cの受け口
ふーむ。 poundでの振り分けを全部c-othersでやるのはちょっと苦しいみたいだなぁ。 (メモリを食うpoundプロセスが同じマシンで3つ動いている) c-auはc-au1に、c-docomoはc-docomo2に持っていくか。 (IPアドレスは5つまで使えるので、技術的には問題なし) でもc-docomo3の投入初日だし、今日はとりあえず様子見かなと。
あまりにも不調なので、poundの設定を見直し中。 とりあえず、 Client 300 Server 3600 Alive 10 を入れた。
docomo ってとっても設備(お金)かかるってことなのでしょうか
>>527 そのようですねぇ・・・
これ以上の設備投資は・・・
うーん、、、。 何かドラスティックな解決方法があるような気がするんだけどなぁ。
poundがやはり不調のため、緊急に作業します。 c系のアクセスいったんとめます。
ロードバランサーをpoundからpythondirectorに変更中、、、。
軽いや。すごくいい。 < pythondirector 1プロセスで全部できるのもうれしい。 ひょっとして、脈動問題はこいつが原因だったのかも。
configがxmlなんだよなぁ。今はやりかもね。 5分で作った、泥縄式。 <pdconfig> <service name="c-au"> <listen ip="206.223.150.146:80"/> <group name="c-auservers" scheduler="roundrobin"> <host name="c-au1" ip="206.223.150.95:80"/> <host name="c-au2" ip="206.223.150.140:80"/> </group> <enable group="c-auservers"/> </service> <service name="c-docomo"> <listen ip="206.223.150.147:80"/> <group name="c-docomoservers" scheduler="roundrobin"> <host name="c-docomo2" ip="206.223.151.215:80"/> <host name="c-docomo3" ip="206.223.151.210:80"/> </group> <enable group="c-docomoservers"/> </service> <service name="c-others"> <listen ip="206.223.150.148:80"/> <group name="c-othersservers" scheduler="roundrobin"> <host name="c-others1" ip="206.223.150.145:80"/> </group> <enable group="c-othersservers"/> </service> </pdconfig>
ロードバランサは軽く、しかもうまく一本化できたみたいなので、
>>525 は中止で。
あとは、これでしばらく様子見か。
夏WIN出たらauがすごいことになりそう 外部フォームから書き込み許可する方法模索してもらえませんか。 ●有りのみとかでもいいので。 そうすれば直書き型p2クライアントが完成するので開放できたりしちゃうんですが。(●´ー`●)
c-docomo不安定だね…見れたり見れなかったり。 スレはひらくけど続きを押すと「接続できません」
ロードバランサのログに socket.error: (24, 'Too many open files') とか出ていたので、 kern.maxfiles=65536 kern.maxfilesperproc=32768 にして、ロードバランサを再起動してみた。(従来はそれぞれ上記の半分の値)
DOCOMOだけど、レスポンスは悪くないのに全部読み込むまでにやたらと時間がかかるな。
>>546 まだ出るすね。< socket.error: (24, 'Too many open files')
FDをクローズしてないのかもね。
BlackGoatのLAN(フロント)側ってどの位の帯域を使ってるんでしょうか?
BG ←→2ch間でさえ深夜には20Mbpsに達しようという感じみたいなんで、
BGのLAN側のNICが100Mbps(でしたよね?)で大丈夫だろうかと思うんですが。
http://server.maido3.com/pie/ >>548 root★さん
ロードバランサ越しにアクセスすると、全ての送受信がロードバランサ経由になるのかな?
レスポンスの悪さはそのあたりに原因があるのかな?
ロードバランサのスケジューラをちょっと調整。
単純ラウンドロビンから、このときのコネクション数の少ないやつにしてみた。
scheduler="leastconns"
>>549 なるほど、みてみるか。
>>550 そうなりますね。
ということで、やっぱり
>>525 をやろうかなと。
>>518 既出ですが、
違うと言う事を言っておきます
ロードバランサ移動(c-others1からau用をc-au1に、DoCoMo用をc-docomo2に)の準備完了。 儀式依頼へと。
r.i p.i をほぼ全て止めた。 1) bbs.cgi の 板名/i/ の更新の停止。 2) 板名/i/ はそのまま放置? 3) あと何あったっけ?
>>555 お、live8とか、更新しときます。
bbs.cgiが少し軽くなると。
あっ まだ bbs.cgi の改造やってませんですー
>>557 あ、了解です。
止めるにあたって何をする必要があるのかと、そゆことですね。
>>546 出会い系サイトやってたときそんなログいっぱいだったなぁ
httpdがよく死んだし。OSはなんですか?
>>555 1)で板名/i/の更新が停止したのなら、2)で板名/i/からc.2ch.netの各板の
スレ一覧表示にリダイレクトするようにしてはいかがでしょ?
>>652 まだ止めていないけど、
リダイレクトするとすれば
どうやるのですか?
こんな感じ?
http://c.2ch.net/z/-/dqnplus/i 黒やぎさんが止まっているようですが、作業中なのでしょうか? そうでなければリブート要請いたしますけれども・・・
内側はpingかかるみたい。< blackgoat
内側からログインできました。< blackgoat マシンは動いてますね。スイッチ?
ホスト側は異常なさそうですね、、、。スイッチかも。 一応、リブートしかけます。< blackgoat
>>570 Muchas gracias.m(_ _)m
>>571 同時刻にcomic6もおかしかったみたいなので、
スイッチ側だったのかもです。
comic6:206.223.150.195
blackgoat:206.223.150.190
>>572 comic6 (banana388) はリブートしました。
for some reason.
>>573 了解です。
いずれにせよ、今は復旧したはず。
c-docomo2、落ちたかも。 表も裏もだめみたい。 しばらく待ってだめなら、リブート要請します。
とりあえず、c-docomoの入り口をc-docomo3に変更しませんか?
帰宅。体調いまいち。
>>578 それがちょうどタイミングの悪いことに、
負荷上昇に伴って、c-docomoをc-others1からc-docomo2に変更したばかりなのです。
うーむ。
c.2ch.netからの誘導をc-docomo3に直接行うとかは?
ログインしたとたんに黙った、、、。どうなってるんだろう。
ログインできたと言うことは、鯖は生きていそうって事かな?
ごくたまに(10秒ぐらい)pingかかるみたい。ううむ。
ping来るようになった。 でも、sshではいれない。 %ssh cobra2247.maido3.com ssh_exchange_identification: Connection closed by remote host
またping止まったかも。何が起こってるんだろう。
こういうアプローチは如何でしょう? ★httpd を inetd 起動にする。 といっても、inetd で起動するのではなく、svscan -> tcpserver -> httpd -F(fg 起動) にする。 (svscan 類は稼働してますよね?(^-^) ) ○利点 必要以上にメモリを食わない。接続数に応じて httpd が起動する。 httpd.conf に記述されている ServerType を standalone -> inetd に書き換えるだけ。 tcpserver -c num で接続数を制限出来る。 tcpserver -t sec. で timeout を設定出来る。 tcpserver -x filename.cdb でアクセス制御が出来る。 ○欠点 接続の度に httpd が起動するので起動コストがかかる。 httpd.conf で設定された、StartServers などのポート監視などの設定が無視される。(tcpserver に依存させるため) ★MySQL 鯖を切る 標準の PHP では enable になっているかと思うけれども、利用しないのであるならば MySQL を切る。 ○利点 無駄な daemon が減る。結構メモリを食べはります(泪)@MySQL さん ○欠点 おそらく ports では設定出来ないのかな?となると、ソースを拾ってきてコンパイルする必要がある。 (httpd へは DSO で食わせていると思うのでその点は設定変更は不要) 上記の設定を施した自鯖では今のところ支障なく動いています(^-^) @貧弱過疎鯖ですけれども(苦笑)
メモリ節約路線ですね。< 前者 daemontools等はもちろん動いてます(dnscache自分持ちだし)。 後者も、ありかな。(MySQLサーバではなく、MySQLとの連携機能ですね) MySQL使ってないなら、その部分の機能はいらないですしね。
>>563 FOX ★さん、
そのURLで問題ありません。
将来的にsubject.txtの整形&表示部分もコストを少なくしたいので、
/i/index.html でリンクして頂けると助かります。
c-docomo2でのpoundの起動方法を変えました。 これで、不可解なダウンは起こらなくなったはず。 # amd64なマシンだとdaemontools配下になぜかできないみたい。原因はあとでまた。
旧c-au/c-docomo(c-others1と同じホスト)からの臨時転送をとめました。 これで今は、 1)携帯からc.2ch.netにアクセスする 2)リダイレクトでc-au, c-docomo, c-othersに振り分けされる 3)携帯は改めてc-????にアクセスする (c-????は現在それぞれの現役サーバのうち一番若い番号) 4)c-????にいるpoundがはそれぞれのサーバにロードバランスする となります。
板名/i/index.html の更新終了 bbs.cgi ver 20040723
板名/i/index.html の中身はどうすればいいのだろうか、、、 1) 中身をどうする? 2) 板名/i/index.html へリンクしているところはあるんでしたっけ?
これでいいべか?
<html>
<head><title>移転しました</title></head>
<body>
<a href="
http://c.2ch.net/z/-/dqnplus/i/index.html ">移転しました</a>
</body>
</html>
おお、ちょと伝わっていない予感… 現在cでは、スレッド一覧を表示するのに、各板のsubject.txtをリクエストしているのですが、 出来ればこのコストは減らしたいなと考えています。 ですので、出来ればで良いのですが、 bbs.cgiが作成する/i/index.html(スレッド一覧)は、 r.iへのリンクではなく、c.2ch.netへのリンクに変更して頂けると幸いです、、、
しかし、2ちゃんねるのサーバの要求としては 各サーバの負荷を劇的に減らすために 携帯からのアクセスはすべて c.2ch.net 系が担当する という方針であります。 つまり c.2ch.net が担当するよりも、各サーバで担当するほうが 処理的には軽くても、追い出すという算段です。
なるほど、了解です。
そうしましたら、index.htmlの中身は、
<html>
<head><title>移転しました</title></head>
<body>
<a href="
http://c.2ch.net/z/-/dqnplus/i/ ">移転しました</a>
</body>
</html>
という感じでお願いできますでしょうか?
んじゃ再度。 板名/i/index.html の更新終了 bbs.cgi ver 20040723
>>605 了解です。
で、今blackgoatの様子がおかしいかも(昨日と同じ、外部側の不調か)。
これから確認します。
質問でーす
携帯でなく普通のISPから
http://c.2ch.net/ をみたらどうなるのが正解ですか?
sshでも入れないですね。リブート要請します。< blackgoat
>>609 了解デーす
でもすごく重いのは私だけ?
今blackgoatが落ちてるからですね。(
>>606 >>608 )
# 裏側からログインできたのでリブート要請キャンセルしようとしたけど、
# 間に合わなかった、、、。とりあえずどうせリブートだったから同じだけど。
昨日書きましたが、r.iをこの板のみ残すもしくはqb5のみ残すのは 無理ですかね。いまはPCからカキコしてるけど携帯が落ちてたときに 携帯からの手段がないと思うんですよね。。。 それかqb5のみau/docomo/othersの振り分けをなくすとか。。。
blackgoatはリブートされました。 これで元に戻ったはずですが、 外部側のネットワークインターフェースがとつぜんおかしくなる原因をつかまないと。 (昨日も起こったので)
live8, game6, news11, live12のbbs.cgiを更新。
>>605 >>615 ウホッ素早い。
いまc-docomo不安定ですね。500Errorが3〜4回に1回出る感じがする。
パフォーマンス出てないですね。< c-docomo系 とりあえず2台(c-docomo2/c-docomo3)ともhttpdをリスタートしてみた。
ここまでの経過、まとめを管理人に報告した。 さて、
>>620 おつでした。
バックエンドがおかしくなると全部が死ぬとか、
c-docomo系でパフォーマンスが出なくなる症状とか、
ロードバランシングはまだまだ調整が必要とか、
たまに120秒よりも遅延が大きくなるスレがあるらしいとか、課題はまだ相当ありますが、
ベースシステムは概ねこんなかんじかなと。
さて、今後の展望は。
index.htmlの中身ですが
<html>
<head><title>移転しました</title></head>
<body>
<a href="
http://c.2ch.net/z/-/dqnplus/i/ ">移転しました</a>
<BR>
<a href="
http://qb5.2ch.net/operate/i/ ">運用・障害情報はこちら</a>
</body>
</html>
はどうでしょう?r.i直リンはまずいかな?
>>622 各ページじゃなく、 c.2ch.net のTOPからのリンクが良いような、、、
若干の仕組みの手直しとして、現在 c-others と共用となっているけど
c.2ch.net に banana を専用に一台投入という事も考えて
そうなれば c.2ch.net 自体はそうそう落ちない気がするのだが、
将来的に/i/index.htmlは消すのかな?そうだと
>>622 は無意味か。
リロードし忘れ。
>>623 そうですね。しばらくtopにリンクで安定してきたらoperate/i/を削除のほうが。
c-docomo不思議な挙動しますね。120delayがうまく機能してないような。 ・立ったばかりのスレで2get等のカキコはdelay無視で即反映 ・カキコが少ないスレは120以上のdelayがある。 subject.txtの不釣り合いはどうしようもないところか。
squidのキャッシュヒット率が下がってるみたい。 設定の問題か。ちょっとblackgoatの様子をみてこよう。
そういえばリバースプロクシのsquid.confの設定ってどうなってます? 自分は cache_replacement_policy heap GDSF memory_replacement_policy heap LFUDA cache_dir null /tmp とかにしてる。
squidの設定はあんまりまじめに詰めてないです。見てみるか。
blackgoatのsquidはリバースじゃなくて普通のだから、cachr_dir nullはちょっと。 cache_replacement_policy と memory_replacement_policy はデフォルトです。 squidのリバースプロキシ機能は今のところ使ってないすね。 ロードバランシングはpoundを使用。 担当を3つに分けてからはそれなりにうまくいってるみたい。
あんまりかわんないなぁ。
1090597580.673 10385 192.168.0.101 TCP_SWAPFAIL_MISS/200 72252 GET
http://hobby5.2ch.net/drama/dat/1083775457.dat - DIRECT/206.223.150.10 text/plain
1090597580.673 10082 192.168.0.101 TCP_SWAPFAIL_MISS/200 66239 GET
http://game7.2ch.net/ogame/dat/1090506363.dat - DIRECT/206.223.151.135 text/plain
がたくさん出てる。
だったらcache_dir diskdのほうがヨサゲ。 Squidの開発者のベンチマークでもdiskdが桁外れに速いので推奨している感じ。 memory_replacement_policyについてはちょっと前のBSD Magazineでheap LFUDAを推奨してた。
>>637 diskdは最初試してみたのです。
で、なんかうまくいかなかった。(
>>142 )
また再挑戦してみるか。
memory_replacement_policyは、機を見て別途。
いまのところc-docomo安定してますね。ただ、まもなく16時。トラブル頻発の時間帯。
c-docomo2
c-docomo3
c-others1
質問でーす
転送量で docomo2 : docomo3 = 2:1 くらいになっているのは
どうしてなのだろぅ、平均化されないの?
http://server.maido3.com/pie/ >>643 >>594 にあるように、ロードバランサのプログラム(pound)が それぞれの一番若い番号で動いてるからすね。 今、 携帯──c-docomo (代表) ├c-docomo2 (実処理1) └c-docomo3 (実処理2) となっています(実体はc-docomo=c-docomo2)。 で、 携帯─2─c-docomo (代表) ├1─c-docomo2 (実処理1) └1─c-docomo3 (実処理2) というふうに処理していますが、c-docomo⇔c-docomo2の処理は同一ホストなので(外に出ない)、 外から見える転送量としては、 携帯⇔c-docomoの部分の2 c-docomo⇔c-docomo3の部分の1 が見えるわけです。 なるほどですー も一つ、別件ですが 現在 c.2ch.net での bbspink の扱いはどうなっているのでしょうか? 上位レイヤーからの要請はたぶん c.2ch.net と bbspink の完全切り離し ですので、c.2ch.net では bbspink は扱わない方向での作業になると思います bbspink は当面、従来どおりの r.i p.i で、
>>645 中身は中の方々でないとなんともいえないですが、
たぶんbbspinkとかは入ってるですね。
うーむ。 今現在BBSPINKには携帯用トップページがないから 2chから切られたらかなりかわいそうかも。
>>645 んじゃ、bbspinkはc.2ch.netから消しときま〜す
>>645 そのうち、c.bbspink.comを作る方向なのかな?
>>650-651 大人の時間は一旦復活
このあたりの人にちょっと投げかけてみます。
【Project ama】PINKちゃんねる特化型サーバ構築作戦 Part2
http://qb5.2ch.net/test/read.cgi/operate/1082721809/ >>645 FOX ★さん、
上位レイヤーというのは、どんな方なのでしょう?
もし完全に強制ではないようなら、
利便性なども考えると、残しておきたいですー
上位レイヤーというのはネットワークのレイヤーのことですな(^_^;) この場合第9層かな?
2ch外のサイトの閲覧に2chのリソースを使用することとかが問題になるのかな?
>>654-655 なるほど。。。ありがとうございます。なんとなく分かったような、、、
と言うことは、強制、なのかな…?
>第9層 ポリティクス層 ネット上の問題を政治的に整備 各国の法整備 ここか、、
うーん、 bbspinkで、携帯用鯖導入をしてもらえばよいのだが、、、
amaの方にも書いたけど。 私家メニューでの対応に問題がなければ、c→p.iのリンクで個人的には問題ないと。 でもこうなると、それこそi.bbspink.comが急務ですな、、 # まちBBSも対応打ち切りだろねぇ、
あ、この場合の9層って「ネットワークポリシー」とか「サイトポリシー」といったものだと思う、 つまり2chでいうと「ひ(ryの意思」かな、 # 公権力が絡んでたらそれこそガクブル(AAry
>>658 過去ログサーバもこっそり兼任してもらえると
●のグレーゾーンが消えて嬉しいかも
>>661 これかな?>ひ(ryの意思
709 名前:ひろゆき@どうやら管理人 ★[] 投稿日:04/02/01 12:03 ID:???
エロ系はその気になれば、それなりに回すことも出来るだろうけど、
おいらにやる気もないし、仕事人さんも望まないし、
Jimもそれを望んでない気がするのですね。
【PINKちゃんねる】 新サーバ獲得会議
http://qb3.2ch.net/test/read.cgi/operate/1069071468/709 桃色系は、ここ数ヶ月でかなり状況が動いている気がするのですよ。
トップページがきちんと整理されたり、広告掲載の仕組みができたり、
2ちゃんねるのインフラに依存してないヘッドラインができたり、etc.
ということでたぶん、
>>663 の状況も少しずつ変わりつつあるのではないかしら。
で、
>>639 ですが、
なるほどシステム値をいじってやる必要があるのですね。
機を見てやってみるです。
delayがうまく機能してませんね。120min以下もあれば1時間更新されなかったり。 ラジオ実況カキコんだら1時間以上更新されてないや
delayの動きの謎がちょいとわかったかも。 120delayは実行されてない悪寒。そのかわり前回カキコから今回カキコまでの 間隔分がまるまるdelayとして加算されてる感じがする。 こうだとすると2getや流れの早いスレで120delayが無視され、閑散スレで反映が遅いのも 納得がいく感じ。 なぜそうなるかはわからんけど
2ch→携帯スレにも書いたけど、23時頃からみれません エラーでます DoCoMoのFOMAのP2102浸かってます 2ちゃん見れないと激しく鬱です _| ̄|○
22〜23時にかけて軒並み負荷上がってましたね。 何かトラブルでもあったのかな?
http://server.maido3.com/pie/ を見ると
docomo2,3 au1,2 others BlackGoat と全部転送量がへこんでますね、
なぜだろう、、、
全部って事は、 一番前か一番後ろが問題だったと
推測できるんだけど、、、不思議。
あとで、root★さんに調べてもらいましょう。
>>670 とかのエラーと何か関係があるのかな?
あと、live8もほど同じ時刻に死んでいたみたいだけど、関係あるのかな?
>>671-673 倒れている主人に口頭で伝えました。
「申し訳ないけど、明日以降で・・・」
と言っていました。
>>674 お体にはくれぐれもお気をつけくださいと
お伝えください。。。
>>674 いつでもいいですよー
ちょこっと見た感じでは、特にエラーは無かったです。
横からすんません。ちと教えていただきたいのですが
Q.ネットワーク的に、携帯用の各鯖って comic6(banana388) と同じスイッチの下に
ぶら下がったりしていますか?
http://qb5.2ch.net/test/read.cgi/operate/1088767056/812 P.S.
root ★さん、お体をお大事に…
>>673 >>677-678 ふうむ、live8のダウンがおおいに影響していそうですね。
blackgoatが落ちたときはともかく、人気があるところが一つ死ぬとこうなるのは、、、。
>>679 >>572 にもあるように、アドレスが近いですね。同じスイッチなのかな。
昨日のcomic6の不調(live8が落ちてしばらく後にcomic6も不調になった)も、
何か関連しているのかも。
>>680 あ、どうもありがとうございます。元スレの方で、継続観測してみます。
今晩も起こるかどうか分かりませんがw
なんかレスポンスが悪いような気がする。 トップとかはそこそこ軽いが、スレッドは重い。 BlackGoatの負荷が重くなってるのかな?
転送量規制にかかっているとか。。。 と携帯から妄想してみる
>>685 例の、blackgoatが「あふれ出す」時間と一致してますね。
diskdいれてみるか。
まず、 cache_replacement_policy heap GDSF memory_replacement_policy heap LFUDA にしてみた。
diskdを入れるにはkern.ipc.msgmnbとかをいじる必要があって、 それはrebootしないとだめ(sysctlでは不可)みたい。 というわけで、アクセスの多い今の時間はとりあえず保留。
cache_mem を 80 MB に増やしてみた。 負荷が下がったみたい。
あと、cache_swap_lowとcache_swap_highはどうすればいいのかしら。 ちなみにキャッシュディレクトリ(ディスク)は十分おおきいです。
>>690 横からすんまそん。
cache_dir で指定したキャッシュの容量が大きければ、cache_swap_low _high の
差は数百Mbyteにもなるかもしれません。そのためこの2つの数値を近づけた方が
いいかも… って記述しかありませんなぁ…
とはいえ、_low、_high ってヒステリシスなしきい(←なぜか変換できない(素))値やから
あまりシビアな設定にすると、酷い事になりそうやし。
とりあえず、デフォルトの 90、95 で様子を見て調整という、いつものパターンでしょうか?
#IME2002のあふぉたれめ。閾が「しきい」で変換できんやんけ
「しきいち」でも「いきち」ちゃんと閾値ってでるぞ IME2000
>>691 実際に大きいので、近づけてみるか。
もうちょっとしたら、blackgoatの設定変更やります。
DDoS食らってる状態になるんだよ みんなリロードしまくるでしょ
diskd化完了。 結局、以下をblackgoatのカーネルに入れて再構築&リブート。 # for squid cache options MSGMNB=16384 # max characters per message queue #options MSGMNI=40 # max number of message queue identifiers #options MSGSEG=2048 # max number of message segments in the system #options MSGSSZ=64 # size of a message segment (Must be 2^N) options MSGTQL=1024 # max amount of messages in the system
ちょと確認させて頂きたいのですが、 メニューの中身があるサーバは、 c-au1.2ch.net c-au2.2ch.net (docomo1.2ch.netと同じ) c-docomo2.2ch.net c-docomo3.2ch.net c-others.2ch.net (c-others1.2ch.netと同じ) の5種類ということで良いでしょうか?
>>697 c-othersのところは他同様、以下が正しいかと。
c-au1.2ch.net
c-au2.2ch.net (docomo1.2ch.netと同じ)
c-docomo2.2ch.net
c-docomo3.2ch.net
c-others1.2ch.net
maximum_object_size_in_memory をデフォルト(8kbytes)から 1024kbytesにふやしてみた。 これで、datがうまくメモリに乗るようになる? # TAG: maximum_object_size_in_memory (bytes) # Objects greater than this size will not be attempted to kept in # the memory cache. This should be set high enough to keep objects # accessed frequently in memory to improve performance whilst low # enough to keep larger objects from hoarding cache_mem . # #Default: # maximum_object_size_in_memory 8 KB maximum_object_size_in_memory 1024 KB
>>701 done.
c-docomo[23]、調整中&済み。
c-au[12]、これから少し調整します。
LAそのものはそれほどでもなく、入り口で詰まっているようなので、 様子をみながらhttpdの数を増やしてみた。< 各c-xxxx
臨時にアクセラレータをはずしてみる。もたないか、もつのか。< c-docomo2
ん、アクセスが多いときは、苦しい模様。< c-docomo2 アクセラレータ(キャッシュ)を入れるとamd64ではやや不安定。 アクセラレータをはずすととてももたないのか。
c-docomo2、ほとんど瀕死かも。 c-docomo系が死んだら、c-au系やc-others系のhttpdが捌けるようになった。 blackgoatのI/O処理が滞っていたのか。
Zend-optimaizerの方にしてみるとか。。。
root ★さん、 参考までに、docomo2でのスクリプトの各ポイント毎の単純な処理時間です。 総処理 = 0.50580286979675 ├初期化 = 0.0017189979553223 ├スレッド表示 = 0.50293588638306 | ├ソケット接続〜切断 = 0.5008430480957 | └上記以外の処理 = 0.0020928382873535 └上記以外の処理 = 0.001147985458374
やはり、datを全て読み込んで処理するので、そこがネックになっているようですね。
どうも。
>>710 datをとってくるところが重いですか、、、。
c-docomo2、ログインもできないぐらいつらい状況。
しばらくだめだった場合、リブート依頼します。
BlackGoatへのソケット接続〜切断までの間では、 "レス番1と指定のレス10個分を配列に格納する"という以外の処理は行っていないのですが、 最新10スレッドなどの表示では最後まで読み切らないといけないので時間がかかりますね…
これからリブート依頼します。< c-docomo2
>>712 そうですね。
blackgoatのディスクはストライピングにして、
かつnewfs -b 65536 -f 8192などとやってあるのですが、
そろそろI/O性能が苦しい状況なのかも。
今比較のために、一時的にaufsに戻してみた。
*感覚では*、diskdのほうが遅いような気がします。
統計的にも「漏れる」量が多いみたい。< blackgoat
>>712 初期読み込みのデフォをレス番1〜11に変更してみては?
それで統計取ってみて、最新を取る回数が多かったら戻すとか
デフォルトで、1〜11が表示されたら、その後、最新レス10を実行するから、 余計負荷がかかってしまう。
cache_dir diskd /usr/local/squid/cache 100000 16 256 を、 cache_dir diskd /usr/local/squid/cache 100000 64 256 にして、squid -zの後にdiskdモードを復活させてみた。
>>715 さん、
以前i2chでの統計を取ったのですが、
全アクセス中1/3が最新スレッドへのアクセスでした。
ですので、やはり
>>716 ◆BFzK/mtqM2さんの仰る通りになってしまうかもです…
cobra2247にログインできました。リブートして、調整中。
cobra2247 = c-docomo/c-docomo2
設定更新&リブートかけました。正常にもどったはず。
こんどは、BlackGoatがおなかいっぱいか。 LAは低いけど(プロセスが多いわけではないので)、ディスクI/Oがかなり苦しめの予感。 Disks ad0 ad1 KB/t 25.34 22.48 tps 133 141 MB/s 3.29 3.09 % busy 75 82 %iostat -w 1 -c 10 tty ad0 ad1 cpu tin tout KB/t tps MB/s KB/t tps MB/s us ni sy in id 0 39 25.71 63 1.58 22.53 68 1.49 19 0 29 16 37 0 180 17.53 47 0.80 18.17 48 0.85 39 0 45 16 0 0 59 25.94 200 5.07 24.00 201 4.71 28 0 63 9 0 0 59 31.13 260 7.89 30.37 272 8.08 34 0 61 5 0 0 239 20.51 90 1.80 18.86 97 1.79 32 0 44 25 0 0 59 25.98 164 4.17 22.70 152 3.38 39 0 50 11 0 0 59 23.82 89 2.07 20.53 98 1.97 29 0 45 26 0 0 59 23.95 160 3.75 22.97 146 3.27 39 0 51 10 0 0 59 26.05 81 2.06 22.52 91 2.00 36 0 35 28 0 0 60 26.57 278 7.21 21.11 278 5.73 36 0 64 0 0
パフォーマンスが出ないため、
>>717 を前の設定 (16 256) に戻した。
お疲れ様です。 BGへのタイムアウト、もう少し短くしてみますか?
bbs.cgiで、逆順のdatも作るようにし、c.2ch.netやread.cgiの初期読み込みではそちらを 使うようにするとか。 キャッシュヒット率が下がって逆効果かな?
>>724 今dat取得のタイムアウトは5秒でしたっけ。
タイムアウトを早めると、タイムアウトが頻発するのかな。
今ちょと新しいスクリプトをあげてテストしているのですが、 先程の重い時間帯で3秒設定だとまずタイムアウトです。 5秒でもほとんどタイムアウト状態でした。
タイムアウトで 「今BlackGoatが思いです。。。」とか表示すれば、 リロード抑制にもなるかもですね、、、 5秒超にはしたくない感じです。
大規模squidのボトルネックはHDD回りなので、できればcache_dir用にスライスを確保したほうがいいかも。 noatimeは当然として。 asyncでもいいかも。 容量があんまり小さいスライスだとoptimize TIME to SPACEを食らうので4倍以上で。 あと外周部分にあるとうれしいので/の次に確保してたり。
>>729 いまこんなかんじ。
ccd使って、2本のIDEディスクをストライピングで使用。
/dev/ccd0は、newfs -U -b 65536 -f 8192で初期化。
%pwd
/home/squid_local/cache
%df -k .
Filesystem 1K-blocks Used Avail Capacity Mounted on
/dev/ccd0 136319544 35531976 89882008 28% /home
%mount | grep home
/dev/ccd0 on /home (ufs, local, noatime, nosuid, soft-updates)
%cat /etc/ccd.conf
# ccd ileave flags component devices
ccd0 64 none /dev/ad0s1f /dev/ad1s1d
ひどいときには両ディスクとも% busyが80%ぐらいになるですね(
>>722 )。
途中割り込みでスマソです。
>>730 IDEのストライピングだとつらそうですね。
かといってUltraSCSI320のそれにしようとすると余計な投資になるし・・・
blackgoat自体がキャッシュサーバですから
RAMディスクで捌くってのは・・・すでにやっているんですかね。
>>731 メモリディスクか。
現時点では入れてないですね。
squidのプロセスが400Mを超えるようなので、メモリディスクはちょっとどきどき。
というか、入れるとしたらどこがいいのかな。
>>732 その400MBプロセスなsquidってどこのやつですか。
>>733 あ、blackgoatのでつねw
wikiに書いてあるの忘れてたw
ちょっと考察。 携帯からのある意味実況レベルに近い通信要求を バックエンドを1台で捌くというのはかなりきついと思います。 しかもblackgortが落ちたら携帯からのアクセスは不可能。 投資ができるなら、の話ですが、 もう1台バックエンドを用意して負荷分散させたほうがいいかもしれません。 どちらかのバックエンドが落ちたときにバックアップさせるという意味合いもあるし。
1) フロントエンドを充実させて需要に見合う供給をおこなった。 2) 当然、BlackGoatは大忙し、 3) この大忙しを解決する方法は当初の予定通り、BlackGoatの仕組みで行う というように順調に予定通り進んでいるということですなぁ。 せっかく作り出した重い状態。せっせとデータを取らなければ、、、 BlackGoat の各種データをとって、思考実験(机上演習)です。 帯域等は現在取っているので、アクセス数やそのへんも何とか データが取れないかな? とい段階かと、 BlackGoat を増設するのは考えないで行きます。 だってすぐ解決しちゃうもん。
>>735 負荷分散しても片方が墜ちると共倒れになる悪寒ですよね。。。@基本的に片肺でも生きていかないと・・
ちょっと考察。
最新 10 スレの取得方法案。
HEAD で DAT の Content-length を取得。
Content-length から 20480 引いた場所から末尾まで取得。( 1 レスは最大で2048Bytes でしたっけ?)
Range: bytes=(Content-length-20480)-(Content-length-1)
\n を区切りにして、末尾から 10 レス取得。
my @Part_Log = (reverse split /\n/,<DAT>)[0..9];
演算が増えるけれどもその分、 DAT 採取のコストが幾分か下がるのではないかと。。。
もしかして、分割して取得するとキャッシングがうまく効くのかな? 例えば。。。 活きのいい DAT があっても、全取得となるとキャッシュが効かないはず。 でも、例えば先頭から 4KB は活きが良くても悪くても、内容はあぼーんが入らない限り変わらないはずなので、 この部分は ETag: を使って照合すれば、うまくキャッシングされているのではないだろうか?と。 ただし、ETag の管理をするために、また複雑な操作が必要になってくるかもかも。。。 (殊に呼び出し側の c-* 族の I/O 処理とかとか)
>>736 そのとおりっすねぇ。
いろいろ試行錯誤してるわけですが、スキル不足のためなかなかはかどらず。
なかなかつらいすけど、いい経験させていただいているぐらいに思うのがいいのかも。
アクセス数は負荷を上げない方法でぜひとりたいですね。
例えばどの時間にどの板に要求が多いのかとか、とりたいことはいろいろ。
>>735 >>737 バックエンドを2台(横並び)体制にするなら、何か考える必要があるすね。
いずれはそうなることも視野に入れる必要がありそう。
そこで、BlackGoat に疑惑が集まっているのですが、 この辺が明らかになればいいなぁ。。。 1) 観測された c.2ch.net に起こった現象 (docomoが重いとか、) 2) 推測される原因 (BlackGoatの反応が遅すぎ) 3) BlackGoat に起っているであろう現象、具体的な症状の推測 (LA の増大とか) 4) 実際にその具体的な症状がせ起っているか、 5) 起っているなら、解決策は? ここで重要なのは、 3) -> 4) の関係です。 3) で推測して、実際に 4) で現象が起っているかどうかの確認。 確認手段が無い場合は、手段を作る。逆に、こうすれば解決するのでは? という作業は間違っても行ってはいけない。
>>740 > 逆に、こうすれば解決するのでは?
> という作業は間違っても行ってはいけない。
きもにめいじます。
>>740 で、いまのところ起こっているのは、ディスクI/O負荷の増大なわけです。
あとは、苦しい時間(昼とか夜23:00ごろとか)に、キャッシュの効きが悪くなる。
いずれにせよ、観察・確認できる手段をなんとかする方向で動いてみます。
とりあえずsnmpあたりでつついてみるか。
>ディスクI/O負荷の増大なわけです という推測があった場合、 じゃ具体的に、定量的に BlackGoat でどういう数字がでているかを推測して かつ実際に計測して、どうなっているか、、 もし推測と実測値が極めて一致したならば 最初の命題「ディスクI/O負荷の増大なわけです」 という推測がかなりピンポンであるといえるかと、 もし他にもこの図式がなりたてば、ほぼ確実といえるかと、
>>740 資料が無いのでどうしても机上の空論だけになってしまいますよね(汗)
って事でもうしばらく静観してます m(_ _)m
>>739 そうですか。
現状では1台でなんとかなっていますし、
今のうちに問題点を洗っておいたほうが良いという
>>736 の狐の内臓の人の意見には同意です。
とりあえず
>バックエンドを2台(横並び)体制にするなら、何か考える必要があるすね。
>いずれはそうなることも視野に入れる必要がありそう。
みたいな認識で十分かと。
>>732 400Mって。
squid.confはちゃんとmemory_pools offになってますか?
デフォルトはonなのですがメモリ管理はカーネルに任せた方がいいのでoffにしないと。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/loveaffair/ >>746 いまこんなかんじすね。
PID USERNAME PRI NICE SIZE RES STATE TIME WCPU CPU COMMAND
32057 squid -8 0 398M 395M biord 59:41 20.41% 20.41% squid
memory_poolsはデフォルト(on)。
onとoff、どっちがいいのかな。
# blackgoatはmemory 1G積んでます。squid以外の仕事はしていない。
うすうすわかってはいたけど、深夜の時間(混む時間)は、
リクエスト数はあまり変わらないのに、キャッシュヒット率が下がる。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/loveaffair/blackgoat-hits.html で、datをひんぱんに外に取りに行くので処理に時間がかかるし、
その分携帯とのコネクションも滞留する。
この原因は何だろう。
夜の時間は「いろんなところのスレが参照される」から、キャッシュにない場合が増える、
ということなのかな。
で、リクエスト数自体がその時間もあまり変わらないのは、
ひょっとすると携帯ネット=>インターネットの間で、何かのリミッターが入っているのかも、かも。
パケット落ちはないから、ネットワークまわりやスイッチ関係じゃなさそうだなぁ。 --- comic6.2ch.net ping statistics --- 201 packets transmitted, 200 packets received, 0% packet loss round-trip min/avg/max/stddev = 1.948/10.371/116.189/14.277 ms
う、激しく誤爆した。 OpenJaneを立ち上げなおそう。すまそ。
memory_pools はoffのほうが良いです。 BSD Magazineのシステムチューニングの回参照
こちらにも。
携帯→2ch運用情報スレッド10
http://qb5.2ch.net/test/read.cgi/operate/1089186698/639 639 名前:root ★[sage] 投稿日:04/07/29 11:46 ID:???
キャッシュ効果の観察のため、いったんblackgoatのキャッシュをゼロクリアしました。
その影響で数分間、c系が不安定になったかも。
今は正常に戻ったはず。
>>755 にすると、
2004/07/28 20:38:59| assertion failed: comm.c:751: "p != NULL"
というエラーが出て、squidが死ぬ模様。
後で調べることにして、いったん退却(memory_pools onに戻しました)。
>>757 8. Key changes squid-2.5.STABLE5 to 2.5.STABLE6:
* Several "Assertion error" bugs fixed
これの関係かしらん?
>>758 今のもの:
2004/07/28 20:41:01| Starting Squid Cache version 2.5.STABLE5 for i386-portbld-freebsd5.2.1...
…つまり、STABLE6にしろと。
だめですね。やはり出ます。 2004/07/28 21:54:12| assertion failed: comm.c:751: "p != NULL" もとに戻しました。
>>759 http://www.squid-cache.org/bugs/show_bug.cgi?id=761 こちらを判らないながらも眺めてみたのですが、違う種のアサーションエラーみたいですね。
でもって、最新の ports が存在するのかな?(@まだ ports の仕組みが判ってなかったりもしますけれども(苦笑)
・・・と書いているうちに、、、
>>760 おつですおつですm(_ _)m
この一時間のcomic6の様子ですが、、、 comic6.2ch.net サーバ .dat 呼び出し回数 = 59632 deny from 206.223.150.190 #(7465) 12.52% BlackGoat からこんなにたくさん。。。 これで正常なのか、異常なのか、
>>764 15:00(JST)台ですか。
アクセスログを確認してみます。
まだログを見ていませんが、今日の昼にやった
>>756 の作業が影響しているのかもです。
>>764 >>763 投げるべきでしょう。結果は期待できないですがね。
「やるべき事」と本質がずれてしまいますが(squid の bug 探し、潰し)… squid 本家に投げてみるというのも、手かもしれない。 bug track 見てる限りでは、comm.c での assertion faild は出てないみたいですね。 チト source 引っ張ってきて覗いてみたら、 1.何か(すんません、真剣に見てません)の handler 削除のために、 comm_remove_close_handler() call 2.削除対象探索 in comm_remove_close_handler(), comm.c が、探索のキモの部分が for(xxxx; p != NULL; xxxx) になってて、探索対象が 見つからなければ、for() を抜けて、assert(p != NULL); で落っこちる。 つうことで、多分 memory_pools off の時に、無用な comm_remove_close_handler call が起こってるんでしょうなぁ。
んーそこで落っこちるということはsquid.confで矛盾した設定をしているような気が。
【.htaccess】読みこみできない【規制作戦】 http://qb5.2ch.net/test/read.cgi/operate/1082968554/868 でポイントした、 http://pc5.2ch.net/test/read.cgi/linux/997328024/182-189 にあった、 > reload-into-imsはno-cacheとreloadの命令をIf-Modified-Sinceの > リクエストに変えてしまうもの。つまり無いのに、あるかのように装って差分だけ > 送れと言うわけなのれす。 を読んで、reload-into-ims も追加設定してみた。< blackgoat http://qb5.2ch.net/test/read.cgi/operate/1082968554/866-868 refresh_patternのminの値は最終更新日時があると参照されない
>FRESH if lm-factor < percent, else STALE
ここでSTALE(古い)と判断されたときoverride-lastmodが有効だと
>FRESH if age < min
>else STALE
これがテストされる(minの値が参照される)
ということか。
つまり、今まで120delayはまったく効いてなかったということだな。
DATをかっさらう悪用で.htaccessで携帯メニューをダウンさせる不届きものが…。 (パクリトロスの2ちゃんねるアーカイブとか言う香具師) 対策しないと、c.2chに円滑に移行出来た所で本末転倒では…。
ただいま帰宅しました。 とりあえず、i.i2ch.netの方は再開しました。 さてこのあとどうしましょうか? > ひろゆきさん、FOX★さん、root★さん (1) 現状のまま219.113.242.218から直接差分を取る。 (2) GlackGoatを通して差分を取る。 (3) GlackGoatを通して差分せずに取る。 (4) 私家版GlackGoatを作るって、そっちで(2)か(3) 他の私家板(domo2.netなど)にも、開放できるように(4)というのもありなんじゃないかと思ったりして、、、
>>776 たぶん
×GlackGoat
○BlackGoat
BlackGoatが落ちたりしたら、私家版全てが使えなくなるってのモナー。 今回のはミラーでディレイ0秒になってたからでそ。 ディレイ60秒くらいにしてやれば、問題ないのでわ?
実況でディレイで新着が見られない ↓ 新着と同じレスしてしまう ↓ 重婚発生 ↓ 鯖資源の無駄
そもそもディレイなしでも携帯で実況すれば 重婚しまくると思われ
ディレイ調節は、不便だけで、あまり絶対的な効果はないような???
>>785 間にBlackGoatのような
大規模キャッシュがあり、
同一スレについて複数
リクエストがあっても、
最低60秒は更新しない
とかなら有効だと思います。
有効ではなく絶対的な効果があるのか?と聞いているのですが…。 単純な個人ユーザーにとって、2分間のディレイは大変な不便を感じています。
>>783 と同様の事になる。
あと、実況以外でも”からけよめ”と煽られる。
絶対的な効果ありまくりです(^_^;)2chの掲示板サーバの負荷が二桁くらい下がる
システムが落ち着いたら、c系のディレイ60あたりにしません? 120は結構不便なような気がするのですが、、、
>>787 不満でしたらマシン代を寄付してやって下ちい
>>root ★さん、
質問なのですが、
現在c.2ch.netにアクセスすると、各キャリアごとに振り分けられたサーバにリダイレクトされます。
DoCoMoなら、c-docomo。(
http://c-docomo.2ch.net/z/-/1C/i )
auなら、c-au。(
http://c-au.2ch.net/z/-/1C/i )
その他は、c-others。(
http://c-others.2ch.net/z/-/1C/i )
1)
このドメイン部分をc.2ch.netで見せることは可能なのでしょうか?
つまり、実際はc-docomo2やc-docomo3に振り分けられていても、
アドレス上はc-docomoであるのと同じように見せることは可能でしょうか?
2)
例えば他キャリアがそのアドレスにアクセスしたときに、
そのキャリア用のサーバにリダイレクトすることは可能でしょうか?
つまり、auで(
http://c-docomo.2ch.net/z/-/1C/i )にアクセスした場合、
(
http://c-au.2ch.net/z/-/1C/i )にリダイレクトすることは可能でしょうか?
3)
もし上記どちらかが可能な場合、それを行う上で何か不都合なことは発生しますでしょうか?
昨日の20時ころからHIT率が下がっているけど、何か設定変えましたか?
5分遅延すれば実況とかチャットとかは機能停止させられるような
c-docomo2の負荷が突出してる(^_^;)なんだろう?
>>796 c-docomo3 の 16:03 JST(00:03 PST+8PDT) の cron で、何かがすっころんでる悪寒ですね。
c-docomo3 の中には入れないのであくまでも悪寒ですけれども。
>>797 と思ったら直った。。。
何かがすっころんだのではなく、処理が重たかっただけなのかな?
を見る限りでは正常稼働していたようですので。
もどったーね(^_^;)
綺麗に負荷が出てるなぁ・・・・
海外出張中につきレスポンス悪いです。
>>792 1)技術的にはもちろんできますが、そうすると全部1箇所で処理するようになりますからね。
ちょっと負荷的に。あと、cに何かあったときに全部落ちることにもなるので。
携帯だとブックマークに入れて処理する人が多いようなので、
最初の振り分けのところは、あえて名前を変えて飛ばすようにしていたりします。
2)これは簡単です。
3)2)は不都合ないしそれによる副作用も特にないので、入れてみてもOKです。
でも、意味あるのかな。
わざとアクセスしないと、auでc-docomoにアクセスすることはないような。
>>794 夜の時間とか昼休みの時間は、どうも多くの板の多くのスレにアクセスがいくようで、
ヒット率が下がる傾向にあります。
時間あたりのアクセス数が多くならないのは、ひょっとすると携帯キャリア側で
何か口を絞っているのかも。
>>796-799 例のdaily処理問題かも。ううむ。
>>800 > でも、意味あるのかな。
> わざとアクセスしないと、auでc-docomoにアクセスすることはないような。
そうでもないです。URLを貼る場合に、仕組みを知ってる人ならc.2ch.netに置き換えて貼るでしょうけど、
知らない人はそのまま貼るでしょうから。
>rootさん 海外出張お疲れ様です。 こまめに水分補給してくださいね。 なるほど、確かにアクセスが増加する昼時と夜は下がりますね。
>>800 ありがとうございます。
そうしましたら、2)を入れて下さると幸いです。
これは
>>801 さんも仰っている通り、
誘導レスがあっても、キャリアが違うと人大杉になってしまう、
という問題の解決のためです。
これにより、以前指摘された、
削除依頼時や誘導時の不便さもある程度解決されるかと思います。
read.cgiや各2chブラウザなど各ツール側で、
レス整形時にc.2ch.netに書き換えて頂ければ問題無いのですが、
それですと大掛かりになってしまいますので、
Love Affair側での対応で何とかできればと思います。
よろしくお願いいたします。
>>root ★さん、
もう一点お願いしたいことがあります。
●に対応する為に、CURLを入れて頂きたいです。
http://search.net-newbie.com/php/ref.curl.html http://curl.haxx.se/ 現在は、◆BFzK/mtqM2さんのご好意の元、
◆BFzK/mtqM2さんのサーバで認証を行っておりますが、
そちらも c.2ch.net で行えるようになればと思います。
お手数をおかけ致しますが、よろしくお願いいたします。
>805訂正。
× 本日、2:40頃に
>>497 の機能削減版スクリプトを導入いたしました。
○ 本日、2:00頃に
>>497 の機能削減版スクリプトを導入いたしました。
>>807 さん、
そうなんですー。
パケ代削減、という枷を外したので。
今後の段階としましては、
1) 表示スレ数、レス数等を設定できるようにする
○読込数の抑制
×転送量の増加
2) 最新10スレッドを、/板/html/xxxxxxxxxx.htmlから取得する
○ソケット接続時間の短縮
×キャッシュヒット率の減少
をやっていこうかと。
それぞれ長所短所がありますので、まずは数値をはじき出すところから。
一度に表示するレス数だけでも設定できるようにできないでしょうか?
それよりもレス全文表示の設定出来るようにして〜 省略表示だと見るのがめんどくさ〜
以下のサーバを 2ch LAN (c.2ch.net用)に接続しました。 oyster244 oyster245 banana402
oyster244とbanana402は何に使うのかな?
ハードウェア不良で掲示板運用を離脱したbanana402、こちらで戦線復帰ですか。 で、blackgoatはあくまでソフトウェア的解決を目指すということなので、 単純な予想 cobra2244 = c-docomo4 banana402 = c-au3 or c-others2
banana402をBlackGoat2にして、負荷分散で cobra2244はBBM関連かな?
BBMってoyster245でやってたような。(m.2ch.net) 244はドコモの3台目(4台目?)になると予想。
auをpeko鯖にして、 BlackGhostの負荷耐性がどのくらいか チェックするんじゃなかったけ?
c.2ch.net系列のメンテナンスをさせて頂く事になりました。 docomo3のLAが 20040807 16:00 から、 前比2倍くらいの数値を出しておりますが、 この時間、何か設定等変更されましたでしょうか?
じさぼけぼけ。
>>818 おお。(今後とも)よろしくお願いします。
その時間は特に触ってないですね。
>>819 お帰りなさい&よろしくお願いします〜
了解です。
先程、16時前後に最新レスに限って、
xxxxxxxxxx.htmlをリクエストするように仕様を変更しました。
BGのキャッシュヒット率の動向に注目したいですー。
>>820 やっぱり変えたですか。html/の下を持ってきているのかな。
「どうしたんだろう」というぐらい、効果ある模様。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/traffic/ というわけで、クラシックメニューが元のバージョンに戻ったのを契機に、
バックエンドサーバとしてのpekoサーバの能力を実証実験中。
携帯→2ch運用情報スレッド11
http://qb5.2ch.net/test/read.cgi/operate/1091869644/220-240 残りの作業は、 ・違ったキャリアのURLへのアクセスから、正しいキャリアのものに誘導するしかけ(難しくない) ・クラシックさんからメールで頼まれた作業をぼちぼち かな。 で、一両日様子を見た後で、フロントエンドにもsquid入れて、 Apacheがブロックしないように策を練ってみるか。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/loveaffair/ ということで1日動かしました。
まだ継続的な観察が必要そうですが、
blackgoatの倍のヒット率を処理できている模様。
またblackgoat2では、今まで観測されていた
アクセスピーク時におけるキャッシュヒット率の急激な低下=>トラフィックの漏れ出しが
かなり少なくなったようです。
つまり、
ピーク時間に漏れ出るトラフィックが少なくなる => ピーク時間の他のサーバへのdatリクエスがト減少 => 負荷軽減
という効果があったと。
>>827 × blackgoatの倍のヒット率を処理できている模様。
○ blackgoatの倍の時間あたりヒット数を処理できている模様。
おやすみなさい。
まちとぴんくを一旦c.2chに復活させて、実際に転送量がどれくらいあるかをみませんか? とりあえず黒山羊さん1号に飛ばしてみるとか、 もう一台のbananaを黒山羊さん3号にして、別々にプロキシ設定してみるとか、、、 ところでFOXさん、まちも分離の方向でよいのですか?
>>829 桃色系をblackgoat1号で処理して統計とるというのは、
仮にPINKちゃんねる側で今のc相当のものを準備する場合、
どの程度の設備が必要かの判断に使えそうですね。
PINKちゃんねるは現在拡大路線なので、これによって必要な設備規模がわかり、
かつ設備に対する効果が有用であるという判断がなされれば、
はれて投入の道も開けるかと。
ということで一時的に期間限定で復活させて、データとってみますか。
blackgoat1号のほうは、昼ぐらいまでにいったんキャッシュクリアして前準備しておきます。
>>830 そうですね。
Banana1台ですむのは明らかだろうけど、
実際にどのくらいの規模なのかいまいちつかめないので、、、
ソースの方はいじっておきますので、準備が出来たら連絡ください。
設定したです。 c-au2(c-docomo1)が重い。。。 どうしたんだろう?
ping traceroute それぞれは通りますが、http 、ssh は不出。 ftp 劇重たいですね。。。@banana404
おつでした。 たしかにようすがへんだ。みてきます。> c-au2
数分でログインはできる模様。
>>835 あ、ちょっと待っていただけると。
9:21PM up 21 days, 12:43, 2 users, load averages: 333.31, 283.91, 192.05
>>840 おつです。
新しく入れたPHPをキャッシュするところで何か起こったのかな?
それとも、変更したもののバグ?
>>837 I'm freeze it.(^-^;)
なんだかわかりませんが、httpdが超高負荷状態に。 エラーログにはこんなものが。 httpd in free(): error: recursive call httpd in free(): error: recursive call
syslogとかには、ハード異常とかそれっぽいのは見当たらないなぁ
その他のログにも、変な形跡はない模様。 更新したところで起きたようなので、アクセラレータとのからみの問題か、、、。 しばらく観察ということで。
やっぱり、スクリプトを入れなおしたときに、何か起こったのかな。。。。
>>830 広告関係でオーナーから物凄いクレームが毎回来るので
出来ればやめて欲しいです(or 物凄く短期間にして欲しい)
頼みます、頼みます、
何度激しく起られたことか、、、
>>847 了解です。
1日限定ならOKかな?
もっと短く?
まずは、2ちゃん管轄の広告を消しましょうか? あと、可能であれば、ぴんくちゃんねる管轄の広告をだすとか、、
実験でやるなら、やらないで欲しい、 向こうも広告の方は統計とっているので直ぐに変化がわかるから、 完全に分離してくださいー つまり c.2ch.net からは bbspink.com はどんなことがあってもアクセスしない。 たぶん そのうち deny等 する事になると思います。 よろしくお願いします。
>>847 そういう事情ですか。
では、24時間限定でいきましょう。
明日の14:00でばっさり止めるということでいかが。
で、
>>849 は、c.bbspink.com (仮)とかを作る方向で考えればいいかなと。
( 参考
>>830 )
了解です。 じゃあ、中止しましょう。 ぴんくちゃんねるで、本当にc.bbspink.comが必要になったら、その時にやりましょう。
(1)今すぐやめる (2)1日限定 (3)c.bbspink.com(仮)を作る どうしましょうか?
質問です c.2ch.net を一週間ぶっつづけでダウンタイムなしで動かすには どうしたらいいのだろう? さらに一ヶ月だったら?
>>850 >>852 了解です。
そこまで理由が明確であれば、「分離する方向で」ではなく「今後完全分離」かと。
c.bbspink.com についてはbbspinkの板などと同様、bbspinkのオーナー・スポンサー方面の意向で。
>>854 私は「明日の14時までに限定、今後c.2ch.netでの復活なし」でよいと思いますがいかが。
>>855 系全体として、c系のサービスダウンをさせないように、という意味だと理解しました。
金がかかる方法(力技)はたぶんいろいろあるけど(わりと確立している)、
できるだけ知恵で解決できないか、というのが質問の趣旨かしら。
>>857 すべての方法の中から、最善手を考えたいです。
「サーバを六台投入すれば一ヶ月もつ」とかが知りたいです。
なるほど。
>>858 それじゃ、これまでわかったことを下敷きに、グランドデザインを考える必要がありそうだ。
大方針a)落ちないように、専用の機器等を使ってガチガチに固める
大方針b)落ちるものと仮定して、一部マシンが落ちても大丈夫な構成でシステムを組む
が、まず大きな分かれ目になりそうですね。
# 個人的にはb)乗りです。
で、「見切り」をどこに作るかが次のステップか。 例: フロントエンドとバックエンドを接続しているネットワークはこわれないとみなし、二重化しない、等
勝手にいろいろい仮定して一つの案を出してみると、 仕組み的にはこれまでやってきた方法の延長線上でok (新しい仕組みを作るにはさらに数ヶ月かかりそうだから) で、知恵も絞りつくしてあとは若干の性能向上が見込めるだけ、 ということは、物量作戦なのかな? BlackGoat 二台増設 au banana 四台増設 docomo cobra 四台増設 others banana 二台増設 c.2ch.net banana 一台で独立 これだけあれば九月を乗り切れる とか、
ちと、今日はしばらく忙しいので手短に。
>>862 つまり横並び作戦(当初路線の延長線上でいく)ということですね。
どのパーツがどのくらい必要なのかは、これまでとった統計情報から見積もってみるかんじで。
あと試してみたいソフトウェア的な知恵としては、
フロントエンドにsquidを入れて、httpdが満員にならないようにするぐらいですかね。
それか、キャリア毎に分けるのをやめてしまうとか。。。 BlackGoat banana 二台 (取り込む鯖で分ける) c-x cobra 四台 (同じスペックの方がいいんだよね) c.2ch.net banana 一台 (ロードバランサ)
BlackGoatの増設だけで結構いけるんじゃないかと思ったりするんですが。
今のところ、au、docomo、otherに分けている目的って分析だけ?
キャリア別フロントエンドは既定事項 理由・目的は誰かさんの深謀遠慮
アクセス数が横ばいなら、BlackGoat増強だけで解決しそうですね。
いまのところ、bbspinkは2chのほぼ1/10程度ですね。 浸透していない、かつ、r.i/p.iが生きているのでこれくらいなのかもしれませんが、、、
キャリアごとに分けるの止めると、フロントの数減らせそうだけどな。 あと、一台が落ちても他のに分散して耐えしのげそうなんですけど。 どうなんだろ?
>>823 現在の構成をこのスレッドに書いていただけるとありがたいです
>>507 からどの様に変化しているのですか?
>>872 FOXさん
フロント側の構成は
>>507 で変更ありません。
>>507 の時は、BlackGoatにbanana406を使っていましたが、
アクセスピーク時(22:00頃〜2:00頃)におけるキャッシュヒット率の急激な低下
つまり、トラフィックの漏れ出しが発生していました。
そこで、ためしにcobra2244を使ってそのあたりが改善するかを調査中です。
つまりこうかな? フロント(受付嬢) c.2ch.net (banana405) |- c-au1 (banana403) -| |- c-au2 (banana404) -- 二台でロードバランス | |- c-docomo2 (peko247) -| |- c-docomo3 (peko246) -- 二台でロードバランス | |- c-others (banana405) - c と共用 バック(黒山羊さん) BlackGoat #1 (banana406) - 休止中 BlackGoat #2 (cobra2244) - 稼動中
>アクセスピーク時(22:00頃〜2:00頃)におけるキャッシュヒット率の急激な低下 >つまり、トラフィックの漏れ出しが発生していました。 >そこで、ためしにcobra2244を使ってそのあたりが改善するかを調査中です。 この部分なんですが、背景等を解説していただけるとありがたいです 1) キャッシュヒット率の低下がなぜ起るのか? 2) なぜcobra2244 (pekoサーバ) を使うと解決すると予想したのか? 等々
>>875 FOXさん
そのあたりの技術的なものは、rootさんに正確に答えてもらった方がいいと思うので、
rootさんの回答待ちということで、、、
一応、1日経過時のrootさんの考察が
>>827-828 にありますので、参考にして下さい。
現在のシステムでは、bananaなBlackGoatでは処理能力不足 そこで、 (1)BlackGoatへのリクエストの量を減らす → 簡易版メニューでの実験 結果、多少改善されたが、負荷ピーク時はBlackGoatに繋がらない状態が頻発 (2)BlackGoatの処理能力を上げる → Cobraで実験 負荷ピーク時でも、BlackGoatに繋がらない状態は起こっていない 次は、じゃあBlackGoatに必要な処理能力はbanana何台分? になるのではないかと思います。
bananaに搭載されているPen4コアって北森ですか?ぷれすこですか? 用途を考えるとL2の容量差もヒット率の違いに絡んでいそう。 仮にそうでなかった場合は ・peko/Cobraもう一台をblackgoatとして投入 ・各フロントエンドサーバと各blackgoatの間は すべてGbE化して間にロードバランサを挟む ぐらいのことをかんがえないといけなくなるかも・・・。
>現在のシステムでは、bananaなBlackGoatでは処理能力不足 この処理能力が何を指しているかを顕在化させたいんですよね、 そして「結果的にCobraでよかった」じゃなくて、何がどうなったから Cobraでよかったと言いたいんですよね、そうしなきゃ無駄な投資を してしまうですー
データベースが同じならCPUの違いで キャッシュヒット率が変わるのかなあと呟いてみるテスト
いろいろ書きたい事/レスすべきことがありますが、ちょっとあとで。 14:00過ぎたので、c系から大人の時間を削除してくださいー。>両氏
あれ?大人の時間、なんで復活しているんでしょう・・・? 取り合えず、作業はいります。
>>882 完了です。
c.2ch系列からは完全にアクセスしなくなったはずです。
>>882 どもです。
1日だけ復活させた経緯は、このスレの
>>829 あたりから。
本業ばたばたですんませんが、とりあえずざっくりと観察結果を。 2ch : bbspink = 1 : 1/10〜1/12 bbspink系は、 20:00から上昇カーブに入り、2:00あたりまで上昇曲線。 概ねPCの転送量と傾向は同じだが、 PCよりも1〜2時間ぐらい、ピークがうしろにある。
blockgoatがdat取得するの2分ごとに一括更新の同期式?〉転送量の上下が激しい それともdatごとに更新の非同期式?〉転送量はなだらかに
2ちゃんねるLANにつながっていて 未投入なのは投入しちゃった方がいいような、
>>887 今使ってないのはbanana402かな。
blackgoat1号機も使ってないか。
今帰省先なので、>>875- のQも含めて、月曜以降にいろいろと。
>>875 にようやくレス。
Cobraを使うと解決すると予想したのは、I/Oの速度の向上への期待です。
旧blackgoatでは、ロードアベレージの上昇はそれほどでもないのに、
アクセス集中時にログインすると、対話的パフォーマンスの低下が起きていました。
(コマンドを入れると詰まる感じ)
systat -v/iostat等で、ad0/ad1がめいっぱい使い切られていると思われる
兆候が見えていました。
(ディスクは、ccdを使って2本のディスクをストライピングで使用)
squidのログを確認すると、かなりの割合でキャッシュからデータが獲得できなかった旨の
エラーが出力されていました。
ネットワークの統計からは、この時点ではまだ帯域は使い切っておらず、またパケットの
取りこぼしや再送も、発生していないように見えました。
squidは400Mぐらいメモリを使っていましたが、メモリが不足している兆候は
まだ見えていませんでした。
このような状況から、
・CPU usageはまだめいっぱいではない
・ネットワークもまだ破綻していなかった
・ディスクI/Oが目いっぱいまで使い切られていた
=>squidのソースを読みきれていないが、ディスクI/Oが目いっぱいの状況の時に、
キャッシュヒット率が悪くなっていることから、ディスクI/Oの速度を上げれば、
キャッシュヒット率が向上し、系全体のパフォーマンスも向上するかもしれない
と、判断しました。
>>879 ということで、
> 何がどうなったからCobraでよかった
ですが、私の判断ではディスクI/Oパフォーマンスの向上が
最も大きいと考えています。
ディスク構成:
blackgoat1号機:
・同一バス上に接続された80G UltraATA100 IDE 7200rpmディスク2台
・IDEはオンボード、32bit
・FreeBSDでストライピングを設定
blackgoat2号機:
・別々のバス上に接続された36G Ultra320 SCSI 15000rpmディスク2台
・SCSI cardは64bit PCIで接続、64bit OS
・FreeBSDでストライピングを設定
どもです どもです
さらに質問ですが
このグラフを見る限り、深夜ピーク時キャッシュヒット率が以前よりは
向上していると見られるのですが、あってますか?
さらにヒット率をあげることは可能なのでしょうか?
また 現 BlackGoat#2(peko244) の使用率はどれくらいと推測しますか?
つまりまだまだキャパシティがあるのかどうか・・・
で、
>>887-888 banana402: 純粋banana+Intel Ethernet card
memory512M, 10M帯域制限
banana406: 強化banana+Intel Ethernet card (2 I/Fs)
memory1G
投入するとしたら、banana402がcの二重化(現在はcが落ちると全部(りゃ)、
負荷上昇が目立つc-au系の3号機あたりか。
他に何か案は↓
つまり管理人から御代として出されているディレイ60sec実験なんですが、 受付嬢は直接的には何ら変化が無いと予想できるのですが、 (めぐりめぐっての変化はあるかも) BlackGoatは単純に出口というか入り口というか 2ちゃんねるの各サーバにつながっている方は二倍の量になり キャッシュしている dat の書き換えも二倍になると予想されるから、 という話しなんですが、
>>892 あってますね。明らかにヒット率は向上しています。
使用率は、きちんと計測しないといけないところですが、
ディスクI/Oはまだなんとかなるかなと。
ただ、2ちゃんねる用ネットワークのほうが、100Mbps接続でもうかなりめいっぱいに近いですね。
http://mumumu.mu/mrtg/mrtg-rrd.cgi/traffic/blackgoat2-privatetraf.html >>893 banana406 が他のau機とスペックが同じでしたっけ?
banana402 がちょと違うスペックで、
>>894 60secにして今のblackgoat2が耐えられるか、ということですね。
どうだろうか。正直、やってみないとなんともいえないところかも。
いままで、ここまでProxyサーバをいじめて使ったことがないし。
>>895 で指摘した、フロントエンド <=> blackgoat2 の間は、
例えばblackgoat2を1G接続にするとかできれば、まだいける気がするです。
>>896 banana403, 404, 405, 406は全く同じH/Wですね。
bananaベース、メモリ1G、Intel Ethernet I/F x 2
banana402は他のbananaサーバと同じ(メモリ512M)に、
Intel Ethernet I/F x 1を追加したものにみえます。
レスが入り乱れますが、 >>895 2ちゃんねる各サーバ ━む→ BlackGoat ━ら→ 受付嬢 ━さ→ 端末 とした場合の 「む」の部分が 100M 目いっぱいになっているってことですか? 解決策はあるんだろうか・・・ というか その部分の容量 GigaBit じゃ無いんですか? >>898 ということは
banana406 = c-au3
banana402 = c の独立 or/and 多重化
に一票。
c-docomo はどこから捻出してくるか。。。
Tiger511,512 を BlackGoat に入れて
Peko機はdocomo用受付に転出か・・・
>>897 今日の夜やってみますかー?
みんなの準備が整えばですけど、
んでだめだったら即時撤退ということで、
>>899 「ら」の部分ですね。
「む」はまだ平気かと。
そこの部分は自動判別で接続してますが、100Mbps full-duplexであると認識されています。
ここは内部ネットで他の部分に影響ないので、スイッチの設定変更でいけるのかな?
>>901 設定変更は簡単なので(blackgoat2のsquidの設定を変えるだけ、c-xx側は特に変更なし)、
できると思います。やってみるか。
>>902-903 実験するのであれば「ら」をGbE化してからやってみる提案をしてみる。
「ら」はただでさえトラフィックの集中するところですからね。
>>903 そっすね、やってみよう。
今変えちゃうとか、
現状の設備でどうなるかを観察したい、
>>904 この実験では 「ら」の部分には影響を与えないのでは?
>>905 変えてみますか。
では15:45あたりにやってみます。
「ら」は、dat/subject.txtの要求に対する応答部分なので、
今回のには影響しないとおもいますです。
>>904 >>906 ああ、そうですね。「む」のトラフィックを倍増させるだけですから。
ただ、状況次第では影響はありそうですがね。
>>909 そですね、
めぐりめぐっての影響はあると思います
たぶん減る方向へ振れるのかな? (勝手な推測)
前の設定: refresh_pattern . 2 0% 2 override-lastmod reload-into-ims 今の設定: refresh_pattern . 1 0% 1 override-lastmod reload-into-ims
BlackGoat を任務とすると Peko , Tiger の能力はほぼ等価と考えていいのかな?
>>914 たぶん。
・64bit OS(Cobra) vs 32bit OS(Tiger)
・LSI Logic(Cobra) vs Adaptec(Tiger)
あたりが微妙ですが、力が半分になってしまうことは、ないと思います。
BlackGoatはBanana2台体制で充分じゃないかな? Cobra、Tigerはフロント側に使う方がよくないかな?
>>916 blackgoatはI/Oが重要だから、ちょっとそれはおすすめできないような。
逆に、フロントエンドはbananaをいっぱい並べればいいような気がします。
SCSIがっていうよりはRPMとバスの帯域の問題。 結果は日付がかわってからになるでしょうか。
機能は docomo3 が落ちちゃったので、 観察の本番は今日と言うことかな?
>>922 そですね。
今の時点では、落ちないことを祈るしか(りゃ。
ex7で試している設定変更部分はamd64でも有効みたいなので、
あれが効果を発揮するようなら、順次トライか。
今夜は ・北島@競泳の決勝その2:翌0130過ぎ ・中西@競泳の決勝:翌0210分過ぎ ・泉&上野@柔道が勝ち上がった場合の各試合:2230以降、決勝は2330ごろから とくに危険なのは北島か。
Tiger511,512 は、LoveAffaurで使っちゃう?
>>925 入れるとするとどこですかね。
ぱっと思いつくことを書いておこう。上のほうほど、脳内優先度高め。
blackgoatを2台体制に
全代表のcを二重化
このところややトラぶり気味のc-docomoのフロントエンドをスワップor増設
c-auが恒常的に目いっぱいなので強化
c-othersも2台体制がいいのかも
で、できれば今のクラシックメニューの機能を削減することなく、 維持できるぐらいのゆとりは、作っておきたいかなと。 というかそのぐらいゆとりがないと、すぐにパンクしそうな予感も。 Vodafoneや某孫氏あたりが本気になると、さらなる価格とかサービス競争が起こるだろうし。
「ピーク時でも楽々おさばき」にするという作戦で、 二重化等はその後かと、(何台必要になるのか見当も付かないのですが、、、) BlackGoat を2(複数)台体制にする場合は、 ちと考えてからの方がいいかな、 出来れば 「む」のトラフィックは増えないほうがいい!
まずはひとつの系として十分な資源にしよう、という作戦ですか。
>>929 耐障害性や冗長性はその後で別途考慮と。
Tigerが2台来る前提で、少し考えてみるです。
で、私は深夜までしばらくおいそがしなので、 その間にパズルしていただけるとうれしいかなと。 blackgoat役はcobra2244(今のもの: メモリ3G = いちばん多い)で確定として、 他の使えるタマの一覧: 標準banana1台 banana402: Pem4 2.8G 512Mmem IDE 強化banana4台 banana403〜406: Pen4 2.8G 512Mmem IDE cobra2台 cobra2246〜cobra2247: Opteron 244 dual 2Gmem SCSI tiger2台 tiger511〜tiger512: Xeon 2.8G dual 2Gmem SCSI さて、どう組み合わせるか↓
tigerって、フロントに入れるとどのくらいの能力あるのかな? cobra : tiger : banana = 3 : 2 : 1 くらい?
Cobra2244なBlackGoatの落ち込みは 負荷? ex7鯖落ちのせい?
Date: Thu Aug 19 02:46:03 2004 JST-9 (Wed Aug 18 10:46:03 2004 PST+8PDT) Target: cobra2247.maido3.com[c-docomo2.2ch.net] 206.223.151.215 httpd だけが反応無いようですが作業中でしょうか?
>>935 訂正。sshもftp反応ありませんですね。
>>938 おお。
わたしも、がんがって作んないと。
# きょうは、ちともう作業できんです。すんません、ごめんなさり。
>>938 FOXさん
Love Affair 欄を作ってくれたのですね。
ありがとうございます。
>>939 rootさん
http://mumumu.mu/mrtg/mrtg-rrd.cgi/loveaffair/blackgoat2-hits.html 0時付近の挙動は何なんですかね?
フロント側の問題なのか、BlackGoatのチューニング不足によるものなのかな?
rootさんに、調べてもらいましょう。
>>940 うーん、ピーク時にsquidがcore dumpを繰り返してる。
Aug 19 09:48:22 <0.6> oyster244 kernel: pid 82560 (squid), uid 400: exited on signal 6 (core dumped)
Aug 19 09:48:24 <0.2> oyster244 kernel: Limiting closed port RST response from 257 to 200 packets/sec
Aug 19 09:48:22 <20.5> oyster244 squid[62646]: Squid Parent: child process 82560 exited due to signal 6
Aug 19 09:48:25 <20.5> oyster244 squid[62646]: Squid Parent: child process 82590 started
旧blackgoatでdiskdの時にやはりcore dumpしたので、
diskdをやめて、aufsにしてみるか。
aufsにしてみた。 (さっきまで) cache_dir diskd /usr/local/squid/cache 40000 16 256 (現在) cache_dir aufs /usr/local/squid/cache 40000 16 256
何を何に使うとか、いろいろ考えつつ並べ替えたのですが、、、
ちなみに次スレpart3は「シーガーディアン」です。
テンプレ
----------------------------------------------
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part3
----------------------------------------------
日増しに増加する携帯からのアクセス。
かつて、羨ブラが生まれたように何かが生まれないと
ならない気がする。
たぶん解決策は、時間を売って空間を買うだと思うけど
いろいろ考察して、次の一手を決めようかと、
Love Affair 作戦。
Part3 シーガーディアン
前スレ
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part1
http://qb5.2ch.net/test/read.cgi/operate/1075887465/ 【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
http://qb5.2ch.net/test/read.cgi/operate/1088657713/ Sea Guardian ですか、、、。 で、久しぶりにroot権限ありサーバに戻って来たnewsplusの統計情報見て思ったこと。 「携帯(=r.i)の分が減ったのは、すごくおおきい」 # もう今日は限界っす。おやすみなさい。
banana402 -> c-au3 banana406 -> c-au4 遊ばせておいてももったいないから投入しちゃって tiger511 , tiger512 が来たらこの二台を BlackGoat (一台はc.2ch.net独立でもいい) あいた peko244 を c-docomo4 にする。 とか、
>>943 FOXさん、
そろそろ次スレの時期ですね。
c-auは、強化banana4台
c-docomoは、cobra2台+tiger1台
c-othersは、tiger1台
c.2ch独立で、標準banana
あたりじゃないかと思っているのですが、、、
BlackGoatがcobraで不足の場合は、tiger2台体制
c-docomoは、cobra2台+強化banana1台
c-auは、cobra1台+強化banana2台
c-othersは、強化banana1台
c.2ch独立で、標準banana
(ロードバランスが違う性能の鯖でもOKならばですが。。。)
>>944 rootさん、
お疲れ様でした。
c-docomo3が不通のようですが、作業されているのでしょうか?
(uptime記録には1userとの表記があります。>
http://sv2ch.baila6.jp/loadlog/c-docomo3.2ch.net.txt )
もしリブートが必要でしたら、このスレッドか、
【 MACKEREL HAS BEEN DOWN 】リブート部隊連絡所 -- Count 01
http://qb5.2ch.net/test/read.cgi/operate/1089118995/l50 上記のスレッドにてリブート要請の要請?を宣言していただければ対処いたしますので。
c-docomo3が止まっていますのでc-docomo2に負担が掛かってもいます。
って事でひとまずリブート要請出しておきますm(_ _)m
>>949 お疲れです。
一応、sshで接続までは出来たが、入れませんね。。。。
高負荷状態なのかな?
黒山羊さんの転送量がぐ〜んと減ったのはどして?
>>951 現在、c-docomo3がダウンしているからじゃないかな?
一昨日と言えば、 942 名前:root ★ 投稿日:04/08/20 03:45 ID:??? aufsにしてみた。 (さっきまで) cache_dir diskd /usr/local/squid/cache 40000 16 256 (現在) cache_dir aufs /usr/local/squid/cache 40000 16 256 これかな?
1/10ですか、激減ですね。 という事は、当分はcobra1台でまかなえそうですね。
リブート後、c-docomo3のhttpdが上がっていなかった模様。 今立ち上げなおした。
で、aufsの方がdiskdよりも効率がいいのか、、、。 そいえば、blackgoat1号機でもそうだったかも。 やってみないとわからんもんですね。
>>961 ありがとうございます。
ログインして立ち上げようとしたが、Permission Denied で立ち上げられなかった。
diskdが死ぬのはSYSVSHMの設定がよわよわだからだと思うのだが。 2chみたいな高負荷リバースプロクシやるのなら SHMSEG=128 SHMMNI=192 SHMMAX=33554432 SHMALL=8194 ぐらいは増やさないと。 このあたりは他のチューニングと理屈は一緒なのでメモリ量に応じて。 チューニングができたdiskdだったらaufsなんかとは比べ物にならないぐらいリクエスト数がさばけるよ。
>>964 うーん、そのへんは一応前にも疑っていて、今こうだったり。
%sysctl -a | grep kern.ipc.shm
kern.ipc.shmmax: 33554432
kern.ipc.shmmin: 1
kern.ipc.shmmni: 192
kern.ipc.shmseg: 128
kern.ipc.shmall: 8192
kern.ipc.shm_use_phys: 0
kern.ipc.shm_allow_removed: 0
diskdにするとき、このへんいじったです。
# for squid cache
options MSGMNB=16384 # max characters per message queue
#options MSGMNI=40 # max number of message queue identifiers
#options MSGSEG=2048 # max number of message segments in the system
options MSGSSZ=64 # size of a message segment (Must be 2^N)
options MSGTQL=1024 # max amount of messages in the system
で、こんなかんじ。
%sysctl -a | grep kern.ipc.msg
kern.ipc.msgmax: 131072
kern.ipc.msgmni: 40
kern.ipc.msgmnb: 16384
kern.ipc.msgtql: 1024
kern.ipc.msgssz: 64
kern.ipc.msgseg: 2048
bbspinkのURIが出現した時はcっぽく変換するんではなくて、 今のところはread.cgi => r.iへの変換をしてやるのがいいんではないかしら。
>>968 なるほど、そうしましょう〜
ところで、404 Not Foundと、403 Forbiddenのリダイレクト先を、
00.hにしたいのですが、
.htaccessでやってしまって構わないですか?
httpd.confの方が良いでしょうか?
>>969 すいません、00.hというのが変わりそうなので、
取り合えず.htaccessでやってしまいます。
tiger511, tiger512, banana402 投入準備できました。 さて、どういう戦略で投入するのがいいのかしら。 ということで、今日はおやすみ。
banana402はau3かなぁ〜 んで、BG1をothers2に持っていき、tiger511をBGにする。 残りのtiger512はどうしましょうか?c.2ch独立かな?
>>973 いいせんですね。< 上の2行。
tiger512は、c-docomo4がいいかな。
docomo は oyster244 で peko で揃えた方が気持ちいいような
まとめると、 c代表 & c-others系: banana405 banana406 c-au系: banana402 banana404 banana402 c-docomo系: cobra2247 cobra2246 tiger512 blackgoat系: cobra2244 tiger511 かな。
>>975 メモリ容量が違ったりしますが、たしかにその方がよさげですね。
こうかな。
c代表 & c-others系: banana405 banana406
c-au系: banana402 banana404 banana402
c-docomo系: cobra2247 cobra2246 cobra2244
blackgoat系: tiger511 tiger512
BBM/m: cobra2245
で、
>>978 にするためには、まずblackgoatの変更からかな。
ではtiger511とtiger512に、blackgoat用のセットアップを実施します。
今夜あたりにはフロントエンドの変更作業できるようにします。
>c-au系: banana402 banana404 banana402 402 が duplicate かな? c-au系: banana402 banana403 banana404 が正解かしら?
980突破したので次スレの季節かと思って立てようとしたけど無理ですた
以下1案。気に食わなければ書き換えて結構でつ
--------
日増しに増加する携帯からのアクセス。
FOX ★の提唱で始まる。
「たぶん解決策は、時間を売って空間を買うだと思うけど
いろいろ考察して、次の一手を決めようかと」
システムはほぼ完成、サーバの再編が現在話し合われている
Love Affair 作戦 Part3!
「化物特急 スーパー宗谷2号 札幌行」
前スレ 【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2
http://qb5.2ch.net/test/read.cgi/operate/1088657713/l50 Part1
http://qb5.2ch.net/operate/kako/1075/10758/1075887465.html Wikiページ
http://info.2ch.net/wiki/pukiwiki.php?Love%20Affair 次スレ
【Love Affair】携帯からのアクセスに対する考察・次の一手 Part3
http://qb5.2ch.net/test/read.cgi/operate/1095146311/ へんな★で立ててしまっただ。
>>982 なぜに 261
>>984 最近凝っているんですが、某サイトで1号の前景展望が見れます。
ただし豊富以北がまだ未公開。
read.cgi ver 07.7.21 2024/12/02 Walang Kapalit ★ | Donguri System Team 5ちゃんねる -curl lud20241210132201このスレへの固定リンク: http://5chb.net/r/operate/1088657713/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【Love Affair】携帯からのアクセスに対する考察・次の一手 Part2->画像>11枚 」 を見た人も見ています:・【Love Affair】携帯からのアクセスに対する考察・次の一手 Part3 ・『馴れ合いカテゴリ』の携帯からのアクセスに付いて ・【携帯電話】DoCoMoからのアクセスを再考しよう - iモードID編 ・【携帯電話】docomoからのアクセスを再考しよう - iモードID編その2 ・携帯電話以外からのアクセス禁止にしたい ・「誠意ない」日本に韓国政府の次の一手は?=韓国ネットからは疑問の声「これを機に断交すればいい」 ・携帯からsdカードのアプリが表示されない [無断転載禁止] ・NTT DoCoMo、携帯からインターネットにアクセスできる新サービスを開始 ・【英国】薬を飲んでいなかった統合失調症患者に地下鉄のホームで押されて死にかけた男性からのアドバイス「携帯ばかり見てたらダメだ」 ・【アベノミクス】景気対策、次の一手は?【日銀】 ・【韓国の次の一手!】 「慰安婦で培った請求力、中国に」コロナ賠償を! ・【ビジネスの裏側】 LED照明は「非成長市場」の危機感 メーカー次の一手は ・韓国の反日ブーストがフル・スロットル!!! 次の一手は慰安婦財団解散と抗日記念式典を東京で開催へ ・【LDH】E.G.family & E-girls 61【E.G.family 次の一手は】 [無断転載禁止] ・携帯と据置を統合し、ゲーム機を次のステージに進めたSwitch、携帯を撤退し据置(笑)に固執したPS ・【会見】 『ガルパン』と大洗をつなげた仕掛け人、次の一手とは?令和の大洗町を民間の立ち場で作りたい―― ・まゆゆが華々しく卒業しすぎて、事務所は次の一手を慎重になりすぎてない? ・ソニー 携帯ハード事業から撤退へ 179 ・ソニー 携帯ハード事業から撤退へ 36 ・ソニー 携帯ハード事業から撤退へ 53 ・ソニー 携帯ハード事業から撤退へ 200 ・ソニー 携帯ハード事業から撤退へ 10 ・ソニー 携帯ハード事業から撤退へ 215 ・ソニー 携帯ハード事業から撤退へ 150 ・ソニー 携帯ハード事業から撤退へ 130 ・ソニー 携帯ハード事業から撤退へ 109 ・ソニー 携帯ハード事業から撤退へ 125 ・ソニー 携帯ハード事業から撤退へ 151 ・ソニー 携帯ハード事業から撤退へ 123 ・ソニー 携帯ハード事業から撤退へ 129 ・ソニー 携帯ハード事業から撤退へ 135 ・ソニー 携帯ハード事業から撤退へ 133 ・携帯の待受画面を彼女にしてたら友達から笑われたんだけど ・ソニー「携帯機からは2020年に撤退する」 ・【デリンジャーから】銃の携帯癖13【M4まで】 ・【悲報】富士通、携帯電話事業から撤退 事業売却へ ・ソニー 2019年に携帯ハード事業から撤退 207 ・菅義偉「携帯料金高すぎるから値下げしろ」孫正義 ・ソニー 2019年に携帯ハード事業から撤退 208 ・【芸能】東出昌大 謝罪会見を拒否!不倫報道から3週間も逃げの一手 ・民衆は携帯特化のSwitchを待ち望んでる だから早く任天堂は出せ ・寺田SV「もしも携帯スパロボから一つだけ新たに移植するとしたらWかな」 ・携帯でスレのレス画像が全部サーバーミスに成ってるぞバカ運営 ・SIE社長「携帯機の時代は終わった、これからはスマホでリモプの時代」 ・【社会】北アルプス・西穂高岳で2人遭難…携帯から110番 [無断転載禁止] ・ま〜ん笑「君の名は。携帯で見てるけど意味わからん これだからアニメ嫌いやねん」 ・首から下げた携帯扇風機が爆発、顔面に 消防局が注意喚起 [PARADISE★] ・【携帯】コープさっぽろ、格安スマホ参入 月2000円から📱 ・【福岡】「携帯の充電がない 貸してくれ」 車の男 女性からスマホ奪う ・【最強の韓国軍】「4月から携帯電話解禁」兵士が一番したいこと1位は[2/21] ・【速報】運営「スクリプト対策のため、携帯回線からの書き込みは当面の間禁止します」 ・【東洋経済】初日からサービス変更・副社長らの電撃退社も 楽天携帯に続く誤算 ・【携帯】楽天モバイル、自社回線を全都道府県に拡大へ 4月から順次 [生玉子★] ・「携帯電話料金が高い!」客から相談→原因のほとんどは「端末代金」と判明 [かも★] ・自称PCゲーマー「携帯したいからSwitch版を買い直した」←SteamDeckで良くね? ・【IT】携帯電話乗り換え ネット手続きすれば手数料無料 来年4月から [ムヒタ★] ・Switchは携帯機と据え置き機を統合するんだから、ソフトも3DSより売れないとまずいよな? ・婆ちゃん(84歳)から電話かかってきて癌にでもなったかと思いきや携帯をスマホに替えたんだとさ ・まんさん漫画家「私のブログには絶対広告載せたくないから有料コース使うわ!」 この人名誉嫌儲民だろ
21:59:11 up 2 days, 23:02, 0 users, load average: 11.82, 12.14, 11.71
in 3.3584852218628 sec
@3.3584852218628@0b7 on 011611