= 2008-12-29 = * WSU 軟體自動升級機制測試 == Perl == * [http://riseuplabs.org/grimoire/development/cpan-debian-packages/ Building CPAN modules as debian packages] {{{ # apt-get install dh-make-perl gzip unzip tar wget # dh-make-perl --build --cpan Archive::Zip }}} * [http://debian.pkgs.cpan.org/ debian.pkgs.cpan.org] -- debified CPAN packages * Perl + SQLite * [http://mailliststock.wordpress.com/2007/03/01/sqlite-examples-with-bash-perl-and-python/ SQLite examples with Bash, Perl and Python] * Debian Package: [http://packages.debian.org/etch/libclass-dbi-sqlite-perl libclass-dbi-sqlite-perl] * Perl Stomp Client : [http://search.cpan.org/dist/Net-Stomp/lib/Net/Stomp.pm Net::Stomp] == AoE == * 跟 Thomas 討論到怎麼加速 AoE 的存取速度,簡單記下重點: * 縱使使用 Ethernet Bounding 的技巧,仍然需要搭配 Switch 的網管功能才能真正達成 Bounding 的效果 * 縱使 Bounding 了三張網卡,但是觀察 AoE 總流量還是跟一張網卡是一樣的。因此超過 10 台以上的 AoE Disk 同時存取,I/O 瓶頸在於 SATA 排線上。 * Q: 如果要使用 GPFS 或 Lustre 來加速/分流 AoE 呢? A: 是可行的。等於用四台 GPFS Storage Farm 來服務四十台 AoE Client。 {{{ AoE Client #1 ---+ +-----------------------+ +-- GPFS Node #1 -- SATA -- Disk #1 AoE Client #2 ---+-- GE --+ eth0 eth1 +-- GE --+-- GPFS Node #2 -- SATA -- Disk #2 | | AoE Server | | AoE Client #n ---+ +-----------------------+ +-- GPFS Node #M -- SATA -- Disk #M }}}