| 1 | = HPC-Asia 實驗方法 = |
| 2 | == 比較 ICAS(6nodes) 與 SOC 不同資料集的 處理效能實驗== |
| 3 | pre : |
| 4 | {{{ |
| 5 | i 用cloneZilla live 還原 /home/waue/080923-ICAS-HPCASIA-img |
| 6 | ii hadoop、 hbase 安裝於 /opt , 實驗資料放在 /home/waue/Desktop/ExpData/ |
| 7 | iii 開啟hadoop、hbase、mysql |
| 8 | }}} |
| 9 | 1. 開啟snort監聽 |
| 10 | {{{ |
| 11 | $ snort -c /etc/snort/snort.database.conf -i eth1 |
| 12 | }}} |
| 13 | 2. 開tcpreplay 餵流量 |
| 14 | {{{ |
| 15 | $ cd /home/waue/Desktop/ExpData/tcpdumps |
| 16 | $ sudo tcpreplay -i eth1 --topspeed ./combinedstarted27febat1349.tcpdump |
| 17 | }}} |
| 18 | 3. 紀錄mysql 的event有 $N 筆資料,再執行SOC,紀錄時間 |
| 19 | {{{ |
| 20 | $ cd /var/www/soc |
| 21 | $ php main_uv.php |
| 22 | }}} |
| 23 | 4. parser 檔案 程序一 ($N為alert數,如:512) (原本4~6步驟為同一shell,但java再shell內執行有問題故拆開) |
| 24 | {{{ |
| 25 | $ cd /opt |
| 26 | $ ./exper1.sh $N |
| 27 | $ java SnortParser $N |
| 28 | $ ./exper2.sh $N |
| 29 | }}} |
| 30 | 5. 用Eclipse執行analysis |
| 31 | 修改tablename參數為$N ,然後用ibm MapReduce tool 執行SnortAnalysis.java,紀錄時間 |
| 32 | 6. mysql資料庫重置 |
| 33 | 改snort資料表的名稱、匯入snort空資料表單(~/Desktop/ExpData/SocTable_snort_2.7.0.sql) |
| 34 | |
| 35 | == 比較 ICAS 不同nodes數量 處理效能的實驗 == |
| 36 | 1. 停止hbase, hadoop |
| 37 | 2. 修改node集 |
| 38 | {{{ |
| 39 | /opt/hadoop/conf/slaves |
| 40 | /opt/hbase/conf/regionserver |
| 41 | }}} |
| 42 | 3. 開啟 hadoop, hbase |
| 43 | 4. 重複用Eclipse執行analysis procedure |
| 44 | 修改tablename參數為$N ,然後用ibm MapReduce tool 執行SnortAnalysis.java,紀錄時間 |
| 45 | 5. 用4. 跑完所有的數據集後,再重複1~4步(但2要改成不同的node數) |