Changes between Initial Version and Version 1 of III131019


Ignore:
Timestamp:
Oct 18, 2013, 11:35:58 PM (11 years ago)
Author:
jazz
Comment:

--

Legend:

Unmodified
Added
Removed
Modified
  • III131019

    v1 v1  
     1{{{
     2#!html
     3<div style="text-align: center;"><big
     4 style="font-weight: bold;"><big><big>雲端 Big Data 之處理、分析與應用(進階班)</big></big></big></div>
     5}}}
     6[[PageOutline]]
     7
     8= 報名資訊 =
     9
     10 * 詳[http://www.iiiedu.org.tw/ites/CBDA.htm 資策會網站公告]
     11
     12= 課程源起 =
     13{{{
     14#!text
     15  雲端運算掀起了新一代的資訊革命,也帶來了資訊爆炸式的成長,市調單位IDC的研究報告指出:
     16自2010年全球資料量已進入ZB(zettabytes,1 ZB 為1兆GB)時代,並且每年以60%的速度攀升,
     17這意味著每18個月全球的資料量將翻倍。面對不斷擴張的驚人資料量,大量資料 (Big Data) 的
     18儲存、管理、處理、搜尋、分析與智能應用等處理資料的能力也將面臨新的挑戰,而處理資料的技術
     19將迫切需要可動態與彈性等特點,以支援大量資料處理的計算模式。
     20
     21工欲善其事,必先利其器,根據市場調查機構IDC的研究顯示,Hadoop 軟體市場的復合年增長率
     22超過了60%,並預測到了2016年,市場總值將由2011年的7700萬美元增長至8.128億美元,可見得
     23Hadoop火熱的程度。巨量資料寶庫蘊藏豐沛的珍寶,除了幾乎成為巨量資料代名詞的Hadoop外,
     24相同框架裡頭的 MapReduce、HDFS等技術,皆為意欲挖掘出這些寶藏之企業所需準備的工具,意欲
     25開啟巨量資料希望之門,幾乎可以肯定,絕對少不掉Hadoop這把鑰匙!
     26
     27為了解決巨量資料的問題,Hadoop 周遭已經發展出相當完整的生態系,其中有兩個最為核心的項目,
     28一是MapReduce這個執行分散式處理的程式模型,另一則是HDFS這個虛擬的分散式檔案系統,透過
     29專司運算、儲存的兩根大支柱,牢牢地撐起Hadoop架構。且基於map/reduce的演算,Hadoop可以
     30利用分散式節點的增加,來持續提供更多的計算能力,因此具備了很好的規模可擴充性。
     31
     32為了滿足業界需求,資策會 特規劃「雲端Big Data之處理與分析進階班」課程,本課程學員將學習
     33到雲端運算之三大關鍵技術,利用Hadoop之分散式檔案系統(HDFS)與MapReduce,快速建構出雲端
     34運算的執行環境和服務,並以Hadoop FileSystem API 實作、MapReduce API 實作、
     35MapReduce 與資料庫結合與MapReduce 與 Hadoop 生態系整合等實作方式讓學員更加了解如何
     36透過Hadoop架構以進行雲端資料的大量資料處理、分析與應用。
     37}}}
     38
     39= 課程目標 =
     40
     41 * 學習 Hadoop File System 之 API 實作
     42 * 學習 Hadoop MapReduce 開發輔助工具 Eclipse 與 Netbeans
     43 * 學習 MapReduce 之 API 實作
     44 * 瞭解 MapReduce 與資料庫結合的方式
     45 * 學習 MapReduce 與 Hadoop 生態系之整合方式
     46
     47= 課程特色 =
     48
     49{{{
     50#!text
     51本課課程重點在於透過採體驗式教學方式的實作,經由多樣性的實際指令操作進行整合實作,
     52讓參訓學員瞭解正確的觀念與方法,以體驗實際的操作方式驗證課程所學 ,期能讓學員學會
     53如何將 Hadoop 這項技術與現存資訊架構進行整合。
     54}}}
     55
     56= 適合對象 =
     57
     58 * IT經理或系統網路部門主管
     59 * 專案經理、系統架構師或系統網路管理人員
     60 * 企業或技術決策人員
     61 * 對於雲端運算之大量資料(Big Data)處理、分析、應用有興趣者
     62
     63= 預備知識 =
     64
     65 * 具 Linux 操作實務與 Java 程式語言基礎者尤佳。
     66 *  具雲端運算之大量資料處理、分析與應用實務之基礎課程知識者尤佳。
     67
     68= 課程日期 =
     69
     70 * 102年6月29~30日 (週六/週日 白天9:00 ~17:00 ),共2天、計14小時 。
     71
     72= 上課地點 =
     73
     74 * 資策會數位教育研究所,台北市信義路三段 153 號 10 樓 1001 教室。
     75 * 位於捷運木柵線大安站斜對面(復興南路與信義路交叉口),燦坤樓上。
     76 * 上課地點與教室之確認,以上課通知函為主。
     77
     78= 課程內容 =
     79
     80 * [raw-attachment:wiki:III131019:13-10-19_Hadoop_Advanced.pdf 完整版投影片]
     81
     82== '''2013-10-19(六)''' ==
     83
     84 || 時段 || 課程內容 || 實作 || 補充資料 ||
     85 || || Hadoop 的三種模式與三種安裝方法 || [wiki:III131019/Lab0 實作零][[BR]][wiki:III131019/Lab1 實作一][[BR]][wiki:III131019/Lab2 實作二][[BR]][wiki:III131019/Lab3 實作三] || ||
     86 || || HDFS 指令操作回顧[[BR]] MapReduce 指令操作回顧 || [wiki:III130615/Lab3 參考一][[BR]][wiki:III130615/Lab5 參考二]|| ||
     87 || || 基本除錯技能(一) Bash 除錯 || [wiki:III131019/Lab4 實作四] || ||
     88 || || 基本除錯技能(二) Log4J || [wiki:III131019/Lab5 實作五] || ||
     89 || || 除錯與監控 jconsole || [wiki:III131019/Lab6 實作六] || ||
     90 || || Eclipse 安裝 || [wiki:III131019/Lab7 實作七] ||
     91 || || Hadoop !FileSystem API 實作(一) [[BR]] Local 檔案上傳到 HDFS || [wiki:III131019/Lab8 實作八] || ||
     92
     93== '''2013-10-20(日)''' ==
     94
     95 || 時段 || 課程內容 || 實作 || 補充資料 ||
     96 || || Hadoop !FileSystem API 實作(二) [[BR]] HDFS 下載檔案到 Local || [wiki:III131019/Lab9 實作九] || ||
     97 || || Hadoop !FileSystem API 實作(三) [[BR]] 判斷檔案是否存在、屬性為何 || [wiki:III131019/Lab10 實作十] || ||