2015
01
11

這週末, 紐約時報有一則新報導,內容是介紹史諾登 ( Snowden) 使用一個超廉價的工具,刮出 NSA 內部系統的所有 Wiki 文件, Wiki 系統內總共有一百七十萬份機密檔案,這個消息是來自於一個資深的情報官員。

Snowden 使用的下載工具仍未被證實是 「wget」,該名情報官只說 Snowden 用程式搜尋 NSA Wiki 文件,並有特定的目標,他運用搜尋關鍵字取得有用的文件,並且程式會自動下載文件內的相關連結,除此之外,程式有深度搜尋的限制設定,一但下載的階層大於某個數字,即會自動停止不再繼續往下刮連結。

軟體 "web crawler" 是專門用來備取網站的工具,這個軟體可以將網站上的所有連結,全部下載回來本機端備份,Snowden 先生在離開美國 NSA 之後,即開始搜刮 NSA 的系統文件,情報官還親口說:「我不信相單純一個人,有辦法下這麼網頁,並且有順序性的依續下載,這一定是使用自動化軟體來完成這項傑作」。

來看一個曾經發生過的案例,"曼寧"士兵在審訊時提交的資料,該檢查官(prosecutors) 寫道,曼寧當時曾使用 wget 下載大量的外交電報,相同的 Snowden 也可以使用 wget 或是類似 Googlebot 的工具,再加上 Snowden 曾經在 NSA 工作,擁有網站的帳號、密碼,這樣就能下載大量的 NSA 網站資訊。

本質上來看,自動下載網站並不需要強大的技術,也不用是一個專業的駭客,其實大部分的程式設計師或是網管都會這樣的技術,市面上有大量類似的工具可以用來將一整個網站鏡像下來, HTTrack 就是一個相當有名的軟體,這個軟體只能在 Windows 上運行,另外 UNIX 系統也有如 Pavuk 鏡像軟體 。

上述的幾個軟體都是比較偏大型的工具,其實 Linux 系統中,內建就會支援一個叫 wget 的軟體,單靠它就可以將一個網站下載回來 ,如下就是一個簡單的下載執令。

wget --mirror -k http://www.yahoo.com/
  • -k : 相同檔名不重複下載
  • --mirror : 打開鏡像備份

當你在備份整個網站時,這個指令可以會讓你的系統間控軟體出現警告訊息,因為上述的指令,少了一個等待時間,沒有設定等待時間,wget 就會同時發出大量的 Request ,並同時回寫到你的檔案系統,有可能會造成系統當機,可以試著加上 「-w 3」 的參數,每下載一個網頁就等待 3 秒。

紐約時報指出,就在 Snowden 搜集 NSA 的文件的同時,有位調查員查覺異狀,並檢視了 Snowden 的網路行為,以及他讀取了那一些機密資料,後來也詢問在 Snowden 做了什麼事, 但是 Snowden 說明他身為一個系統管理員,平常必須維護電腦網路,也包含了備份電腦系統文件,再將備份的資料,儲存到自已的電腦。

NSA 犯了大部分公司都會犯的錯,他們只擔公司外面的駭客,針對外部的網路連線有嚴謹間控,但卻對內部員工沒有任何一點防備。

政府官員的隨便的態度又再度出現,就在曼寧的洩密案之後, NSA 仍然不重視保護公司的機密資料,才會讓 Snowden 有機可趁。

資料來源