<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    關于阿里云香港Region可用區C服務中斷事件的說明

    VSole2022-12-27 10:01:42

    故障情況、問題分析和改進措施進一步說明。

    北京時間2022年12月18日,阿里云香港Region可用區C發生大規模服務中斷事件。經過復盤,我們在這里向大家進一步說明故障情況、問題分析和改進措施。

    處理過程

    12月18日08:56,阿里云監控到香港Region可用區C機房包間通道溫控告警,阿里云工程師介入應急處理,通知機房服務商進行現場排查。09:01,阿里云監控到該機房多個包間溫升告警,此時工程師排查到冷機異常。09:09,機房服務商按應急預案對異常冷機進行4+4主備切換以及重啟,但操作失敗,冷水機組無法恢復正常。09:17,依照故障處理流程,啟動制冷異常應急預案,進行輔助散熱和應急通風。嘗試對冷機控制系統逐個進行隔離和手工恢復操作,但發現無法穩定運行,聯系冷機設備供應商到現場排查。此時,由于高溫原因,部分服務器開始受到影響。

    自10:30開始,為避免可能出現的高溫消防問題,阿里云工程師陸續對整個機房計算、存儲、網絡、數據庫、大數據集群進行降載處理。期間,繼續多次對冷機設備進行操作,但均不能保持穩定運行。

    12:30,冷機設備供應商到場,在多方工程師診斷下,對冷塔、冷卻水管路及冷機冷凝器進行手工補水排氣操作,但系統仍然無法保持穩定運行。阿里云工程師對部分高溫包間啟動服務器關機操作。14:47,冷機設備供應商對設備問題排查遇到困難,其中一個包間因高溫觸發了強制消防噴淋。15:20,經冷機設備商工程師現場手工調整配置,冷機群控解鎖完成并獨立運行,第1臺冷機恢復正常,溫度開始下降。工程師隨后繼續通過相同方法對其他冷機進行操作。18:55,4臺冷機恢復到正常制冷量。19:02,分批啟動服務器,并持續觀察溫升情況。19:47,機房溫度趨于穩定。同時,阿里云工程師開始進行服務啟動恢復,并進行必要的數據完整性檢查。

    21:36,大部分機房包間服務器陸續啟動并完成檢查,機房溫度穩定。其中一個包間因消防噴淋啟動,未進行服務器上電。因為保持數據的完整性至關重要,工程師對這個包間的服務器進行了仔細的數據安全檢查,這里花費了一些必要的時間。22:50,數據檢查以及風險評估完成,最后一個包間依據安全性逐步進行供電恢復和服務器啟動。

    服務影響

    12月18日09:23,香港Region可用區C部分ECS服務器開始出現停機,觸發同可用區內宕機遷移。隨著溫度繼續升高,受影響的服務器停機數量持續增加,客戶業務開始受到影響,影響面擴大到香港可用區C的EBS、OSS、RDS等更多云服務。

    阿里云香港可用區C的故障,沒有直接影響客戶在香港其他可用區運行的業務,但影響了香港Region ECS管控服務(Control Plane)的正常使用。因大量可用區C的客戶在香港其他可用區新購ECS實例,從12月18日14:49開始,ECS管控服務觸發限流,可用性最低跌至20%。客戶在使用RunInstances/CreateInstance API購買新ECS實例時,如果指定了自定義鏡像,部分實例在購買成功之后會出現啟動失敗的現象,由于自定義鏡像數據服務依賴可用區C的單AZ冗余版本的OSS服務,無法通過重試解決。此時,部分Dataworks、k8s用戶控制臺操作也受到了故障影響。API完全恢復可用為當日23:11。

    12月18日10:37,阿里云香港可用區C的部分存儲服務OSS開始受到停機影響,此時客戶暫不會感知,但持續高溫會導致磁盤壞道,影響數據安全,工程師對服務器進行停機操作,從11:07至18:26中斷了服務。阿里云在香港Region可用區C提供了2種類型的OSS服務,一種是OSS本地冗余LRS服務(通常叫單AZ冗余服務),僅部署在可用區C;另一種是OSS同城冗余ZRS服務(通常叫3AZ冗余服務),部署在可用區B、C和D。在此次故障中,OSS同城冗余ZRS服務基本沒有受到影響。可用區C的OSS本地冗余服務中斷時間較長,因不支持跨可用區切換,需要依賴故障機房的恢復。從18:26開始,存儲服務器重新分批啟動。其中,單AZ本地冗余LRS服務有部分服務器因消防問題需要做隔離處理。恢復服務前,我們必須要確保數據可靠性,花費了較多的時間進行完整性檢驗工作。直至12月19日00:30,這部分OSS服務(單AZ冗余服務)才恢復了對外服務能力。

    阿里云網絡少量單可用區產品(如:VPN、Privatelink以及少量GA實例)在此次故障中受到影響。12月18日11:21,工程師啟動網絡產品可用區容災逃逸,12:45完成SLB等大部分網絡產品可用區容災逃逸,13:47NAT產品完成收尾逃逸。除上述少量單可用區產品以外,各網絡產品在故障期間保持了業務連續性,NAT有分鐘級業務受損。

    12月18日10:17開始,阿里云香港Region可用區C部分RDS實例出現不可用的報警。隨著該可用區受故障影響的主機范圍擴大,出現服務異常的實例數量隨之增加,工程師啟動數據庫應急切換預案流程。截至12:30,RDS MySQL與Redis、MongoDB、DTS等大部分跨可用區實例完成跨可用區切換。部分單可用區實例以及單可用區高可用實例,由于依賴單可用區的數據備份,僅少量實例實現有效遷移。少量支持跨可用區切換的RDS實例沒有及時完成切換。經排查是由于這部分RDS實例依賴了部署在香港Region可用區C的代理服務,由于代理服務不可用,無法通過代理地址訪問RDS實例。我們協助相關客戶通過臨時切換到使用RDS主實例的地址訪問來進行恢復。隨著機房制冷設備恢復,21:30左右絕大部分數據庫實例恢復正常。對于受故障影響的單機版實例及主備均在香港Region可用區C的高可用版實例,我們提供了克隆實例、實例遷移等臨時性恢復方案,但由于底層服務資源的限制,部分實例的遷移恢復過程遇到一些異常情況,需要花費較長的時間來處理解決。

    我們注意到,同時在多個可用區運行業務的客戶,在這次事件中依然可以維持業務運行。對于業務需要絕對高可用的客戶,我們持續建議您采用全鏈路多可用區的業務架構設計,以應對各種可能的意外事件。

    問題分析與改進措施

    1、冷機系統故障恢復時間過長

    原因分析:機房冷卻系統缺水進氣形成氣阻,影響水路循環導致4臺主冷機服務異常,啟動4臺備冷機時因主備共用的水路循環系統氣阻導致啟動失敗。水盤補水后,因機房冷卻系統的群控邏輯,無法單臺獨立啟動冷機,手工修改冷機配置,將冷機從群控調整為獨立運行后,陸續啟動冷機,影響了冷卻系統的恢復時長。整個過程中,原因定位耗時3小時34分鐘,補水排氣耗時2小時57分鐘,解鎖群控邏輯啟動4臺冷機耗時3小時32分鐘。

    改進措施:全面檢查機房基礎設施管控系統,在監控數據采集層面,擴大覆蓋度,提升精細度,提高對故障的排查和定位速度;在設施管控邏輯層面,確保系統自動切換邏輯符合預期,同時保證手工切換的準確性,防止內部狀態死鎖從而影響故障的恢復。

    2、現場處置不及時導致觸發消防噴淋

    原因分析:隨著機房冷卻系統失效,包間溫度逐漸升高,導致一機房包間溫度達到臨界值觸發消防系統噴淋,電源柜和多列機柜進水,部分機器硬件損壞,增加了后續恢復難度和時長。

    改進措施:加強機房服務商管理,梳理機房溫升預案及標準化執行動作,明確溫升場景下的業務側關機和機房強制關電的預案,力求更簡單有效,并通過常態化演練強化執行。

    3.客戶在香港地域新購ECS等管控操作失敗

    原因分析:ECS管控系統為B、C可用區雙機房容災,C可用區故障后由B可用區對外提供服務,由于大量可用區C的客戶在香港其他可用區新購實例,同時可用區C的ECS實例拉起恢復動作引入的流量,導致可用區 B 管控服務資源不足。新擴容的ECS管控系統啟動時依賴的中間件服務部署在可用區C機房,導致較長時間內無法擴容。ECS管控依賴的自定義鏡像數據服務,依賴可用區C的單AZ冗余版本的OSS服務,導致客戶新購實例后出現啟動失敗的現象。

    改進措施:全網巡檢,整體優化多AZ產品高可用設計,避免出現依賴OSS單AZ和中間件單AZ的問題。加強阿里云管控平面的容災演練,進一步提升云產品高可用容災逃逸能力。

    4、故障信息發布不夠及時透明

    原因分析:故障發生后阿里云啟動對客釘群、公告等通知手段,由于現場冷機處理進展緩慢,有效信息不夠。Status Page頁面信息更新不及時引發客戶困惑。

    改進措施:提升故障影響和客戶影響的快速評估和識別拉取能力。盡快上線新版的阿里云服務健康狀態頁面(Status Page),提高信息發布的速度,讓客戶可以更便捷地了解故障事件對各類產品服務的影響。

    總結

    最后,我們要向所有受到故障影響的客戶公開致歉,并盡快處理賠償事宜。此次香港Region可用區C服務中斷事件,對很多客戶的業務產生重大影響,也是阿里云運營十多年來持續時間最長的一次大規模故障。穩定性是云服務的生命線,對我們的客戶至關重要。我們將盡一切努力從此次事件中吸取經驗教訓,持續提升云服務的穩定性,不辜負客戶所托!

    阿里云

    2022年12月25日

    阿里云oss香港機房
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    故障情況、問題分析和改進措施進一步說明。
    用戶名:加密密碼:密碼最后一次修改日期:兩次密碼的修改時間間隔:密碼有效期:密碼修改到期到的警告天數:密碼過期之后的寬限天數:賬號失效時間:保留。查看下pid所對應的進程文件路徑,
    此前,我們報道了威脅行為者如何通過濫用配置錯誤問題以及從以前的惡意軟件感染中獲得的薄弱或被盜憑據來針對多個環境(例如華為)托管加密貨幣挖掘惡意軟件。 這一次,我們發現了一個惡意活動,該活動使用阿里(也稱為阿里)的對象存儲服務 (OSS)進行惡意軟件分發和非法加密貨幣挖掘活動。OSS是一項服務,允許阿里客戶將Web應用程序圖像和備份信息等數據存儲在云端。不幸的是,這不是我們第一次看到針對
    Serverless應用安全淺談
    2022-06-02 14:08:43
    我是火線安全的曾垚,今天分享的議題是Serverless應用安全淺談,我們發現近年來主流的廠商,或者是像K8S、CNCF生態出現了非常多的Serverless Faas的相關技術,像backend也是非常流行的。 整個Serverless產生或者是容器的產生,都是為了大幅度提高軟件的開發效率和降低后續的維護成本。 希望可以通過這次分享,可以讓相關Serverless開發者了解在Serverl
    經監測,我們截獲了一起與未知家族有關的欺詐性 Android 應用傳播事件。詳細調查發現,該家族主要使用開源的 Telegram Android 源代碼作為其核心功能模板。
    CBLD名字亂寫的,我自己都沒想好這個工具叫什么名字,如果有好想法的時候可以在Issue中提出。 目錄概要
    近日,綠盟科技星云實驗室與北京豪密科技有限公司聯合推出了一項攻防技術培訓課程。該課程旨在根據客戶需求,為客戶提供專題培訓,幫助客戶熟悉常見的安全架構,并提供攻防技術理解,同時結合模擬攻擊實驗提升攻防能力。
    攻擊團伙情報 APT37組織使用Konni RAT攻擊歐盟目標 近期APT32(海蓮花)組織攻擊活動樣本分析 透明部落以“清潔運動”為主題對印度國防部下屬企業發起釣魚攻擊 疑似EvilNum針對歐洲金融實體
    項目介紹 前后端分離架構,分離開發,分離部署,前后端互不影響。 前端技術采用vue + antdvPro + axios。 后端采用spring boot + mybatis-plus + hutool等,開源可靠。 基于spring security(jwt) + 用戶UUID雙重認證。 基于AOP實現的接口粒度的鑒權,最細粒度過濾權限資源。 基于hibernate validator實現的校驗
    存儲桶(Bucket)是對象的載體,可理解為存放對象的“容器”,且該“容器”無容量上限、對象以扁平化結構存放在存儲桶中,無文件夾和目錄的概念,用戶可選擇將對象存放到單個或多個存儲桶中[1]。由于存儲桶具有擴展性高、存儲速度快、訪問權限可自由配置等優勢,如今已納入各大公有廠商的關鍵基礎設施中。
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类