【Vibe Coding】Google Antigravity 出包了 ! 誤刪硬碟事件:開發者如何正確備份專案檔案?
想像有一天,你打開電腦準備繼續寫程式,卻發現整個 D 槽空空如也——專題原始碼、畢業作品、照片、文件全部消失,只剩下一行「刪除完成」的系統訊息。
最近在 Reddit 的 r/google_antigravity 社群,就有一位使用者控訴 Google 的 agentic IDE「Antigravity」在自動執行指令時,誤下了 rmdir /s /q d:\ 這種等級的刪除指令,直接把整個 D 槽清空,連自己都在 log 裡反覆追查「我真的有被授權刪掉整個磁碟嗎?」
這個事件不只是「AI 又出包」的八卦,而是非常直接地指出一件事:
在讓 AI、agents、各種自動化工具接觸你電腦之前,你有沒有先保護好自己的檔案?
以下我會用一般使用者也能做到的步驟,整理一套「最低限度」的檔案保護實務,尤其適合:
- 會用 GitHub、雲端硬碟、AI IDE(Antigravity、Cursor、Windsurf 等)
- 電腦裡有專案原始碼、論文、作品集、照片等一旦不見就很難重來的資料

先檢查:你現在的檔案,真的有備份嗎?
問自己三個問題:
- 重要檔案是否至少存在「兩個以上」實體位置?
例如:電腦本機 + 外接硬碟,或 電腦本機 + 雲端硬碟。只有「一份」的檔案,等於沒有備份。 - 備份是否「自動」進行,而不是想到才手動複製?
多數人不是因為不會備份,而是忙起來就忘了。沒有自動排程的備份,很容易剛好在出事前幾週都沒更新。 - 有沒有一份「離線或異地」的備份?
若只有一顆外接硬碟永久插在同一台電腦上,遇到勒索病毒、硬體故障、被偷走,一樣全部一起毀。
如果以上三題有任一題回答「沒有」,就可以從下面幾個步驟開始補強。

最低標準:把「三二一備份原則」做到位
常見的專業建議是所謂 3-2-1 備份原則:
- 3 份資料:原始檔案 + 兩份備份
- 2 種媒介:例如電腦本機、外接硬碟、雲端硬碟
- 1 份異地:例如雲端、放在別的地方的硬碟
對一般人來說不必一次做到極致,可以用這個實作方式起步:
- 電腦本機:日常工作用
- 雲端硬碟:Google Drive、OneDrive、Dropbox 任選至少一個
- 外接 SSD/HDD:每週或每月做一次完整備份
只要這三個點有做到,像這次 Antigravity 事件這種「整顆磁碟被誤刪」的災難,至少還有兩條退路。
實際操作:如何保護自己的檔案
啟用作業系統內建備份
Windows 使用者:
- 可以考慮使用
-「檔案歷程記錄」(File History)- 或第三方備份軟體(例如 Macrium Reflect Free 等)
- 建議:
- 指定要備份的資料夾(文件、圖片、專案目錄等)
- 備份目的地設在「外接硬碟」而不是同一顆實體硬碟的其他分割區
macOS 使用者:
- 啟用 Time Machine
- 準備一顆外接硬碟或 NAS
- 設定為自動備份,讓系統在背景持續進行
這些都是「一次設定,之後自動運作」的典型例子,非常適合作為底線方案。

雲端同步:讓重要資料不只存在一台機器上
雲端同步不是萬能備份,但可以提供很好的 「第二份副本」與「版本回溯」:
- 常見選項:Google Drive、OneDrive、Dropbox、iCloud Drive 等
- 建議作法:
- 為「工作」「學校」「個人作品」分別建立資料夾
- 把正在進行中的專案都放在雲端同步資料夾裡
- 遇到誤刪,可以先查看雲端的「垃圾桶」「版本紀錄」
要注意的是:
雲端同步是「檔案變動就同步」,若誤刪後同步完成,雲端也會跟著刪。但多數服務會保留一段時間的舊版本或回收桶,可以緊急救援。
寫程式的人:所有專案一律放進 Git
對工程師或學生來說,原始碼通常是最難重建的資產。
建議底線:所有程式專案都用 Git 管理,並推到遠端(GitHub / GitLab / Bitbucket 等)。
這有幾個好處:
- 誤刪檔案、亂改一通,都可以回到過去版本
- 電腦壞掉,clone 回來就能繼續工作
- 也順便累積作品集,將來實習、求職、申請研究所都用得上
如果擔心私密專案,可以使用私有 repository,或在企業內部 Git 伺服器。

使用 AI IDE / Agent 工具時的「最小權限」原則
這次 Antigravity 事件的核心問題之一,是 AI agent 拿到了太大的系統權限,可以直接下 rmdir /s /q d:\ 這種指令。要降低風險,可以採取幾個實務做法:
- 永遠不要把整顆磁碟掛給 AI 工具
- 只讓它存取「單一專案資料夾」
- 避免直接讓工具看到
C:\或D:\根目錄
- 用「沙盒」或容器開發
- 若使用 Docker、Dev Container,可以在容器裡面掛載「專案資料夾」
- 即使容器內指令誤刪,也只影響掛載範圍
- 檢查工具說明中的檔案權限與 SafeToRun 設定
- 很多 agent 框架都有「白名單資料夾」「禁止執行特定指令」的選項
- 儘量把
rm -rf /、rmdir /s /q類型的危險指令封鎖
- 在「副本」上測試自動化操作
- 要讓 agent 自動 refactor 專案、批次刪檔時,先複製一份專案資料夾
- 確認結果正確後,再搬回正式專案
關鍵資料再多一層:離線備份
對於無法重來的檔案,例如:
- 畢業設計完整資料
- 已完成的論文與研究資料
- 重要照片、家庭影片
- 長期經營的作品集、部落格原始文稿
建議每隔一段時間(例如每月/每季):
- 壓縮成一份或少數幾份封存檔(zip、7z 等)
- 存到只在需要時才接上的硬碟,平常拔掉不連線
- 另外可以再複製一份放在可信任的家人家中或保險箱
這種離線備份在遇到勒索病毒、雲端帳號被鎖、AI 工具誤操作時,往往是最後也是最穩定的救命繩。
結語:AI 時代,資料安全反而更要「老派」
Google Antigravity 的誤刪事件提醒我們:
當工具愈來愈「聰明」、能幫你自動改程式、重構專案、執行終端指令時,一個小小的路徑處理錯誤,就可能放大成清空整顆硬碟的災難。
面對這種風險,真正穩健的做法反而很「老派」:
- 規律備份
- 多處存放
- 減少權限
- 重要資料保留離線副本
AI 可以幫你寫程式、整理檔案,但「確保這些檔案永遠在」這件事,仍然只能靠你自己事先布好安全網。現在花一個下午把備份系統建好,比未來為了一個 rmdir 或 rm -rf 崩潰好多了。

