哥倫比亞最高法院拒絕了一項上訴,理由是該文件由AI生成。但法院用來判定該上訴是否由AI產生的工具,也指出其自身的判決同樣受到生成式AI的幫助。 這是法院的雙重標準,還是工具本身有缺陷? “鑑於有充分的懷疑認為律師提交的簡報並非由其本人起草,法院將該文本提交給Winston AI工具,”法院辯稱。“分析結果顯示,該文件只有7%的內容是人類撰寫,明顯受到自動化寫作的影響,並得出結論認為該文件是由人工智慧產生的。”
在用其他工具進行類似分析並得到相同結果後,法院裁定“由於該文件不能視為正式提交的辯論書,因此必須駁回其不受理的請求。” 但當法律專家對法院的裁決進行類似審查時,也得出了相似的結果。 “我將最高法院的Auto AP760/2026判決文本提交給同樣在判決中引用的Winston AI軟體,”律師 Emmanuel Alessio Velasquez 在星期二於X(前Twitter)上寫道。“結果:該文件含有93%的AI生成文本。”
我將最高法院的Auto AP760/2026判決文本提交給同樣在判決中引用的Winston AI軟體。結果顯示該文件有93%的“由AI生成的文本”。https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4
— Emmanuel Alessio Velásquez (@EmmanuVeZe) 2026年3月3日
“如果判決本身就以該比例來評價人工智慧的使用,那麼使用這些偵測器作為論證支持的方式的脆弱性就變得不言自明了,”他在隨後的推文中指出。 在法院於X上發布有關該決定的討論串幾小時內,律師們開始進行自己的測試。Velasquez的貼文在法律圈內迅速傳播,獲得數萬次點閱。 我們也對法院的判決進行了測試,起初結果並不理想。當GPTZero只掃描法院文本的開頭幾個字時,結果顯示100%由AI生成。
當同一工具處理包含事實背景段落的較長版本時,結果完全反轉:100%人類撰寫。 這個工具根本不可靠,不能在法庭或需要高度確定性的情況下信賴。
哥倫比亞律師迅速展開自己的實驗。刑事辯護律師兼講師 Andres F. Arango G 提交了一份2019年的法院文件,該文件早於這些工具訓練用來偵測的大型語言模型出現,結果卻顯示95%的AI生成。 “這些工具接著會邀請你付費‘人性化’文章,”他在X上寫道,指出這種偵測商業模式中明顯的商業動機。 Nicolas Buelvas 以信任原則為題,完成了2020年的本科論文,結果也是100%AI。 另一位哥倫比亞律師 Dario Cabrera Montealegre 指出,依賴技術來對抗技術本身的矛盾。 “法院用AI來判定是否有AI,”他說。“從實務角度來看,這是自相矛盾的。”
La Corte usa IA para determinar si hubo IA…!? Algo contradictorio desde mi punto de vista práctico…Si se rechaza debe ser porque como humanos lo detectamos
— Darío Cabrera Montealegre (@dalcamont_daro) 2026年3月2日
除了法律界,其他技術熟練人士也指出過度依賴AI偵測工具的危險。 “到目前為止,沒有任何公開可用的工具能準確判定一段文本中AI的使用比例,”Carlos Alejandro Torres Pinedo 表示。“更糟的是:沒有人能公開驗證這些偵測平台背後的源碼。它們怎麼能用來質疑某人的司法權利呢?”
這些失誤的技術原因已有充分記錄。AI偵測器測量統計模式:句子長度、詞彙預測性,以及研究者稱之為“突發性”的特徵,指的是人類在寫作中自然引入的節奏變化。 問題在於,正式法律文書、學術寫作,以及用第二語言撰寫的文本,往往具有許多相同的統計特徵。 AI偵測研究 2023年發表在 Patterns 的一項研究發現,超過61%的非母語英語使用者的TOEFL作文被錯誤標記為AI生成。 A同年,Weber-Wulff 的系統性回顧得出結論:目前沒有任何工具既精確又可靠。Turnitin 在2023年6月承認,其自家偵測器在文件中AI內容低於20%時,假陽性率較高。 甚至OpenAI也不得不下架其AI偵測工具,原因是頻繁出現不準確,且無法完成其本職工作。 大學多年前就開始面對這個問題。Vanderbilt在2023年停用Turnitin的AI偵測器,估計每年會產生約3000個假陽性。 亞利桑那大學在一名學生因假陽性失去20%成績後,也將AI偵測功能從抄襲檢測軟體中移除。2024年,UC Davis有17名語言學學生被標記,其中15人是非母語英語使用者。 這個模式一直如出一轍。這些工具偏向懲罰那些最正式、最重複或最謹慎的寫作者,這正是律師、學者和第二語言使用者的特徵。
文化層面的反響甚至接近荒謬。在寫作和新聞界,人們開始避免使用破折號,不是因為風格指南,而是因為AI語言模型頻繁使用它們,偵測工具(以及人們)都注意到了。 作家們出於對算法懷疑,自我編輯自然標點。除了文字世界,藝術家也因創作出看似AI的作品而受到版主和同行的批評。
我們正處於一個真正的藝術家被懲罰的世界,因為他是這些被稱為AI藝術家的竊賊的受害者?#拯救人類藝術家 #反對AI藝術 #反對AI #拯救未來藝術 pic.twitter.com/yTQAeyc8SR
— Benmoran 藝術家 (@benmoran_artist) 2022年12月27日
哥倫比亞的兩個判決——AC739-2026(在其中,民事庭在2月因引用10個不存在的AI生成先例而罰款律師)和AP760-2026——正逐漸成為該地區首批直接面對生成式AI在法律文件中濫用的司法判決。 哥倫比亞司法部門在2024年12月制定了正式指南,規範法官和法院人員如何使用人工智慧。 規則允許在行政和支援任務中自由使用AI,例如起草電子郵件、整理議程、翻譯文件或摘要文本,但對於更敏感的用途,如法律研究或起草程序性文件,則必須經過謹慎的人類審查。 這些指南明確禁止依賴AI來評估證據、解釋法律或作出司法判決,強調人類法官仍對所有裁決負全責,並且在準備司法材料時必須披露是否使用了AI工具。 這些指南,編號為“PCSJA24-12243”,也可用來對此類判決提出異議。
最高法院尚未就其選用偵測工具引發的反彈發表其他聲明。該判決也沒有使用破折號。